id
stringlengths
18
25
text
stringlengths
3.75k
78.6k
reference-summary
stringlengths
202
4.45k
source
stringlengths
33
79
termith-301-chimie
Les chlorures d'azote NH 2 C1, NHC1 2 et NC1 3 sont produits dans les eaux désinfectées au chlore des piscines ou de certaines entreprises agro-alimentaires spécialisées [1] [2] [3] mais également chez les particuliers, par utilisation de produits ménagers [4 ]. La formation de ces chloramines résulte de l'interaction du chlore des solutions de désinfection avec les protéines présentes dans le milieu [1] [2] [3] [4 ], Le trichlorure d'azote NC1 3 présente la particularité d' être très peu soluble dans l'eau et, de ce fait, se retrouve à l'état gazeux dans l'atmosphère des lieux de sa production, en très forte proportion par rapport aux autres chloramines [2] [3] [5 ]. En outre, NC1 3 possède un effet irritant pour les yeux et les bronches de l'homme et constitue donc une nuisance sérieuse pour la santé humaine. L'élimination du trichlorure d'azote est donc un enjeu important dans la lutte contre la pollution de l'air. Toutefois, à notre connaissance, aucun travail n'a encore été publié sur l'élimination des chlorures d'azote par adsorption, ni en phase aqueuse, ni en phase gazeuse. Des travaux anciens (6) semblent indiquer que la présence de charbon actif inhibe la formation de NC1 3 en milieu aqueux. Les études chimiques existantes concernent leur préparation en phase gaz ou liquide (2), leur réactivité en milieu aqueux (7) et leur détection et dosage dans l'eau ou dans l'air [1—3 ]. En outre, relativement peu d'études ont été effectuées sur la structure de NC1 3. Nous avons donc entrepris l'étude de l'adsorption du trichlorure d'azote sur des solides poreux, dont une série de charbons actifs, dopés ou non par Kl et C0 3 Na 2. Nous présentons ici les résultats préliminaires de cette étude, qui portent sur le mode d'adsorption et sur l'effet des dopants et des pressions partielles de NCI3 et de H z O dans la cinétique d'adsorption de NCl 3 (g). Les mesures ont été conduites à température et pression ordinaires en régime dynamique. L'étude de la désorption du trichlorure d'azote a été effectuée par ATG. Le dispositif mis en place permet la production en continu de trichlorure d'azote, obtenu par mélange dans un réacteur vertical en pyrex de solutions d'hypochlorite de sodium (4-10~ 3 mol-L^ 1) et de sulfate d'ammonium (5-10 " 4 mol-L " 1), préparée dans une solution de tampon phosphate à pH 2 [2 ]. Le trichlorure d'azote généré est poussé hors du réacteur par un flux d'air. On peut obtenir, en modifiant les débits des réactifs et de l'air, une variation de la concentration en trichlorure d'azote dans le gaz, dans une gamme allant de 0,5 à 120 mg-m~ 3 (0,1 à 25 ppm) et des débits constants dans le domaine allant de 10 à 25 L-h _1. Le flux de NC1 3 dilué est envoyé sur un lit de charbon actif dont la masse est typiquement de 20 mg. Nous avons utilisé des charbons actifs issus de la pyrolyse de noix de coco commerciaux (PICA) de surfaces spécifiques différentes non dopés (notés NC 100 et NC 60) et dopés par l'iodure de potassium (noté NC 100 + Kl) ou le carbonate de sodium (noté NC 100 + Na 2 C0 3). Les échantillons ont été testés après un dégazage de 15 h à l'étuve, à 120 °C. Pour l'étude de l'influence de la vapeur d'eau, on intercale un piège en amont du solide testé. Ce piège baigne dans un dewar rempli, soit d'eau à la température de la pièce (correspondant à une pression partielle d'eau comprise entre 14 et 20 Torr), soit d'un mélange glace/ chlorure de sodium (correspondant à une pression partielle d'eau voisine de 1,5 Torr) soit d'air liquide (correspondant à une pression partielle d'eau voisine de 0 torr). La trichloramine est dosée par réduction en ions Cl " par As 2 0 3 /Na 2 C0 3, déposé sur cartouches munies de filtres en fibre de verre [2 ]. Après lavage de ces cartouches dans 20 mL de tampon à pH 4,65, les chlorures solubilisés sont dosés par potentiométrie à l'aide d'une électrode spécifique au chlorure (Orion, modèle 94-17B), préalablement étalonnée. Les analyses thermogravimétriques ont été effectuées à l'aide d'une microthermobalance (Sartorius, modèle 4102) avec une montée en température de 25 à 500 °C à 4 " Omin - 1, sous un courant d'azote de 50 mL-mn - 1. L'analyse de l'azote gazeux à la sortie de l'échantillon d'adsorbant a été effectuée à l'aide d'un chromatographe Intersmat IGC 120 MB, en utilisant une colonne Carbosphere et de l'argon (N45, Air Liquide) comme gaz vecteur. Les principaux résultats de notre étude d'adsorption de NC13 sont reportés sur lesfigures 1 et 2 et dans les tableaux I à III. Les charbons actifs montrent une efficacité significative dans l'adsorption de la trichloramine. Ainsi, au bout de 5 h de travail environ, l'échantillon NC 60 n'est pas complètement saturé et il a adsorbé NC1 3 pour l'équivalent de 1 3 % de sa masse {tableau I). Par ailleurs, l'échantillon N C 100 adsorbe moins de trichloramine que l'échantillon N C 60, alors que son aire spécifique et son volume poreux sont supérieurs {tableau I), ce qui est inattendu. Ce phénomène serait lié à des structures ou tailles des pores différentes. Des études de distribution de pores seraient nécessaires pour le confirmer. Les vitesses initiales d'adsorption du solide NC 60 augmentent avec la teneur en trichlorure d'azote dans l'effluent gazeux, comme le montrent les courbes de la figure 2. Au bout de 4 h de travail, la quantité de NCl 3(g) captée passe de 0,8 à 7,0 % de la masse du charbon lorsque la pression partielle de trichlorure d'azote introduite dans le réacteur passe de 2,5 à 44,9 mg-m~ 3. Aux fortes pressions partielles, ces courbes semblent tendre vers une limite, qui correspond à la saturation des sites de chimisorption. L'étude cinétique montre que la vitesse initiale est d'ordre 1 par rapport à la chloramine et temps est du type : 6 = 1 - exp(-£ [NC13] t). L'effet de l'eau est remarquable. En effet, pour le charbon actif NC 60, la capacité d'adsorption est divisée par au moins 20 lorsque la pression partielle d'eau est divisée par 10 {tableau I). Le phénomène est confirmé lorsque la pression partielle d'eau est voisine de zéro. Les faibles quantités de trichlorure d'azote adsorbées à une pression partielle d'eau voisine de zéro peuvent correspondre à la capacité d'adsorption intrinsèque du charbon actif en atmosphère sèche. Toutefois, elles peuvent être aussi attribuées à la présence de traces d'eau provenant du gaz entrant chargé en réactif. Si tel est le cas, on peut y voir une assistance des molécules d'eau lors de l'adsorption du trichlorure d'azote sur les charbons actifs. Pour une pression partielle d'eau voisine de 20 Torr, les performances du charbon actif NC 100 sont améliorées par dopage par Kl. Au bout de 8 h de travail, et dans des conditions opératoires identiques (débit : 12 L-h - 1, [NC1 3] = 12 mg-m~ 3), le solide dopé par Kl a adsorbé 15 % supplémentaires de trichloramine. Le dopage par Na 2 C0 3 produit l'effet inverse car, dans les mêmes conditions, les capacités d'adsorption du NC 100 sont réduites de 25 %. Dans le cas du dopage par l'iodure de potassium, on peut penser que la réaction entre le solide et la trichloramine est améliorée par la présence d'ions I - réducteurs, en bon accord avec une étude théorique par ailleurs entamée sur la structure de NC1 3 (8). Dans le cas du dopage par le carbonate de sodium, la trichloramine n'est pas hydrolysée par les ions OH~ de surface, contrairement à ce qui est observé en milieu aqueux (6). La diminution de la capacité d'adsorption s'expliquerait alors par l'occupation de sites actifs d'adsorption par les molécules de carbonate de sodium. Un échantillon de charbon actif non dopé de 100 mg a été soumis à l'action de NC1 3 dans les conditions décrites ci-dessus (vapeur d'eau : 14,5 Torr), puis étudié par ATG, sous azote, entre 25 et 500 °C. On observe un pic de désorption vers 85 °C. Les résultats quantitatifs sont donnés dans le tableau II. Après action de NCI3, l'échantillon subit une augmentation de masse de 35,5 mg, dont approximativement 12 mg d'équivalent NC1 3 (analysée parallèlement), ou 10,6 mg d'équivalent Cl, et le reste d'eau. Après thermodésorption sous azote, la perte de masse observée est de 35,4 mg. Ce résultat indique que la totalité de la matière adsorbée sous atmosphère NC1 3 s'est désorbée après le test ATG. En sortie de l'appareil ATG, nous avons placé un dispositif nous permettant de détecter la présence de NC1 3 ou de Cl 2 susceptibles d' être libérés dans l'effluent gazeux au cours de la thermodésorption. Le réactif de détection est Kl en solution à 100 g-L _1, à laquelle on ajoute quelques gouttes d'empois d'amidon. Nous n'avons observé aucune coloration de la solution au cours de l'ATG; le trichlorure d'azote adsorbé ne se désorbe donc ni sous forme de Cl 2 ni sous forme de NC1 3. Nous avons conclu à la chimisorption dissociative de NC1 3 selon le mécanisme suivant : NC13 (gaz) NCl3(ads) - > N2 (gaz) + Cl (ads Ce mécanisme est confirmé par les expériences suivantes. 1) Des échantillons de charbon actif soumis (usé) ou non (neuf) à l'action du trichlorure d'azote ont été étudiés par analyse centésimale (,tableau III). Les résultats montrent que l'échantillon usé contient bien du chlore chimisorbé et qu'aux erreurs expérimentales près, il n'a pas retenu d'azote. 2) Nous avons soumis une charge importante (4 g) de charbon actif à un courant gazeux d'argon fortement chargé en trichloramine (600 mg-nT 3, soit 125 ppm). Le gaz qui traverse le lit d'adsorbant est ensuite analysé par chromatographie. L'analyse CPG montre la mation quantitative d'azote moléculaire. Si ce mécanisme est vrai, la perte de masse observée en ATG (tableauII) correspondrait à la désorption de chlore sous forme de HC1 entraîné par la vapeur d'eau. L'adsorption de la trichloramine sur charbon actif apparaît donc bien dissociative. La nature de l'espèce chlorée adsorbée reste, quant à elle, à déterminer. Il en est de même pour les mécanismes réactionnels mis en jeu dans cette réaction de surface, notamment le rôle de la vapeur d'eau dans les résultats observés. Nous avons étudié la capacité d'adsorption du trichlorure d'azote gazeux en milieu humide par différents charbons actifs. Dans nos conditions opératoires, ces solides adsorbent jusqu' à environ 13 % de leur masse en trichloramine en atmosphère humide. Le dopage par l'iodure de potassium ou le carbonate de sodium modifie sensiblement (+15 %, - 25 %) leur efficacité. La capacité de chimisorption est remarquablement diminuée en l'absence de vapeur d'eau (elle est divisée par 20 quand la pression partielle d'eau est divisée par 10). Une étude mécanistique suggère que le trichlorure d'azote s'adsorbe dissociativement, avec formation d'azote moléculaire gazeux et de chlore irréversiblement retenu par le charbon actif. Sur les adsorbants testés, la vitesse initiale de chimisorption est d'ordre 1 par rapport à la trichloramine et le taux de recouvrement varie selon la loi : G = 1 - exp(-£ [NC1 3] t). Notre étude se poursuit par la mise en oeuvre d'expériences nous permettant de mieux connaître les mécanismes réactionnels de surface mis en jeu au cours de l'adsorption du trichlorure d'azote sur solide poreux, ainsi que par une modélisation de l'interaction entre la trichloramine et les entités réductrices T et basiques OH~ .
En atmosphère humide, la trichloramine gazeuse s'adsorbe dissociativement sur le charbon actif, avec formation d'azote moléculaire gazeux et d'espèces chlorure irréversiblement chimisorbées. La loi cinétique d'adsorption est du type : θ = 1 - exp(-k [NCl3] t). Le charbon actif utilisé peut adsorber plus de 13 % de sa masse en NCl3 en atmosphère humide. L'addition de KI augmente son efficacité (+15 %) mais celle de Na2CO3 la diminue (-25 %). Les capacités d'adsorption sont remarquablement diminuées en absence de vapeur d'eau (division par 30 à 40 fois).
chimie_00-0081160_tei_elsevier_00-0081160_CRAS-IIc-Chim.tei.xml
termith-302-chimie
La structure cristalline du sel de diammonium du 2-2 azinobis-3 éthyl benzothiazoline sulfonate (ABTS)(NH 4) 2 ·2 H 2 O a été précédemment résolue 〚1〛. Le dianion ABTS 2– peut être facilement oxydé en un radical anionique ABTS •– stable 〚2〛 à un potentiel facile à atteindre, E = 0,68 V. Le dianion et le radical anion peuvent ainsi s'associer à des cations organiques dérivés du TTF (tetrathiafulvalène), comme cela a été montré avec l'obtention de la phase (ABTS)(EDT–TTF) 2 DMF 〚3〛 (EDT–TTF est l'éthylène dithiatetrafulvalène) ou avec des cations inorganiques, comme le calcium Ca 2+ 〚4〛, ou encore avec des métaux de transition, tels que le fer et le cuivre 〚5〛, conduisant à des formules Fe 2 O(ABTS)(H 2 O) 11 et Cu(ABTS) 2 (H 2 O) 8. Dans le cas du calcium, plusieurs phases sont obtenues, avec différentes morphologies (plaquettes ou aiguilles), stœchiométries (Ca 5 (ABTS) 6 ,(H 2 O) 29 ou Ca 0,55 (ABTS)(H 2 O) x) et caractéristiques structurales (réseaux mono - ou bidimensionnels). Parallèlement à ces études poursuivies avec d'autres métaux de transition et en raison de la diversité des phases isolées, nous avons envisagé d'associer l'ABTS à des terres rares. Nous présentons ici les premiers résultats obtenus dans le cas du lanthane. La méthode de synthèse utilisée ici est l'électrocristallisation. La cellule en forme de U est constituée de deux compartiments, comportant chacun une électrode de platine et séparés par un verre fritté. La cellule est fermée sous atmosphère inerte et un courant d'intensité constante est appliqué entre les deux électrodes. L'anode constitue l'électrode de travail à laquelle a lieu l'oxydation des molécules électroactives. Les principaux facteurs influant sur la synthèse sont la densité de courant, la nature du solvant, la concentration en réactifs et la température. Les conditions expérimentales optimisées après de nombreux essais préliminaires sont les suivantes : électrolyte support LaCl 3 ·7 H 2 O, ABTS·(NH 4) 2 14,8 mg dans 2 × 7 mL d'H 2 O, intensité du courant 1,5 μA, température 293 K. Après une semaine de réaction, des cristaux noirs en forme de plaquettes sont récupérés sur l'anode. La structure cristalline a été déterminée par diffraction des rayons X sur monocristal. L'enregistrement a été réalisé à l'aide d'un diffractomètre STOE à axe unique ϕ, comportant un détecteur 2D basé sur la technologie Imaging Plate 〚6〛. Un système cryogénique Oxford à flux d'azote a permis une collecte des données à basse température (200 K), en raison de l'instabilité de cette phase, due au départ de molécules d'eau libres à température ambiante. Ce type d'instabilité a déjà été observé dans plusieurs phases analogues 〚4〛. Les paramètres de la maille cristalline ont été affinés à partir de 5  000 réflexions. La structure a été résolue à l'aide des logiciels SHELXS 97 et SHELXL 5.1 〚7〛 par une combinaison des méthodes directes et de synthèses de Fourier différences. Les atomes d'hydrogène ont été placés par le calcul. Seules les positions des atomes d'oxygène n'ont pas été affinées de façon anisotrope. Toutes les positions des atomes d'oxygène des molécules d'eau apparaissent clairement sur les Fourier différences. Les données cristallographiques, les conditions d'enregistrement et les résultats d'affinement sont rassemblés dans le tableau I. Les positions atomiques, les facteurs de température isotropes et anisotropes, les positions des hydrogènes, les distances et les angles font partie des données supplémentaires. La résolution structurale montre la présence de trois atomes de lanthane, de cinq molécules d'ABTS, dont quatre non centrosymétriques et de trente et une molécules d'eau. Les résidus électroniques sont situés au voisinage des atomes de terre rare (0,9 Å). Contrairement à ce qui est observé dans d'autres phases similaires, il n'y a pas de désordre des groupements sulfonates à cette température. La structure présente un caractère bidimensionnel analogue à celui observé dans Ca 5 (ABTS) 6 ·(H 2 O) 29 〚4〛. Elle peut être décrite comme une alternance, selon l'axe c, de plans organiques et inorganiques se développant dans le plan (a,b) (figure 1). Les plans inorganiques sont constitués des polyèdres de coordination des trois cations lanthane (La1–La3). Chaque lanthane est entouré de neuf atomes d'oxygène. Un exemple de polyèdre de coordination du lanthane est donné par la figure 2. Les distances lanthane–oxygène sont indiquées dans le tableau II. Les premières sphères de coordination des cations La 3+ sont constituées de un, deux ou trois atomes d'oxygène (pour La1, La2, La3 respectivement), appartenant à des groupements sulfonates; les oxygènes restants sont ceux des 21 molécules d'eau de cristallisation. Les 10 molécules d'eau restantes sont insérées dans les plans inorganiques et assurent la cohésion de l'ensemble par un réseau de liaisons hydrogène. Un calcul de valence, selon les tables de Brese et O'Keefe 〚8〛, conduit pour les atomes de lanthane à une valence moyenne de 3,1(2), en accord avec la présence de lanthane au degré d'oxydation +III. Si on considère l'équilibre des charges, il impose la présence de radicaux ABTS •– et de dianions ABTS 2–; la formule doit se mettre sous la forme (La 3+) 3 (ABTS 2–) 4 (ABTS •–) 1 (H 2 O) 31, correspondant à un complexe à valence anionique mixte. En raison des faibles différences des longueurs des liaisons, il n'est pas possible d'identifier la molécule correspondant au radical. L'arrangement des plans organiques est dérivé du type β′′ 〚9〛. Les distances observées, soufre–soufre ou soufre–azote, sont supérieures à 4 Å et sont donc trop élevées pour autoriser des recouvrements orbitalaires. Ces distances importantes sont dues essentiellement à la présence des groupements C 2 H 5, quasiment perpendiculaires aux plans moyens des molécules. Parmi les cinq molécules d'ABTS, une seule n'est pas connectée à un polyèdre inorganique. Une étude par RPE sur monocristal confirme le caractère anisotrope de la structure, trois valeurs de g étant observées selon les trois directions cristallographiques g x = 2,001(2), g y = 2,002 7(2), g z = 2,004(2), soit une valeur moyenne < g > = 2.002 8(3). Celle -ci est proche de la valeur moyenne déterminée pour le radical ABTS –, < g > = 2.003 5(3) 〚1〛. En raison de l'instabilité des cristaux à température ambiante, les essais de mesure de conductivité n'ont pas donné de résultats satisfaisants. L'obtention de ce nouveau sel à valence mixte montre la facilité de complexation de l'ABTS avec des cations, aussi bien organiques qu'inorganiques, de charges différentes (Ca 2+, Cu 2+, Fe 3+ ou La 3+) et la diversité des structures qui en résultent. L'utilisation de terres rares autres que le lanthane devrait conduire à l'apparition de propriétés physiques intéressantes, comme on a déjà pu l'observer dans le cas des métaux de transition .
La synthèse par électrocristallisation d'un nouveau sel à transfert de charge entre l'anion organique ABTS2-, le radical anion ABTS.-(ABTS est le 2-2 azinobis-3 éthyl benzothiazoline sulfonate, sous la forme du sel d'ammonium (ABTS)(NH4)2.2 H2O) et le cation inorganique La3+ a permis d'obtenir des monocristaux noirs en forme de plaquettes, correspondant à une phase de formulation La3(ABTS)5(H2O)31. La résolution structurale à 200 K a montré que cette phase était de symétrie triclinique, avec pour groupe spatial P1. Les paramètres de la maille cristalline sont: a = 18,342(4) Å, b = 17,720(4) Å, c = 20,394(4) Å, a = 87,97(3)°, β = 79,08(3)°, y = 85,21(3)°, V= 6 850(2) Å3 et Z = 2. La structure cristalline présente un caractère bidimensionnel, basé sur une alternance de plans organiques et inorganiques. Un calcul de valence de liaison est en accord avec le degré d'oxydation du lanthane La3+. Ce composé est un complexe à valence mixte anionique, puisque sa formule, tenant compte de l'équilibre des charges, peut se mettre sous la forme: (La3+)3(ABTS2-)4(ABTS.-)1(H2O)31.
chimie_02-0137965_tei_elsevier_02-0137965_CRAS-IIc-Chim.tei.xml
termith-303-chimie
Les propriétés des mélanges eau-HF mesurées par voie électrochimique indiquent des changements importants au niveau de l'ionisation en solution (1-3) en passant des solutions diluées aux mélanges très concentrés. En particulier dans la région de 45 à 75 % en poids de HF, plusieurs propriétés passent par un maximum ou une transition. La température d'ébullition (4), la conductivité (1), l'activité en ions fluorure (2, 3) et la densité (1) en sont des exemples. L'étude des mélanges eau-HF par spectroscopie infrarouge effectuée par Giguère et Turrell (5, 6) permet d'établir de façon claire les espèces présentes jusqu' à 46 % en HF. A plus grande concentration en HF, la compréhension des propriétés électrochimiques et physiques nécessite la connaissance des espèces ioniques et moléculaires en solution. L'utilisation de la spectroscopie infrarouge nous permet donc de mettre en évidence l'évolution des espèces formées en solution avec la concentration croissante en HF de 10 à 90 %. Par ces études, on mettra en évidence les espèces ioniques H 3 0 +, HF 2 " et la probabilité de la formation des espèces polymériques du fluorure d'hydrogène. Ces résultats confirment et expliquent les propriétés particulières des mélanges eau-HF observées lors des études en électrochimie. Les solutions de HF sont préparées à l'avance. Les spectres ont été enregistrés à la température ambiante à l'aide d'un appareil infrarouge à transformée de Fourier Nicolet MX1 avec une résolution de 2 cm " '. Le temps de balayage se situe entre 30 et 60 secondes. Pour les mélanges eau-HF contenant moins de 46 % en poids de HF, nous avons utilisé un film capillaire formé en pressant une fine goutte de liquide entre deux pastilles de KBr. A plus grande concentration en HF, nous avons utilisé la même technique avec des pastilles de AgCl à cause de la réactivité de la solution vis-à-vis le KBr. Le spectre est enregistré rapidement à cause de la haute pression partielle du HF. La figure 1 montre une superposition des spectres qui permet de voir l'évolution des bandes attribuées aux différentes espèces en solution. Les tableaux 1-4 résument les attributions des bandes entre 4000 et 2500 cm " 1, 2500 et 1600 cm " 1, 1600 et 800 cm " 1 et 800 et 400 cm " 1. Région de 4000 à 2500 cm~&apos; Lorsqu'on ajoute du HF à l'eau, on peut remarquer l'apparition d'un épaulement vers 2700 cm " 1. L'intensité de cet épaulement augmente jusqu' à une concentration de HF 51 % en poids et se déplace légèrement vers les fréquences plus élevées. À partir de 61 % de HF, on observe une diminution de l'intensité pour cet épaulement par rapport au pic situé vers 3500 cm " 1. Les deux bandes forment un ensemble qui s'étend entre 3700 et 2500 cm " 1 pour les solutions plus concentrées en HF. Giguère et Turrell (5, 6) ont attribué cette bande vers 2700 cm " 1 à une vibration v 3 de H30 + pour les mélanges contenant moins que 46 % de HF. Cette bande qui est due à une liaison hydrogène très forte entre H 3 0 + et l'ion de fluorure en solution se déplace vers les fréquences plus basses en comparaison avec les mélanges similaires de HC1 et l'eau qui se trouve vers 2900 cm " " 1. Pour ces mélanges, la force de liaison hydrogène entre les ions de Cl " et H 3 0 + est considérée très faible. Dans nos études, le déplacement et la diminution de l'intensité de la bande vers 2700 cm " 1 sont peut-être dus respectivement à une baisse de la force de liaison hydrogène entre H 3 0 + et l'ion de fluorure et la décroissance des espèces ioniques H 3 0 + dans les solutions concentrées de HF. D'autre part, on a remarqué que les bandes v i et v 3 de l'eau située dans cette région vers 3500 cm " 1 persistent toujours et même augmentent d'intensité à partir des solutions contenant 61 % de HF. D'après les études suivantes qui montrent la disparition quasi totale des bandes caractéristiques de l'eau sur les spectres ir à partir de 61 % en HF, cette bande vers 3500 cm " 1 ne peut pas appartenir à l'eau. Si on se réfère aux travaux de Couzi (7) qui ont été effectués pour HF gazeux et les travaux de Gennick et al. (8) pour HF dans un milieu aqueux en présence des ions d'alkylammonium ainsi que les études de Desbat et Huong (9) qui comparent les spectres ir des mélanges concentrés en HF et ceux de HF gazeux, on est convaincu que cette bande large située vers 3500 cm - 1 est due à la formation des espèces de polymères ioniques de HF. D'autre part, les études précédentes (10, 11) confirment nos résultats et montrent que les spectres infrarouges des mélanges concentrés en HF sont comparables à ceux du HF gazeux. La région de 2500 à 1600 cm~&apos; La comparaison des spectres infrarouges de l'eau (12) et des mélanges eau-HF jusqu' à 97 % montre les points suivants : 1. Les vibrations de l'eau situées vers 1645 et 2125 cm " " ' diminuent d'intensité avec l'augmentation de la concentration en HF à partir de 61 % en HF; ces bandes caractéristiques disparaissent complètement pour donner leurs places à une bande de vibration large située entre 1600 et 2000 c m - 1. L'intensité de cette bande augmente et son maximum se trouve vers 1730 c m - 1 aux hautes concentrations en HF. 2. On peut noter que, pour les solutions de 10 à 50 % en HF, la disparition des deux bandes caractéristiques de l'eau est suivie par l'apparition d'une bande dont le maximum est situé vers 1880 cm " 1. Dans les solutions aqueuses de HF, la bande de vibration centrée à 1880 cm " 1 est symétrique. Par analogie avec le spectre des autres acides minéraux (11), Giguère et Turrell (5, 6) ont attribué cette bande au pliage (bending mode) v 4 de l'ion H 3 0 +. Cette fréquence, beaucoup plus élevée que dans l'acide chlorhydrique (1750cm " 1), a été attribuée à la formation de paires d'ions liés par liaison hydrogène. On peut représenter ces ions à partir de l'équilibre suivant : Cette fréquence, très élevée pour un pliage hors plan, est indicatrice d'une très grande force de rappel. À partir de 50 % en HF, on note un élargissement et le déplacement du pic à 1800 cm " 1 vers 1730 cm " 1. La bande devient non symétrique et s'étend encore de 200 à 1600 cm " 1. Le maximum à 1730 cm " 1 apparaît d'abord comme un épaulement et augmente d'intensité avec la concentration en HF jusqu' à 90 %. D'après les études effectuées par Emsley (12) sur les spectres infrarouges de HF 2 ~ et qui fait intervenir les résultats de recherches de différents auteurs, il est fort probable que l'apparition de l'épaulement vers 1730 cm " 1 et le déplacement de la bande de vibration à 1880 cm " " 1 vers 1730 cm " 1 sont dus à la formation de l'espèce ionique HF 2 - selon les équilibres suivants : La bande de vibration v3 de HF2 - peut être retrouvée entre entre 1450 et 1900 cm " 1. Harmond et al. ont observé cette bande à 1740 cm " 1. D'après nos résultats de spectroscopie infrarouge, il est possible de prévoir les conclusions suivantes sur les espèces ioniques et moléculaires dans les mélanges eau-HF : 1. La diminution à partir de 10 % en HF et la disparition quasi-totale de l'eau « libre » à partir de 60 % en HF. 2. L'apparition et l'augmentation de la concentration de la paire d'ions H 3 0 + - F " de 10 à 50 % en HF. 3. L'apparition à partir de 50 % en HF et l'augmentation de la concentration de HF 2 ~ jusqu' à 85 % en HF. La région de 1600 à 800 cm Dans cette région de vibration, l'eau ne possède aucune bande en infrarouge. Par contre, on peut constater sur le spectre des mélanges eau-HF l'apparition d'un épaulement situé vers 1035 cm " 1. D'autre part, on peut noter qu'avec l'augmentation de la concentration en HF jusqu' à 50 %, l'épaulement à 1030 cm - 1 se transforme en un pic large dont le maximum se situe à 1000 cm " " 1. À plus de 50 % en HF, ce pic diminue d'intensité et on voit apparaître vers les fréquences plus élevées une bande large. A partir de 60 % en HF, on observe une bande large centrée à 1260 cm " 1 et dont l'intensité augmente jusqu' à 90 % en HF. Le tableau 3 résume l'évolution des différentes bandes. Les observations ci-dessus ainsi que les interprétations citées pour les bandes de vibration situées entre 1600 et 2500 cm " 1 nous conduisent aux conclusions suivantes : 1. On peut interpréter l'apparition de l'épaulement à 1035 cm " 1 dont l'intensité suit celle du pic à 1800 cm " 1 à une bande de vibration de l'ion H 3 0 +. Giguère (5) a attribué la faiblesse et la largeur anormalement élevée de cette bande au complexe H 3 0 + - F~. Dans les autres acides minéraux, v 2 de H 3 0 + est beaucoup plus intense et centré à 1200 cm " '. Cette particularité est consistante du point de vue du moment dipolaire de H 3 0 + - F ". .2. La diminution d'intensité de la bande centrée à 1035 cm " 1 suivie de l'apparition de la bande à 1260 cm " 1 qui augmente d'intensité avec la concentration en HF de ia même façon que la bande à 1730 cm " 1 doit être due à la formation et à l'augmentation de concentration de l'espèce HF 2 ". Selon Emsley (12), la bande v 2 de HF 2 ~ est un mode de vibration dégénéré. Ceci pourrait expliquer la largeur importante de la bande à 1260 cm " 1. La région de 800 à 400 cm'1 Dans cette région de vibration, l'eau possède une bande large située entre 300 et 700 cm " 1 avec un maximum centré à 500 cm " 1. Sur les spectres infrarouges des mélanges eau-HF, on peut constater une diminution de l'intensité de ce pic etun élargissement avec l'augmentation de la concentration en HF. A partir de 46 % en HF, on observe aussi l'apparition d'un épaulement puis d'un pic vers les fréquences plus élevées. On observe encore un maximum vers 650 cm " 1 pour des concentrations de 78 à 90 % en HF. Le tableau 4 résume l'évolution des bandes dans cette région. .Par ailleurs, on peut remarquer que l'apparition de l'épaulement et l'augmentation de ce pic, déplacé vers les fréquences plus élevées, suivent de façon évidente la présence et l'augmentation d'intensité des deux bandes vers 3500 et 2770 cm " 1. Ces deux bandes de vibration avaient été attribuées à la formation des espèces polymériques de HF avec l'augmentation de la concentration de HF jusqu' à 90 %. Ces observations nous poussent à croire que l'apparition de cette bande de vibration à 650 cm " 1 doit être liée à la formation des espèces polymériques en solution (14). D'autre part, dans HF gazeux, on observe des vibrations de déformation à 800 cm - 1 attribuées aux multimètres du fluorure d'hydrogène. À partir des mesures de spectroscopic infrarouge sur le système eau-HF, on peut déduire le points suivants : 1. Dans les mélanges eau-HF jusqu' à 50 % en poids de HF, l'espèce ionique dominante est le H 3 0 + fortement lié à l'ion fluorure. 2. À partir de 50 % en HF, la concentration de HF 2 ~ augmente pour atteindre au maximum entre 80 et 90 % en HF. 3. Ces travaux nous ont montré aussi la probabilité de formation des espèces polymériques dans le système aqueux de HF, comme c'est le cas pour HF gazeux (7, 9) et en présence d'ions alkylammonium (8). Il faut noter que les conclusions déduites de la spectroscopic infrarouge confirment les travaux effectués en électrochimie. La conductivité reste élevée jusqu' à 65 % en HF; l'activité en ions fluorure baisse rapidement entre 45 et 65 % en HF; le potentiel de réduction des métaux est affecté par une espèce en solution différente de l'ion fluorure entre 50 et 100 % en HF .
Etude de l'évolution des espèces ioniques de HF selon la concentration. Jusqu'à 50% HF en poids, présence de H3O+F−, H3O+, F− et H2O. Au-delà, présence de HF2− et de polymères (HF)n (dans les solutions à hautes concentrations en HF)
chimie_87-0468978_tei_32.v87-138.tei.xml
termith-304-chimie
Dans un travail préliminaire, un mécanisme de transposition des chaînes alkylées a été proposé (I) pour expliquer la fragmentation en phase gazeuse de cations radicaux organiques de faible énergie interne. Ce mode de réarrangement (schéma 1) a été mis en évidence lors de l'étude des éthers (1, 2), des benzoates d'alkyle (3) et de l'acide isopentaoïque (4). 11 est induit par le transfert d'un hydrogène de la chaîne sur la fonction présente dans la molécule, conduisant à un intermédiaire dans lequel un ion cyclopropanique substitué est lié à une molécule neutre. Le même mode de transposition est observé pour les aminés. Alors qu' à 70 eV, le spectre de masse des ions aminés [R—CH 2 —NH :] t-ne présente qu'un seul pic très intense : m/z 30 (CH 2 —NH 2). ce pic est le plus souvent absent du spectre MIKE dès lors que la longueur de la chaîne excède trois carbones (1, 5-7). Des pics intenses apparaissent à m/z 44, 58, 72, etc. .. Ils correspondent à des ions plus substitués et donc plus stables dont la formation implique une transposition préalable de la molécule. Ainsi la décomposition métastable de l'isoamylamine (1) conduit à l'obtention d'un ion fragment abondant m/z 58 de structure [(CH 3) 2 —C ' —NH 2] (8) dont la formation a été expliquée par le mécanisme représenté schéma 2. Afin de vérifier la validité et la généralité de ce mécanisme, les aminés alkylées et substituées en position 2 ont été étudiées dans ce travail (1 à 5. schéma 3). (a) Les spectres MIKE des ions 1 à 5 (tableau 1) présentent : des ions correspondant à l'élimination d'un radical (m/z 44, 58, 72 et m/z 30 dans le seul cas de 1) qui sont généralement intenses; des ions découlant de la perte d'une molécule d'alcène dès lors que la chaîne principale contient cinq carbones au moins (ions m/z 59 et 73 dans les aminés 3 et 5); des ions m/z 32, [CH,—NH,] f de faible abondance; enfin des ions [M — NH,] + dont l'étude est rendue difficile par la présence fréquente d'ions situés à une unité de masse inférieure et dont l'origine n'a pu être précisée. (b) Les spectres ont été comparés à ceux d'amines isomères. Seuls ont été rapportés les résultats relatifs aux aminés 6 à 10 à cinq atomes de carbone, isomères de 2. Tous ces spectres diffèrent fondamentalement de celui de 2, ce qui indique que cette aminé ne s'isomérise pas en une forme moléculaire ionisée avant dissociation. (c) Tous les pics correspondant à la perte d'un radical sont fins, les valeurs de T 0, 5 étant faibles et inférieures à 0,020 eV (tableau 2). (d) Les structures des ions m/z 44 et 58 ont déjà fait l'objet d'une étude particulière (8). Dans le cas des aminés 1 à 4, l'ion m/z 44 a toujours la structure [CH,—CH—NH,] ' et l'ion m/z 58 : [CH.,—CH 2 —CH—NH 2 ]\ (e) Enfin de nombreux composés marqués ont été préparés (tableaux 3, 4 et 5). 2. Les spectres MIKE des composés 1 à 5 et de leurs dérivés marqués sont en accord avec le mécanisme d'isomérisation proposé Ruptures simples et réarrangements Le comportement de l'isobutylamine 1 se distingue nettement de celui des homologues supérieurs 2 à 5 : le pic m/z 30 est très intense dans le spectre MIKE de 1 (tableau l); il est totalement déplace à m/z 32 pour l'isobutylamine 1,1-A et correspond donc à une rupture simple; et les pics m/z 44 et 58 sont de très faible intensité. Par contre l'absence de pic m/z 30 dans les spectres MIKE des aminés 2 à 5 (tableau 1), l'élimination totale des hydrogènes en position 1 lors de la formation des ions m/z 44 notamment (tableaux 3, 4 et 5) prouvent qu'il y a réarrangement des ions moléculaires avant leur dissociation. En particulier, les spectres MIKE des aminés isomères 3 et 4 présentent des pics intenses aux mêmes unités de masse avec des valeurs de T a i très proches. Seules les intensités respectives des pics et notamment l'existence d'un pic important à m/z 59 pour 3, permettent de différencier les deux spectres. Ces observations suggèrent l'existence d'intermédiaires de fragmentation communs. Mécanisme de réarrangement de la méthyl-2 pentylamine 3 La fragmentation de l'aminé 3 est précédée d'un échange des hydrogènes du groupe NH 2 (tableau 3 : 3A). Toutefois cet échange n'implique pas les hydrogènes en position 1 (3b) ou 2 (3c); la même observation a déjà été faite pour les aminés linéaires (7). Les hydrogènes portés par le C3 ' ne s'échangent que lentement; par contre, ceux portés par les groupes CH 2 sont nettement impliqués (3e). C'est donc par la migration sur l'azote de l'un des hydrogènes échangeable que débute la fragmentation; cette première étape conduit aux ions a, b et c (schéma 4). Les ions a et b conduisent aux formes d dans lesquelles un ion cyclopropane ionisé est lié à une molécule d'ammoniac. Ces entités s'isomérisent par fixation de NH 3 sur un carbone substitué du cyclopropane qui s'ouvre pour donner les ions intermédiaires de type e dont la dissociation conduit aux ions fragments m/z 44, 58 et 72 (schéma 4). Les mécanismes de formation de ces fragments sont confirmés par l'étude des spectres des composés spécifiquement marqués (tableau 3). (/) La formation de l'ion m/z 44, de structure [CH 3 —CH—NH 2 ]+ (8), se produit avec rétention des hydrogènes du C2 (3c) et du groupe CH 3 en position 3 ' (3d, 3/ et 3g) mais avec élimination des hydrogènes du Cl {3b), ce qui est conforme au mécanisme proposé, (ii) Le pic m/z 72 est déplacé à m/z 74 pour le composé 3b, à m/z 73 pour 3c et 3f, à m/z 75 pour 3d et 3g, ce dont rend compte le schéma 4. (iii) Enfin, conformément à ce schéma, l'ion m/z 58, de structure [CH 3 —CH 2 —CH—NH,] + (8), a deux origines. Pour 20 % environ (tableau 3) cet ion se forme à partir de a avec élimination des hydrogènes portés par les carbones Cl, C2 et C3 '. La fraction dominante de l'ion m/z 58 découle de b : selon ce mécanisme, l'ion est déplacé h m/z 59 pour 3c et 3/, à 60 pour 3b et à 61 pour 3d et 3g. Dans les dérivés marqués pour lesquels il y a échange d'hydrogène avant isomérisation, les résultats expérimentaux ont été comparés à ceux d'un calcul statistique en supposant l'échange rapide d'atomes d'hydrogène portés par le groupe NH 2 avec les quatre portés par les groupes CH 2 en positions 3 et 4. Un tel calcul revient à rechercher par exemple dans le dérivé 3a, les intensités respectives des pics m/z 44, 45 et 46 en considérant un système H 4 D 2 (9) avec rétention de deux de ces atomes dans l'ion comme le prévoit le mécanisme proposé. Les bonnes corrélations obtenues pour les dérivés 3a (H 4 D 2) et 3e (H 4 D 2 avec rétention du groupe CD 3) confirment que l'échange des hydrogènes en 3 et 4 est facile et celui des hydrogènes en 3 ' beaucoup plus lent (tableau 3). Enfin l'ion c ne saurait être précurseur des ions fragments étudiés : en effet, la fixation de NH 3 sur le carbone 4 à partir de c conduirait à un ion m/z 44 contenant les carbones 4 et 5, ce qu'infirment les spectres des dérivés marqués. Par contre, par rupture simple, c donne l'ion m/z 59 (schéma 4). Intermédiaires de fragmentation communs à la méthyl-2 pentylamine 3 et à l'éthyl-2 butylamine 4 Du fait de son caractère symétrique, la fragmentation de l'aminé 4 est plus simple (schéma 5). Le transfert d'un hydrogène de la position 3 sur l'azote conduit au complexe d u puis après isomérisation à d 2 et d 3. Les ions m/z 44, 58 et 72 découlent des ruptures de d 2 et d 3. Les intermédiaires d\, d 2 et d 3 sont identiques à ceux formés à partir de l'aminé 3 (schémas 4 et 5) : l'identité des valeurs de r 0, 5 pour les ions m/z 44 et 72 (tableau 2) dans les spectres de 3 et 4 témoigne de l'existence de ces intermédiaires communs. Les composés marqués (tableau 4) corroborent le mécanisme : il y a élimination des H1 et H2 lors de la formation de l'ion m/z 44, rétention de ces hydrogènes lors de celle de l'ion m/z 72 et élimination des H1 lors de celle de l'ion m/z 58. Il y a par ailleurs échange rapide des H3 et H4 avec ceux du groupe NH 2 avant isomérisation. Les comportements de 3 et 4 se distinguent toutefois sur deux points : (0 le pic m/z 58 est nettement plus intense dans le spectre de 3 : comme il a été montré, la fraction principale de ce pic provient dans ce composé de la fragmentation de l'ion b qui ne peut se former à partir de 4 (schéma 4); l'élimination d'alcène est une fragmentation importante pour l'aminé 3 {m/z 59, [M — C 3 H 6] +) alors que le pic correspondant m/z 73 [M — C 2 H 4] + est pratiquement inexistant dans le spectre de 4. La plus grande stabilité de la molécule de propène par rapport à celle d'éthylène serait à l'origine de ce phénomène. L'ensemble de ces données permet de conclure que 3 et 4 se fragmentent au travers des intermédiaires communs d ], d 2 et d 3 et que les réactions 3 ou 4 — » d ne sont pas réversibles. La méthyl-2 butylamine 2 conduit à un intermédiaire dans lequel les carbones en positions 3 et 4 jouent un rôle symétrique Les composés marqués (tableau 5) de la méthyl-2 butylamine 2 montrent tout d'abord que les modes d'échange des hydrogènes sont les mêmes que ceux déjà décrits : absence de participation des HI et H2, échange lent des H3 ' primaires, échange rapide des H3 secondaires (comparaison des spectres de 2a et 2/). Le transfert d'un H3 ou d'un H3 ' conduit aux ions h et i puis aux formes cyclopropaniques j. Dans le mécanisme proposé, l'ion yj étant symétrique doit conduire après isomérisation à deux ions m/z 44 de structure + CH 3 —CH—NH 2 (8) contenant des carbones placés différemment dans l'ion moléculaire initial (schéma 6). Conformément à ce schéma, le pic m/z 44 est déplacé environ pour moitié 1 à m/z 45 dans les spectres des dérivés 2c et 2e et m/z Al pour 2d tandis que les H1 sont éliminés (2b) (tableau 5). La formation de l'ion m/z 58 CH 3 CH 2 —CH—NH 2 (8) est induite par le transfert sur l'azote d'un hydrogène en 3 ' (schéma 6) : il y a bien rétention des Hl, H2 et H3 ' (tableau 5). Afin de préciser le mécanisme conduisant à la dissociation de 2, le spectre de 2 a été comparé à ceux des isomères 8, 9 et 10. Le spectre de 8 comme celui de 9 présente un pic intense m/z 43 (tableau 1) lié à l'élimination d'une molécule de propane (10). Ce pic est totalement absent dans le spectre de 2 : il n'y 1 La présence d'un pic de faible intensité m/z 45 dont l'origine n'a pu être précisée rend difficile une appréciation exacte du taux de déplacement de l'ion m/z 44. a pas isomérisation k 2 — » 8 ou 9. La formation de l'ion m/z 44 à partir de k 2 résulte donc de la rupture d'une liaison C—C concertée avec le transfert sur le radical d'un hydrogène du groupe NH 3 (schéma 6). De même le spectre de 10 (schéma 6) présente un pic m/z 57 lié à l'élimination d'éthane, phénomène qui n'est pas observé pour l'aminé 2 (tableau 1). L'absence d'isomérisation k s 10 est confirmée par les spectres des composés marqués : si un tel processus avait lieu avant formation de l'ion m/z 58, celui -ci ne conserverait que la moitié des Hl et des H3 ', ce qui n'est pas le cas (schéma 7). Deux types de facteur déterminent le mode de fragmentation des ions k (ou des ions e provenant de 3 et 4) : (i) la nature du radical élininé n'est pas sans incidence sur le processus. Ainsi un radical méthyle s'élimine difficilement : les pics [M - CH 3] + sont très généralement de faible intensité ou inexistants dans les dérivés 1 à 5; (ii) quand un ion de type k est susceptible d'éliminer deux radicaux identiques mais suivant des états de transition différents ([ C 2 H 5] ' à partir de k s par exemple : schéma 7), il y a rétention dans l'ion de la chaîne portant initialement le radical. Dans le but de vérifier le caractère général de la sélectivité de ce mode de rupture, l'aminé 5 a été étudiée. Le spectre de ce composé présente un pic m/z 72 qui est déplacé pour 80 % à 74 dans le spectre de sont dérivé bideutérié en position 1, Sa : schéma 8. (a) Les ions m/z 44, 58 ou 72 sont plus substitués donc plus stables que l'ion m/z 30, CH 2 —NH 2 (fig. 1). Lossing et al. (11) ont en effet mis en évidence une différence de 88 kJ mol - 1 entre le AH {de CH 2 —NH 2 (744 kJ mol " 1) et celui de l'ion CH 3 —CH—NH 2 (656 kJ mol " 1). Dans ces conditions, alors que la rupture simple 2 — » [30]+ nécessite 81 kJ (voir partie expérimentale), le AH (correspondant à l'état final de l'ion m/z 44 est situé 26 kJ seulement au-dessus du AH t de l'ion moléculaire 2. (b) La première étape de la fragmentation - la protonation de l'azote par un hydrogène de la chaîne - est fortement exothermique. Ainsi le AH t de l'ion h (656 kJ mol " 1) est 60 kJ mol - 1 plus faible que celui de l'ion 2 dont il provient. Le A// f de l'état de transition conduisant à l'ion m/z 30 étant au moins égal à 797 kJ mol - 1, les isomérisations de h conduisant à un ion stable et dont l'énergie critique est inférieure à 141 kJ seront observées (fig. 1). Toutefois, même si AH s (h) < AH s (2), la réaction de protonation de l'azote présente une énergie critique qui dépend de la nature et de la position de l'hydrogène transféré. 11 apparaît notamment que les migrations des hydrogènes en positions 1 et 2 ne s'effectuent pas (tableau 5). L'étude de la formation du pic m/z 30 dans l'isobutylamine 1 explique cette constation. Ce pic est totalement déplacé à m/z 32 dans le dérivé bideutérié en position 1 et demeure à m/z 30 dans le composé 2-d ,. L'énergie critique nécessaire à des trans-ferts et échanges de ces hydrogènes est donc supérieure à l'énergie de la rupture 1 — » [30 ], soit 85 kJ. Ces transferts ne peuvent donc être observés lors de la formation des ions m/z 44, 58, ou 72 dans les aminés 2 à 5. (c) Des formes intermédiaires ou des états de transition de type cyclopropanique ont été proposés pour expliquer la fragmentation de nombreux composés : alcènes (12-14), alcanes (15), acides et esters (16, 17) dérivés phénoliques (18), etc. .. Par ailleurs, l'existence de formes stables dans lesquelles un ion [C " H 2 " ]t de structure éthylénique, carbénique ou cyclopropanique est lié à une molécule d'eau ou d'ammoniac a été montrée (19-24). Quand l'entité C " H 2 " a une structure éthylénique ou carbénique, ces formes stables ont des AH t souvent inférieurs à ceux des alcools et aminés isomères. Il n'existe par contre pas de données thermodynamiques quant aux complexes cyclopropaniques proposés dans ce travail. Toutefois les données expérimentales indiquent que les réactions donnant ces intermédiaires constituent une barrière dans le processus d'isomérisation. Tout d'abord ces réactions sont irréversibles. En effet, dans l'hypothèse d'une réversibilité de la réaction h (schéma 6), l'ion m/z 58 formé à partir de 2 contiendrait - fut -ce partiellement - le carbone en position quatre, ce qui est contraire aux données expérimentales (tableau 5, schéma 6). Les différences de comportement de 3 et 4 déjà évoquées vont dans le même sens. Par ailleurs, alors que dans les aminés 2, 3 et 4, les hydrogènes en position 3 s'échangent statistiquement avant formation de l'ion m/z 44, l'échange de ces mêmes hydrogènes est très lent avant formation du même ion m/z 44 dans la 3,3-d 2 heptylamine. Ceci montre que l'énergie critique nécessaire à la formation de l'ion m/z 44 au travers d'une forme cyclopropanique est supérieure à celle nécessaire à sa formation à partir des aminés linéaires pour lesquelles l'intermédiaire proposé est constitué par un ion alcène lié à une molécule de NH 3 (7). Enfin la stabilité du complexe intermédiaire proposé dépend nécessairement du nombre et de la nature des substituants du cyclopropane. Il est connu en effet (25) que l'énergie d'ionisation du méthyl-cylopropane est supérieure à celle de l'éthylcyclopropane et plus encore à celle d'un diméthyl-cyclopropane. Dans le cas de l'isobutylamine 1, l'intermédiaire de transposition donnant l'ion m/z 44 est précisément le méthylcyclopropane ionisé lié à NH 3 moins stable que les complexes cyclopropaniques formés à partir des homologues supérieurs. Cette observation peut expliquer la faible intensité de l'ion m/z 44 et corrélativement l'abondance de l'ion m/z 30 découlant de la rupture simple de 1. Un mode général d'isomérisation en phase gazeuse des cations aminés a été mis en évidence dans ce travail sur la base de nombreuses données expérimentales. Le mécanisme proposé est en accord avec les résultats obtenus par Gross et Lin (26) qui ont étudié à 15 et 25 eV les fragmentations des complexes formés par action d'un ion cyclopropane substitué et d'une molécule de NH 3 : un ion m/z 44 est observé quand un carbone du cyclopropane est substitué par un groupe méthyle, un ion m/z 58 est formé quand l'un des carbones porte, soit un groupe éthyle, soit deux groupes méthyles. D'autres travaux sur la fragmentation des aminés sont en cours afin de préciser si les " complexes " proposés dans ce travail constituent des formes métastables ayant une certaine durée de vie ou ne sont simplement que des états de transition. Les AHf des radicaux propyle (86 kJ), isopropyle (73 kJ) et secbutyle (53 kJ) figurent dans les tables (25). Le A//f (2) = 716 kJ mol " 1 a été calculé à partir du AH t de la molécule neutre (- 120 kJ mol " 1) déterminée par la méthode de Benson (25) et de l'énergie d'ionisation de l'isobutylamine, soit 8,70 eV (25). Le même calcul et les mêmes sources conduisent à AH r (1) = 732 kJ mol " 1 et à AH t (8) = 709 kJ mol " 1. Les Atfr [CH,—NH2] = 744 kJ mol " 1 et A H, [CH3—CH—NH2] = 656 kJ mol " 1 ont été déterminés par Lossing et al. (11). Le A// r (h) = 653 kJ mol " 1 est calculé à partir du AH t de la méthyl-2 butylamine (- 120 kJ mol " 1) de l'affinité protonique (27) de l'isobutylamine (932 kJ mol " 1) et de l'énergie de dissociation d'une liaison CH—H (28). Les spectres MIKE ont été réalisés sur un appareil VG.ZAB.2F. Les valeurs de 7 " 0, 5 ont été déterminées à partir de la largeur à mihauteur des pics après correction liée à la largeur du faisceau principal. Les composés marqués ont été préparés suivant des procédés classiques : alkylation en a des nitriles, réduction par AlLiDj, etc.. .
Les radicaux cationiques de faible énergie interne des alkylamines substituées en position 2 s'isomérisent au travers d'intermédiaires constitués par des cyclopropanes ionisés, liés à une molécule d'ammoniac
chimie_84-0270389_tei_110.v84-153.tei.xml
termith-305-chimie
Les benzimidazoles constituent une classe importante de composés hétérocycliques présentant des propriétés complexantes 〚1, 2〛, pharmacologiques 〚3–5〛 et agrochimiques 〚6〛. Dans ce travail, nous nous sommes intéressés à la préparation de nouveaux systèmes bihétérocycliques associant les noyaux benzimidazole et pyrazolo〚1,5- a 〛pyrimidine, susceptibles de présenter des propriétés biologiques intéressantes. La méthode de synthèse que nous avons adoptée consiste à construire le parent benzimidazole à partir des esters et hydrazide dérivés de la pyrazolo〚1,5- a 〛pyrimidine. Il est à noter que la méthode, la plus utilisée pour la synthèse des pyrazolo〚1,5- a 〛pyrimidines, consiste en la condensation des 3(5)-aminopyrazoles avec les composés 1,3-difonctionnels aliphatiques 〚7, 8〛. Cependant, à notre connaissance, la littérature ne rapporte aucune méthode de synthèse de ce type de composés, mettant en jeu un hétérocycle comme synthon 1,3-difonctionnel. Notre choix s'est porté sur la 4-hydroxy-6-méthylpyran-2-one, que nous avons décrite comme un synthon intéressant dans la synthèse de divers systèmes hétérocycliques 〚9–12〛. La condensation du 3-amino-5-hydroxypyrazole 〚13–15〛 1 avec la 4-hydroxy-6-méthylpyran-2-one 2 〚16〛 a été conduite dans différents alcools à reflux. Dans chaque cas, nous avons obtenu la 2-hydroxy-5,7-diméthylpyrazolo〚1,5- a 〛pyrimidine 3 à coté des 7-alkoxycarbonylméthyl-2-hydroxypyrazolo〚1,5- a 〛pyrimidines 4 (schéma 1). La structure du produit 3 a été déterminée par comparaison de ses caractéristiques physiques et spectrales avec celles d'un échantillon de référence 〚17〛. La structure des composés 4 a été établie sur la base des données spectrales (RMN 1 H, RMN 13 C, IR et spectroscopie de masse). Les spectres de RMN 1 H des composés 4 (a–d) présentent, outre des signaux dus aux groupes esters, trois signaux à 6.55–6.62 ppm, 5.92–5.98 ppm et 4.00–4.27 ppm, correspondant respectivement aux protons pyrimidique, pyrazolique et à ceux des groupes méthylène en α des groupes esters. De même, sur leurs spectres de RMN 13 C, on note, en particulier, la présence d'un signal à 166.38–167.53 ppm, correspondant au carbonyle des groupes esters. La condensation, à fusion, des o - phénylèmediamines 6 et de l'hydrazide 5, obtenu par action de l'hydrazine sur les esters 4, conduit aux composés 7 (e – f) avec de bons rendements (schéma 2). Les structures des composés 7 ont été réalisées à partir des données spectrales RMN 1 H et spectrométrie de masse. Les spectres de RMN 1 H des composés 7 présentent, en particulier, des signaux à 4,47–4,60 ppm et 7,20–7,62 ppm, correspondant respectivement aux protons des groupes méthylènes et aux protons aromatiques des noyaux benzimidazoles. Ainsi, il nous a été possible de mettre au point une nouvelle voie de synthèse des 2-hydroxy-7-〚benzimidazol-2-yl〛méthyl-5-méthylpyrazolo〚1,5- a 〛pyrimidines. La 4-hydroxy-6-méthylpyran-2-one s'est avérée un synthon de choix dans la préparation de ce type de composés. Les points de fusion ne sont pas corrigés. Les spectres de RMN 1 H et 13 C ont été enregistrés sur un appareil Bruker AC 250. Les spectres de masse ont été effectués avec un appareil Varian MAT 311A par désorption de champ (DIC, NH 3). Les spectres IR ont été réalisés sur un spectromètre Perkin Elmer 1760x. On chauffe à reflux pendant 15 à 30 h, 0,05 mol du 3-amino-5-hydroxypyrazole 1 et 0,05 mol de la 4-hydroxy-6-méthylpyran-2-one 2, dans différents alcools. Le produit 3 est extrait à l'éther et recristallisé dans l'éthanol. Le produit 4 est obtenu par évaporation du solvant et recristallisé dans l'éthanol. Rdt : 5–20 %; F (°C) : 233–234 (EtOH). RMN 1 H (DMSOd 6, δ) ppm : 6,69 (s, 1H, H-6); 5,95 (s, 1H, H-3); 2,73 (s, 3H, CH 3); 2,62 (s, 3H, CH 3). RMN 13 C (DMSOd 6) ppm : 167,49 (C-2); 159,94 (C-5); 148,99 (C-3); 141,21 (C-7); 107,20 (CH-6); 80,730 (C-3); 24,73 (CH 3 - 5); 17,56 (CH 3 - 7). Rdt : 90 %; F (°C) : 208–210 (EtOH). RMN 1 H (CDCl 3, δ) ppm : 6,62 (s, 1H, H-6); 5,99 (s, 1H, H-3); 2,70 (s, 3H, CH 3 - 5); 4,08 (s, 2H, CH 2 - 7); 3,77 (s, 3H, CH 3 - O). RMN 13 C (CDCl 3, δ) ppm : 167,54 et 166,67 (C=O et C-2); 158,65 (C-5); 149,21(C-3a); 140,39 (C-7); 106,35 (CH-6); 80,83 (CH-3); 43,77 (CH 2 - 7); 52,56 (CH 3 - O); 24,57 (CH 3 - 5). Masse DIC (NH 3) : 〚M + H〛 + = 222. IR (KBr) : 1  710 cm –1 (ν C=O). Rdt : 83 %; F (°C) : 196–197 (EtOH). RMN 1 H (CDCl 3, δ) ppm : 6,58 (s, 1H, H-6); 5,95 (s, 1H, H-3); 2,55 (s, 3H, CH 3 - 5); 4,23 (s, 2H, CH 2 - 7); 4,22 (q, 2H, CH 2 - O, J = 6,7 Hz); 1,28 (t, 3H, CH 3, J = 6,7 Hz). RMN 13 C (CDCl 3, δ) ppm : 167,45 et 166,43 (C=O et C-2); 159,61 (C-5); 149,31 (C-3a); 140,44 (C-7); 107,93 (CH-6); 80,47 (CH-3); 62,01 (CH 2 - O); 36,28 (CH 2 - 7); 24,62 (CH 3 - 5); 14,13 (CH 3). Masse DIC (NH 3) : 〚M + H〛 + = 236. IR (KBr) : 1  708 cm –1 (ν C=O). Rdt : 80 %; F (°C) : 182–184 (EtOH). RMN 1 H (CDCl 3, δ) ppm : 6,58 (s, 1H, H-6); 5,95 (s, 1H, H-3); 2,56 (s, 3H, CH 3 - 5); 4,04 (s, 2H, CH 2 - 7); 4,13 (t, 2H, CH 2 - 0, J = 6,4 Hz); 1,66 (m, 2H, CH 2); 0,90 (t, 3H, CH, J = 7,4 Hz). RMN 13 C (CDCl 3, δ) ppm : 167,44 et 166,34 (C=O et C-2); 159,59 (C-5); 149,44 (C-3a); 140,33 (C-7); 107,90 (CH-6); 80,44 (CH-3); 36,24 (CH 2 - 7); 67,53 (CH 2 - O); 24,62 (CH 3 - 5); 21,24 (CH 2); 16,31 (CH 3). Masse DIC (NH 3) : 〚M + H〛 + = 250. IR(KBr) : 1  720 cm –1 (ν C=O). Rdt : 75 %; F (°C) : 172–174 (EtOH). RMN 1 H (CDCl 3, δ) ppm : 6,54 (s, 1H, H-6); 5,93 (s, 1H, H-3); 2,57 (s, 3H, CH 3 - 5); 4,02 (s, 2H, CH2-7); 4,16 (t, 2H, CH 2 - O, J = 6,0 Hz); 1,65 (m, 2H, CH 2); 1,31 (m, 2H, CH 2); 0,86 (t, 3H, CH 3, J = 7,4 Hz). RMN 13 C (CDCl 3, δ) ppm : 167,44 et 166,38 (C=O et C-2); 159,52 (C-5); 149,48 (C-3a); 140,37 (C-7); 107,83 (CH-6); 80,42 (CH-3); 36,23 (CH 2 - 7); 24,817 (CH 3 - 5); 65,78 (CH 2 - O); 30,39 (CH 2); 18,99 (CH 2); 13,61 (CH 3). Masse DIC (NH 3) : 〚M + H〛 + = 264. IR (KBr) : 1  718 cm –1 (ν C=O). À une solution de 0,5 mol de l'ester 4 dans 25 mL d'éthanol sont ajoutés 2,5 équivalents d'hydrazine. Le mélange est porté à reflux sous agitation pendant 4 h. Le produit obtenu est recristallisé dans l'éthanol. Rdt : 85 %; F (°C) : 233–234 (EtOH). RMN 1 H (DMSOd 6, δ) ppm : 9,42 (s, 1H, NH); 6,73 (s, 1H, H-6); 6,21 (s, 1H-3); 4,22 (s, 2H, CH 2 - 7); 3,94 (s, 2H, NH 2); 2,65 (s, 3H, CH 3 - 5). RMN 13 C (DMSOd 6, δ) ppm : 167,28 et 166,87 (C=O et C-2); 159,54 (C-5); 140,38 (C-7); 80,87 (C-3); 148,71 (C-3a); 108,20 (CH-6); 36,38 (CH 2 - 7); 24,51 (CH 3 - 5). IR (KBr) : 3  260 cm –1 (ν NH); 3  100 cm –1 (ν NH 2), 1  660 cm –1 (ν C=O). 2,8 mol d'o - phénylènediamine 6 sont portées à fusion à 240 °C avec 0,7 mol du composé 5, jusqu' à ce que le dégagement gazeux cesse et que le mélange se solidifie. Le produit obtenu est lavé à l'éther et au chloroforme et recristallisé dans un mélange méthanol–eau. Rdt : 80 %; F (°C) : 240–242 (méthanol–eau). RMN 1 H (DMSOd 6, δ) ppm : 6,55 (s, 1H, H-6 '); 6,96 (s, 1H, H-3 '); 7,29 (m, 1H, H ar); 4,60 (S, 2H, CH 2 - 2); 2,55(s, 3H, CH 3 - 5). Masse DIC (NH 3) : 〚M + H〛 + = 280. Rdt : 70 %; F (°C) : 260–261 (méthanol–eau). RMN 1 H (DMSOd 6, δ) ppm : 6,57 (s, 1H, H-6 '); 6,15 (s, 1H, H-3 '); 7,30 (m, 3H, H ar); 4,55 (s, 2H, CH 2 - 2); 2,69 (s, 3H, CH 3 - 5). Masse DIC (NH 3) : 〚M + H〛 + = 318. Rdt : 70 %; F (°C) : 260–261 (méthanol–eau). RMN 1 H (DMSOd 6, δ) ppm : 6,57 (s, 1H, H-6 '); 6,15 (s, 1H, H-3 '); 7.30 (m, 3H, H ar); 4,55 (s, 2H, CH 2 - 2); 2,69 (s, 3H, CH 3 - 5). Masse DCI (NH 3) : 〚M + H〛 + = 314. Rdt : 60 %; F (°C) : 270–271 (méthanol–eau). RMN 1 H (DMSOd 6, δ) ppm : 6,59 (s, 1H, H-6 '); 6,10 (s, 1H, H-3 '); 7,62 (m, 3H, H ar); 4,47 (s, 2H, CH 2 - 2); 2,51 (s, 3H, CH 3 - 5). Masse DIC (NH 3) : 〚M + H〛 + = 325. Le présent travail a été réalisé dans le cadre du contrat Pars (Chimie 015) .
La condensation du 3-amino-5-hydroxypyrazole 1 avec la 4-hydroxy-6-méthylpyran-2-one 2, à reflux dans différents alcools, conduit à la 2-hydroxy-5,7-diméthylpyrazolo[1,5-a]pyrimidine 3 et aux 7-alkoxycarbonylmethyl-2-hydroxy-5-méthylpyrazolo[1,5-a]pyrimidines 4. La 7-hydrazinocarbonylméthyl-2-hydroxy-5-méthylpyrazolo[1,5-a]pyrimidine 5, obtenue par action de l'hydrate hydrazine sur les esters 4, conduit aux 2-hydroxy-7-[benzimidazol-2-yl]méthyl-5-méthylpyrazolo[1,5-a]pyrimidines 7 par condensation avec les o-phénylènediamines 6 à fusion des réactifs.
chimie_01-0325609_tei_elsevier_01-0325609_CRAS-IIc-Chim.tei.xml
termith-306-chimie
Les glycosidases sont les premières enzymes à avoir été entrevues puisque Liebig et Wôhler décrivaient dès 1837 l'action de l'émulsine, un extrait des amandes douces, sur l'amygdaline des amandes amères [1 ]. Ces auteurs constataient, d'une part, que l'émulsine transformait l'amygdaline en sucre, en aldéhyde benzoïque et en acide cyanhydrique et, d'autre part, que l'émulsine perdait son activité sous l'effet du chauffage. Cette dernière observation leur fit postuler une nature protéique pour l'émulsine. Notons toutefois qu' à cette époque on n'avait aucune idée de la structure atomique des molécules organiques les plus courantes, a fortiori des biopolymères. Nos deux savants étaient donc sur la bonne piste bien que Liebig émît encore des doutes quant à l'activité catalytique de l'émulsine, dont nous savons aujourd'hui qu'une (3-glucosidase est l'enzyme principale. Pendant la plus grande partie du 19 e siècle, la pensée scientifique était imprégnée du concept du vitalisme. La question qui tracassait les savants - nous la traduisons ici en terminologie moderne - était la suivante : les processus de fermentation pouvaient-ils être déclenchés uniquement par la mystérieuse vis vitalis au sein des espèces vivantes (in vivo); ou bien pouvait-on extraire des cellules vivantes des substances capables ensuite de catalyser des conversions chimiques in vitro ? La réponse commença à se faire jour vers la fin du siècle seulement, quand Eduard Buchner démontra que des extraits de levure, qui ne contenaient donc plus de cellules vivantes, étaient capables d'induire la transformation de sucres en alcool et en gaz carbonique. Buchner donna le nom de « zymase » à la substance responsable - mais non encore isolée - de cette fermentation, et montra qu'il n'y avait pas de différence entre un ferment et une enzyme [2] [3] [4 ]. Enfin, étape clef de cette longue série de recherches enzymatiques, James B. Sumner réussit en 1926 à cristalliser la première enzyme, l'uréase des fèves Jack. Après avoir remis les cristaux en solution aqueuse, Sumner constata que l'activité enzymatique de l'uréase était conservée [5,6 ]. Dès lors, on était en droit de mettre la catalyse biologique sur le compte d'une enzyme, c'est-à-dire d'une substance chimique bien définie, une protéine ! Le vitalisme, tel que défini précédemment à travers l'insaisissable vis vitalis, avait donc vécu. À présent, nous connaissons à la fois la structure et les propriétés des enzymes constitutives de l'émulsine. Nous savons qu'il s'agit de catalyseurs biologiques puisque ces enzymes sont capables de multiplier les vitesses des réactions par 10 12 à 10 14 ! Néanmoins, nous n'avons qu'une idée approximative et conjecturale des mécanismes — c'est-à-dire des processus propres à la dynamique réactionnelle enzymatique à l'échelle moléculaire - qui sont à l'origine des augmentations réellement stupéfiantes des vitesses réactionnelles. Décrypter les mécanismes réactionnels enzymaniques à l'échelle moléculaire s'est révélé être une opération de très longue haleine; elle est loin d' être achevée ! Vers la fin du siècle dernier, Emil Fischer, en reprenant l'étude des enzymes de l'émulsine, était conduit à formuler l'hypothèse d'une complémentarité du site actif d'une enzyme et de son substrat, condition indispensable selon lui pour le déclenchement d'une réaction enzymatique. Cette hypothèse reposait sur une série de résultats expérimentaux remarquables, et en particulier sur les observations suivantes : l'émulsine est capable de catalyser de façon quantitative l'hydrolyse du (3-méthylglu-coside, mais laisse intact l'a-méthylglucoside; quant à l'invertase de la levure de bière, elle conduit à des résultats exactement inverses ! Fischer proposa de comparer la complémentarité moléculaire qu'il venait de postuler à celle qui existe entre une serrure (la poche enzymatique) et sa clef (son substrat) [7] [8] [9]; ce qui, de nos jours encore, est interprété avec le même modèle métaphorique, mais surtout en termes de reconnaissance moléculaire, un domaine qui relève de la chimie supramoléculaire. Remarquons que la p-D-glucosidase des amandes douces constitue, de nos jours encore, une enzyme de choix pour l'étude des activités des inhibiteurs de glycosidases, tant pour les mécanismes covalents, que pour ceux non covalents. La réversibilité des réactions enzymatiques, qui a été démontrée pour la première fois par E. Bourquelot en 1913, permet la transglycosylation c'est-à-dire le transfert de la partie sucre à des accepteurs - autres que l'eau — mais comportant également des groupes hydroxyle [10] [11 ]. Cette méthodologie est utilisée de nos jours avec des accepteurs de type hydrates de carbone; elle permet la synthèse d'oligosaccharides avec une régiosélectivité parfaite, bien que les rendements ne dépassent que rarement 25 %. A cet égard, l'utilisation de glycosyltransférases — des enzymes qui catalysent le transfert d'un monosaccharide à partir d'un diphosphonucléotide de saccharide vers un accepteur de glycosyle - conduit à de bien meilleurs résultats; mais cela est une autre affaire qui ne relève pas du présent article [12] [13 ]. Une autre enzyme, l'invertase de levure — une P-D-fructofuranosidase -, a permis aux biochimistes L. Michaelis et Maud L. Menten de proposer en 1913 un traitement quantitatif des cinétiques enzymatiques, en postulant la formation réversible d'un complexe enzyme-substrat [14 ]. Enfin, c'est en 1925 que von Euler proposa le modèle d'un complexe glycosidase-substrat qui comporte - dans le site enzymatique — des groupes actifs c'est-à-dire, pour l'essentiel, des groupes fonctionnels permettant de fixer de façon optimale à la fois la partie glycanique (le sucre) et l'aglycone [15 ]. Depuis les années 1950, on s'intéresse de plus près aux mécanismes moléculaires des processus d'hydrolyse enzymatique par les glycosidases des oligo-et des polysaccharides ainsi qu'aux processus inverses de transglycolisation par ces mêmes enzymes. Deux types de mécanismes peuvent opérer au niveau de l'atome de carbone anomérique puisque l'on observe, selon les cas, une inversion ou au contraire une rétention de configuration, le second processus étant plus fréquent que le premier. D.E. Koshland Jr. le premier a postulé en 1953 que les glycosidases, dites de rétention, opèrent par une séquence de deux inversions de configuration au niveau du carbone anomérique, et ce, grâce à des sites nucléophiles propres à l'enzyme [16 ]. Quant aux glycosidases dites d'inversion, elles catalysent une étape unique : l'inversion de configuration du carbone anomérique par une molécule d'eau [16 ], Pour les structures pyranosiques, le groupe partant peut être équatorial ou axial et la substitution peut se réaliser de quatre façons :e—> e; e —> a; a —> e; et a —»a. Pour les structures furanosiques tautomères des formes pyranosiques, les possibilités stéréochimiques sont plus réduites; mais on connaît, pour ce type de polysaccharides, des glycosidases conduisant à des rétentions (notées f (r)) et des glycosidases conduisant à des inversions de configuration (notées f(i)) (schéma 1) [17 ]. Au cours de leurs recherches, Swain et Brown ont pu montrer en 1952 que les glycosidases opèrent au moyen de mécanismes concertés polyfonctionnels grâce à l'action simultanée d'un groupe électrophile (acide) et d'un groupe nucléophile (basique) sur le substrat polysaccharide 118 ]. Capon a démontré en 1963 que l'action acide résulte de la présence dans la poche enzymatique d'un groupe carboxylique [19 ]. Le mécanisme d'action des glycosidases, tel qu'on peut dès lors le représenter de façon un peu simplifiée pour les processus d'inversion et de rétention de configuration selon Sinnott [20] et Legler [21] [22 ], est reproduit sur le schéma 2. On y distingue le site acide (électrophile) qui protone l'aglycone, et le site basique (nucléophile) qui se fixe à la partie sucre. Sur le schéma 3 sont reproduits les mécanismes d'action des [}-et des a-glycosidases que l'on peut postuler au travers de la géométrie plausible des états de transition. Notons par ailleurs que les glycosidases sont subdivisées en deux groupes : les m>-glycosidases, qui coupent les liaisons glycosidiques spécifiquement dans la partie terminale des oligosaccharides; et les ¿Wo-glycosidases, qui, de façon statistique, coupent les liaisons glycosiques internes. Compte tenu du fait que la cellulose représente les deux tiers des dérivés carbonés de la biosphère, on comprend que les exo - et les ew^o-glycosidases, qui catalysent sa dégradation, sont responsables des réactions biochimiques quantitativement les plus importantes sur notre planète. La plupart des travaux publiés concernent les exoglycosidases; néanmoins, une des démonstrations les plus rigoureuses des mécanismes des hydrolyses enzymatiques de saccharides a été réalisée au moyen dVWo-glycosidases à l'échelle moléculaire (vide infra). Nous devons à David C. Phillips et à son équipe la démonstration, en 1965-1967 par diffraction aux rayons X, de la structure du complexe entre le lysozyme - une Ji-glycosidase - avec l'inhibiteur chitotriose [23] [24] {schéma 4 de Xencadré). Ce travail constitue un événement important dans l'histoire des sciences, puisqu'il s'agit de la toute première démonstration, par rayons X, de la structure ternaire d'une enzyme et de celle de son complexe enzyme-inhibiteur. La connaissance de cette structure aura permis aux auteurs de tirer des conclusions quant au mécanisme d'action enzymatique des polysaccharides (encadré) avec, pour intermédiaire, un ion oxocarbonium cyclique de conformation demi-chaise (mécanisme exocyclique schéma S). Il n'est pas inutile de rappeler ici l'hypothèse de Linus Pauling, formulée dès 1946, selon laquelle la structure de la poche enzymatique s'est développée — au cours de l'évolution - pour devenir complémentaire à celle de l'état de transition du substrat [25] [26 ], et non complémentaire à celle du substrat dans son état fondamental comme Emil Fischer l'avait proposé initialement [7] [8] [9 ]. À l'heure actuelle, il convient sans doute de retenir l'une et l'autre de ces deux hypothèses selon la nature et la conformation des inhibiteurs de glycosidases - et de les placer dans le contexte de la complémentarité induite (inducedfit) telle qu'elle a été formulée par E. Koshland Jr. (voir plus loin). Notons que M. Karplus en 1986 [27] et R.W. Franck en 1987 [28] ont proposé un mécanisme alternatif qui passe par un ion oxocarbonium acyclique (mécanisme de coupure endocyclique schéma 5); néanmoins, la plupart des biochimistes ne le retiennent pas. Après les travaux de Phillips, il faudra encore attendre 18 ans avant la publication, par une équipe japonaise, de la structure tertiaire d'une seconde iWo-glycosidase, la Taka-amylase A, également par radiocristallographie [29 ]. Les résultats sont voisins de ceux obtenus avec le lysozyme : le site actif y est également identifié à une tranchée allongée qui, du moins au moyen d'une modélisation moléculaire, peut accommoder six, voire sept unités glucose, connectées par des liaisons a-(1) (2) (3) (4). Deux sites catalytiques acides (Asp-206 et Glu-230) encadrent la liaison osidique, qui doit être rompue entre les unités glucose D et E. Ce résultat est très analogue à celui observé avec le lysozyme, où deux sites acides (Asp-52 et Glu-35) encadrent la liaison osidique à rompre. Depuis ces travaux, les structures d'une dizaine de glycosidases ont été déterminées par diffraction aux rayons X. Notons que toutes ces glycosidases, sauf une (la neuraminidase du virus de la grippe [30]), sont des catenases comme le lysozyme lui -même, leurs substrats naturels étant des polysaccharides linéaires. Le bilan d'un grand nombre d'études cinétiques de glycopyranosides - et l'étude des propriétés d'inhibition de gluconolactones, de glucosylamines et d'analogues basiques d'hydrates de carbone — est globalement en faveur du mécanisme de coupure exocyclique, qui conduit à un ion oxocarbonium cyclique, plutôt qu'en faveur d'un mécanisme de coupure endocyclique vers un ion oxocarbonium acyclique. Nous verrons néanmoins plus loin que des pipéridinoses — de conformation chaise et ne comportant pas d'oxygène anomérique — peuvent être d'excellents inhibiteurs de glycosidases (voir plus loin). L'atome d'azote fort basique de tels azasucres, et qui sera protoné dans le site actif, doit pourtant occuper la place de l'oxygène endocyclique des hydrates de carbone pyranosiques correspondants; ce qui nous ramènerait à un mécanisme de type endocyclique [21 ]. La mise en oeuvre d'inhibiteurs spécifiques de glycosidases est devenue de nos jours un objectif de choix dans bien des laboratoires de chimie, de biochimie et de pharmacologie. Ces substances, qui inhibent les hydrolases de saccharides, peuvent en effet présenter plusieurs types d'activités pharmacologiques [31] : en tant qu'agents antidiabétiques (effets hypoglycémiants dans diabetes mellitus) [32-34 ], antiviraux (e.g. par inhibition de la formation de syncvtium lors de la réplication du virus du sida) [35-37 ], antimalaria (des esters de la castanospermine 7 ont été brevetés dans ce but) [38] et anticancéreux (e.g. par inhibition de la glycosylation de protéines en glycoprotéines qui interviennent dans la cascade des métastases) [39 ]. Pour être réellement actifs, de tels inhibiteurs doivent imiter la stéréostructure - les chimistes parleront de configuration absolue - et les fonctionnalités chimiques des substrats habituels dans leur état fondamental. Dans quelques cas particulièrement bien étudiés, les inhibiteurs imitent la stéréostructure et les fonctionnalités des états de transition des substrats. Les inhibiteurs de glycosidases doivent évidemment se lier de façon compétitive à la poche enzymatique - c'est-à-dire bien plus rapidement que ne le ferait le substrat - dans le cadre d'un mécanisme réversible; et pour les substrats—suicide de façon irréversible par établissement d'une liaison covalente (avec la poche enzymatique). Les premiers inhibiteurs de glycosidases, à avoir été reconnus comme tels, sont des ô-aldonolactones comme la D-gluconolactone 1 [21, 40 ], et les glycosylamines comme le 1-amino-l-désoxy-D-glucose 2 [41] (schéma 6). Les inhibiteurs irréversibles se placent d'abord dans le site actif de l'enzyme - ce qui suppose une affinité pour ce site - par le jeu des liaisons de faible énergie qui relèvent de la chimie supramoléculaire. Puis ils donnent lieu à la formation d'une liaison covalente avec une fonction chimique du site actif. Ce dernier est dès lors bloqué par l'inhibiteur, et ce, de façon irréversible : il est inactivé de façon permanente. Les inhibiteurs irréversibles sont également appelés « marqueurs d'affinité » ou encore « substrats—suicide ». Les inhibiteurs irréversibles comportent généralement des groupes fonctionnels électrophiles, tels que des époxydes, qui doivent donner lieu à une réaction spécifique avec un groupe fonctionnel du site actif. Autrement dit, en sus de leur affinité pour le site récepteur de la partie sucre, ils devront comporter un groupe réactif dans une position si possible topologiquement équivalente à celle du centre anomérique. Une fois l'inhibiteur en place dans le site actif, son groupe réactif — qui, sauf au sein du site actif, est idéalement peu réactif in vivo — est sensé devenir hautement réactif sous l'action catalytique de l'enzyme, ce qui est souvent une vue de l'esprit. Les inhibiteurs qui remplissent à peu près ces conditions sont des entités glycaniques de type époxydes de conduritols, des aziridines dérivés d'hydrates de carbone [21 ], des diazoalcanes fixés sur des sucres [42] et des glycosylméthyltriazènes [43 ]. Citons, à titre d'exemple, les travaux de BeMiller avec la P-D-galactopyranosyl-diazométhylcétone [44] (schéma 7). Cette diazocétone s'est révélée être un inhibiteur irréversible de la [î-D-galactosidase d'Aspergillus oryzae, mais une substance sans effet sur la P-D-glucosidase <£ Escherichia coli. Le schéma 7 reproduit le mécanisme d'inactivation proposé : après protonation de la diazocétone par le site A-H de la poche enzymatique, le carbocation en voie de formation réagit de manière covalente avec le site B. On aura compris que les applications des inhibiteurs irréversibles sont limitées; ces substances peuvent en effet réagir avec d'autres biomolécules avant d'atteindre les enzymes cibles [21 ]. Néanmoins, dans quelques cas, l'usage de marqueurs d'affinité permet de cerner les mécanismes des hydrolyses enzymatiques de polysaccharides. Les expériences récentes de Withers au moyen des deux 1,5-difluoro-l-désoxy-D-glucopyranoses, constituent une confirmation remarquable du mécanisme de Phillips et sont discutées à la fin de cet article. Les inhibiteurs réversibles sont caractérisés par un équilibre entre l'enzyme, l'inhibiteur et le complexe enzyme-inhibiteur. Signalons qu'un inhibiteur est appelé « non compétitif » lorsqu'il se fixe sur l'enzyme en un site différent du site actif; dès lors il n'y a évidemment pas compétition avec le substrat au sein du site actif [21 ]. Comme son nom l'indique, un inhibiteur compétitif entre en concurrence avec le substrat pour l'occupation du même site actif; il y forme un complexe enzyme-inhibiteur, ce qui entraîne une diminution de l'activité enzymatique. Taus les désoxyaminosucres naturels ou artificiels, qui ont été identifiés à ce jour en tant qu'inhibiteurs de glycosidases, sont des inhibiteurs réversibles et compétitifs. En raison de leur analogie fonctionnelle, de leurs analogies de structure, de configuration absolue et de conformation avec les sucres naturels (ou de l'état de transition de ces derniers au cours de leur hydrolyse enzymatique), ces inhibiteurs de glycosidases constituent souvent des leurres efficaces. Rappelons qu'un site actif possède une géométrie et une chiralité bien définies, avec des groupes fonctionnels parfaitement disposés pour interagir avec le substrat habituel. La présente revue a trait, pour l'essentiel, aux inhibiteurs compétitifs de glycosidases. Durant notre dernier quart de siècle, on a découvert, souvent dans des plantes tropicales, des pipéridines et des pyrrolidines polyhydroxylées qui sont des inhibiteurs généralement efficaces de glycosidases [20 ], Citons la nojirimycine 3 [45 ], la 1 - désoxynoji rimycine ou DNJ 4 [46 ], la 1-désoxymannojirimycine ou DM] 5 [47 ], la 2,5-dihydroxyméthyl-3,4-dihy - droxypyrrolidine ou DMDP 6 [48 ], qui possèdent les structures et les configurations absolues respectivement du D-glucose (3 et 4), du Dmannose (5) et du D-fructose (6) {schéma 6). Les alcaloïdes d'indolizidine, tels que la castanospermine 7 [49] et la swainsonine 8 [50] [51 ], possèdent la configuration absolue respectivement du D-glucopyranose et du D-mannopyranose (schéma 6). Aussi n'est-on pas surpris de constater que ces aminosucres bicycliques sont des inhibiteurs spécifiques, respectivement des glucosidases et des mannosidases. A ce jour, on a isolé environ deux douzaines d'aminodésoxysucres à partir de sources naturelles; il s'agit d'analogues basiques des substrats pyranosiques ou furanosiques habituels. Par ailleurs, les chimistes organiciens ont synthétisé plusieurs centaines d'aminosucres comportant des structures et des fonctionnalités analogues à celles des produits naturels. La plupart de ces analogues artificiels se sont révélés être des inhibiteurs de glycosidases, mais dont la force d'inhibition varie [21 ]. La capacité d'inhibition est exprimée au moyen du paramètre K t de Michaelis et Menten (14) ou du paramètre IC 50 (concentration en inhibiteur qui induit une diminution de moitié de l'activité enzymatique). Pour qu'un inhibiteur enzymatique soit efficace, sa concentration doit être la plus faible possible : idéalement de l'ordre de la nanomole (nM); le plus souvent de l'ordre de la micromole (}lM), la millimole (mM) n'étant guère acceptable. On a pu constater que plusieurs aminosucres artificiels sont des inhibiteurs plus puissants que les inhibiteurs produits par la nature; ce qui justifie a posteriori la synthèse d'analogues de ces produits naturels. Quatre variantes méthodologiques pouvaient être envisagées pour la synthèse des aminosucres; toutes ont été mises en oeuvre, Malgré les nombreuses protections et déprotections à mettre en oeuvre, la plupart des auteurs ont utilisé des molécules du pool chiral - hydrates de carbone du type pentoses et hexoses, acide tartrique, aminoacides - pour construire leurs molécules cibles, les aminosucres. Citons, à titre d'exemple, d'une stratégie utilisée par G.W.J. Fleet, la synthèse de l'alexine 16, un alcaloïde polyhydroxylé pyrrolizinique isolé de plantes tropicales [52] (schéma 8). Cette synthèse nécessite une cyclisation en pyrrolidine par fixation d'un atome d'azote sur les atomes C(2) et C(5) du D-glucose 9 avec, simultanément, inversion de configuration de ses deux centres chiraux. L'intermédiaire 10 de type azido-dérivé constitue chez Fleet la substance clef vers d'autres synthèses d'aminosucres pyrrolidiniques — tels que les stéréoisomères de l'alexine - et des aminosucres pipéridiniques. Comme exemple d'hémisynthèse d'un produit artificiel ressemblant à l'état de transition en route vers l'ion oxocarbonium cyclique de conformation demi-chaise - nous citerons celle de l'imidazolo-D-arabinopiperidinose 20 à partir du D-glucose 9 par J. Streith et ses collaborateurs. Cette synthèse ne nécessite pas d'inversion de configuration, la méthodologie de protection est réduite à celle d'une seule fonction, et l'imidazole est mis en place au moyen d'un procédé de double condensation avec la formamidine [53] (schéma 9). Ce composé, testé par B. Winchester sur 11 glycosidases du foie humain, s'est révélé être un inhibiteur spécifique de la seule a-mannosidase [54 ]. Notons que seul l'atome d'azote propre au cycle imidazolique de 20 peut être protoné; ce qui soulève des questions quant à la complémentarité moléculaire du complexe ct-mannosidase-inhibiteur (20). Un diagramme de rayons X de ce complexe - dans l'hypothèse où ce dernier pourra un jour être isolé puis cristallisé - permettrait sans doute de répondre à ces questions. Dans ce domaine, les travaux de Pierre Vogel font autorité; ils se fondent sur la fonctionnalisation croissante et stéréosélective de sucres « nus » .Nous citerons la synthèse totale de la castanospermine 7 à partir du sucre nu optiquement pur (- )22 (schéma 10). L'étape clef de la plupart des synthèses d'aminosucres réalisées par Vogel est d'ailleurs l'obtention de (- )22 par cycloaddition de Diels-Alder asymétrique du camphanate de 1-cyanovinyle 21 avec le furane. La configuration de (- )22 permet ensuite l'induction asymétrique de nouveaux centres chiraux, au cours de l'introduction des autres groupes fonction nels dans les produits intermédiaires 23, 24 et 25. Une réaction de Horner-Emmons intramoléculaire au départ du dérivé 26 conduit au squelette azacarboné requis 27; ce dernier composé conduit à la castanospermine (+)7 au moyen de conversions triviales [55 ]. En mettant en oeuvre des cycloadditions de Diels-Alder asymétriques avec des nitrosodié nophiles chiraux, A. Defoin et al. ont synthétisé des pipéridinoses et des pyrrolidinoses dans les séries D et L, artificiels ou identiques aux produits naturels. Citons la synthèse asymétrique de la 6-désoxynojirimycine 33 en série D, un dérivé artificiel du D-glucose, avec le diénophile nitrosé 29 [56] (schéma 11). La cycloaddition asymétrique de l'acétal du sorbaldéhyde 28 avec 29, un dérivé du mannose préparé par Vasella [57] [58 ], conduit avec une énantiosélectivité complète, et après 7V-fonc-tionnalisation, à l'adduit 30. Le trans-glycol 31 de ce dernier est soumis à une acidolyse, à une réduction et une conversion en dérivé sulfonylique 32, le tout en une seule opération au moyen du seul réactif S0 2. Le composé 32 est un sel interne cristallisé, et donc facile à purifier; son traitement par la baryte conduit au mélange des deux anomères de 33 et de l'imine 34. Les synthèses enzymatiques et chemo-enzymatiques gagnent en importance depuis quelques années, en particulier grâce aux travaux de C.-H. Wong [59-62 ]. Citons la synthèse par ce dernier de la DNJ et de la DMJ, synthèse qui comporte deux étapes enzymatiques : la condensation catalysée par la fructose-1,6-diphosphate-aldolase (FDP-aldolase), puis la coupure du groupe phosphate, catalysée par une phosphatase, suivie d'une amination réductive [schéma 12) [63 ]. La FDP-aldolase est spécifique du phosphate de la dihydroxyacétone (DHAP), qui joue le rôle de donneur (nucléophile), mais accepte plusieurs aldéhydes en tant que substrats électrophiles. La stéréochimie de la liaison C-C nouvellement formée est sous contrôle de l'aldolase, et se retrouve avec la même configuration absolue dans tous les cas de figure : la face si de l'énolate de 35, qui est générée par abstraction enzymatique de l'atome Hs de C(3) du DHAP, attaque la face si du carbonyle de l'aldéhyde, pour conduire aux configurations absolues telles que reproduites en C(3) et C(4) des formules 37 et 38 (schéma 12). Dans le cas présent, l'aldéhyde 36 est racémique et donne lieu à la formation du mélange de 37 et 38; ces produits sont déphosphorylés par la phosphatase, puis hydrogénés sur palladium, ce qui conduit par amination réductive à la 1-désoxynojirimycine 4 (DNJ) et la 1-désoxymannojirimycine 5 (DMJ) [63 ]. Nous cirerons ici la synthèse de la swainsonine 8 par W.S. Zhou [64] [65] : l'a-furfurylsulfonamide racémique 39 est résolu cinétiquement dans les conditions (modifiées) d'époxydation asymétrique selon Sharpless. Cette résolution cinétique laisse l'énantiomère [R)~39 intact; l'énantiomère (S)-39 est transformé en la pyridone chirale 40 (rendement : 42 %) qui est le produit clef de cette synthèse {schéma 13). Après protection de la fonction hémiaminal de 40, NaBH 4 permet la réduction de l'énone en cétone, puis la réduction stéréospécifique de la cétone en alcool - qui est benzylé — et enfin la réduction de la fonction aminal en tosylamine 41. La CM-dihydroxylation asymétrique de 41 selon Sharpless (avec le ligand chiral DHQN-CLB) conduit à un mélange de deux m-glycols, dont 42 (après déprotection partielle) est le produit très majoritaire. Après détosylation de 42, la cyclisation intramoléculaire en 43 est réalisée classiquement par la méthode d'Appel (PPh 3, CCI4, NEt 3 dans la DMF); il ne reste plus qu' à hydrogénolyser la fonction benzyloxy pour obtenir la swainsonine 8. La découverte de nouvelles structures d'aminodésoxysucres - artificiels ou d'origine naturelle et possédant des propriétés d'inhibiteurs de glycosidases - a incité les biochimistes à étudier de plus près les relations entre structure et activité de ces substances. Le tournant historique décisif est constitué par l'analyse par diffraction aux rayons X du complexe lysozyme-tri-NAG par Phillips et al. en 1966-1967 (encadré) [23] [24 ]. Cette étude a permis d'établir les positions spatiales des sites actifs de la « poche » enzymatique par rapport à celles des groupes fonctionnels de l'hydrate de carbone habituel. La plupart des biochimistes admettent de nos jours le mécanisme pour l'exocoupure avancé par Phillips; ce mécanisme est d'ailleurs conforme à celui qui avait été proposé dès 1953 par Koshland - initialement à titre d'hypothèse de travail - pour rendre compte de la rétention de configuration au niveau du centre anomérique où a lieu la coupure hydrolytique [16 ], Un inhibiteur de glycosidase, réversible et compétitif, doit se lier — bien plus fortement que le substrat — aux sites actifs de la poche enzymatique, tout en imitant le plus parfaitement possible le substrat. S'il s'agit d'un substrat de type pyranosique, l'inhibiteur pourra mimer ce dernier dans son état initial en conformation chaise, ou dans son état : de transition (en route vers le cation glycosidique, l'ion oxocarbonium cyclique), en conformation demi-chaise. Selon Wong, quatre facteurs ont une influence déterminante sur le degré d'activité des inhibiteurs de glycosidases : a) la charge positive sur l'atome de carbone anomérique; b) la conformation en demichaise qui en résulte, avec les dérivés de type pipéridinose comportant une géométrie trigonale pour le carbone anomérique et pour l'atome d'azote; c) la présence et la configuration à l'identique d'un groupe HO-C(2) et d) la présence et la configuration à l'identique d'un groupe HO-CH 2 - C(5) [66] [67 ]. Les inhibiteurs, qui imitent la structure du substrat dans son état fondamental, tels que la DNJ et la DMJ, répondent à trois de ces quatre facteurs (charge positive sur l'atome d'azote après; protonation dans la poche enzymatique; concordance des configurations des groupes HO-C(2) et HO-CH 2 - C(5)), mais non au facteur de conformation, cette dernière étant du type chaise; notons qu'il n'y a pas non plus de charge positive sur le carbone anomérique. Wong propose pour la DNJ et la DMJ des interactions avec la poche enzymatique, telles qu'elles sont reproduites sur le schéma 14. Les inhibiteurs artificiels de type amidinium, tels qu'ils ont été synthétisés par Ganem, remplissent assez bien les quatre conditions définies par Wong et en particulier le facteur conformationnel : conformation demi-chaise qui est proche de celle de l'état de transition (et par conséquent de l'ion oxocarbonium cyclique qui en découle); charge positive sur l'hétéroatome intracyclique et sur l'atome de carbone anomérique; concordances satisfaisantes des configurations des deux groupes HO-C(2) et HO--CH 2 - C(5). Ces quatre types de concordances permettent, selon Wong, d'expliquer le fait que les dérivés d'amidinium en question sont d'excellents inhibiteurs de glycosidases. Aussi bien Ganem [68] [69] que Wong [66] [70] proposent pour les inhibiteurs de type amidinium des interactions avec la poche enzymatique telles qu'elles sont reproduites sur le schéma 15. Les inhibiteurs de type pyrrolidinoses, comme la DMDP, apparaissent dans une conformation enveloppe très flexible qui est caractéristique de ces cycles; notons que les conformations enveloppe apparaissent aplaties si on les compare aux conformations chaise des pipéridinoses. Est -ce pour cette raison conformationnelle que plusieurs pyrrolidines polyhydroxylées sont d'excellents - voire d'exceptionnels - inhibiteurs de glycosidases, en particulier de la L-a-fucosidase [67 ], et ce, malgré la non-planéité de l'atome d'azote protoné ? Pour ce type d'inhibiteurs pyrrolidiniques, Wong propose une complémentarité « clefserrure » telle qu'elle est reproduite sur le schéma 16 [70 ]. On constate une différence dans la spécificité de l'activité d'inhibition en comparant les aminosucres qui imitent le sucre dans sa structure et sa conformation normales, et ceux qui imitent l'état de transition vers l'ion oxocarbonium cyclique. Les premiers possèdent une grande spécificité une clef unique pour une serrure bien définie — alors que les seconds, tout en étant souvent très actifs, sont moins spécifiques. Dans ces derniers, en effet, la configuration des groupes HO-C(2) et HO-CH2 - C(5) joue un rôle moins important que dans les premiers; de ce fait, les inhibiteurs de ce type pourront inhiber plusieurs glycosidases (une clef pour plusieurs serrures). Nous illustrons cette moindre spécificité en série pyrrolidine sur l'exemple de la D M D P 6 qui s'avère être un excellent inhibiteur, à la fois de la (3-glucosidase des amandes douces, et de l'a-glucosidase de la levure debière [48 ]. Les inhibiteurs imitant l'état de transition demi-chaise peuvent être subdivisés en deux catégories [71 ]. - Les inhibiteurs basiques et qui, de ce fait, acceptent facilement un proton, tels que la lactame-oxime 44 (dont la conformation, déterminée par rayons X, est d'ailleurs celle d'une chaise aplatie, à mi-chemin vers une demichaise) [72 ], B. Ganem et C.-H. Wong ont particulièrement bien étudié la synthèse et les propriétés inhibitrices d'amidines telles que la glucoamidine 45 [73 ], la glucoamidrazone 46 [73] et la galactoguanidine 47 [74 ], qui sont toutes de bons inhibiteurs de glycosidases, bien que peu spécifiques. Dans le même ordre d'idées, C. Tellier a préparé des amidines analogues à 45 mais sous forme de disaccharides, par exemple du type pseudo-(l—>6)-dimanno-side [75] [76] [77 ], ce qui lui a permis d'améliorer la sélectivité, à défaut du pouvoir d'inhibition. K. Tatsuta a synthétisé des imidazolosucres du type 48 [78] analogues du produit naturel nagstatine, un inhibiteur de glycosidase (schéma 17) dont la conformation en demi-chaise imite bien l'ion oxocarbonium cyclique issu du mécanisme exocyclique. Notons que la nagstatine est, à notre connaissance, le seul azasucre de type imidazolosucre isolé à ce jour. Sa découverte en 1992 dans une bactérie [79] [80] pourrait bien marquer un tournant dans l'étude des mécanismes enzymatiques, en raison même de la conformation en demi-chaise de son cycle pipéridinique. - Les inhibiteurs non basiques (neutres), parce que non protonables à des pH compris entre 4 et 7, ce qui entraîne une moindre capacité d'inhibition. Nous citerons, à titre d'exemple dans cette seconde catégorie, la gluconolactone 1 [81] [82 ], le gluconolactame 49 [83 ], la gluconolactone-oxime 50 [84] et le tétrazole 51 [85] (schéma 18). Une remarque s'impose ici : dans un souci de simplification, nous n'avons pas indiqué l'origine des glycosidases sur les schémas 17 et 18, ce qui, en toute rigueur, est une approximation sans doute critiquable. Prenons un exemple : deux (î-glucosidases présenteront qualitativement le même type d'effet catalytique, mais leurs Kj seront nécessairement différents : une (5-glucosidase du foie humain présentera — visà-vis d'un même saccharide - un K t différent de la P-glucosidase isolée des amandes douces. En effet, malgré leur similitude topographique et fonctionnelle au niveau des sites actifs, les séquences en acides aminés des deux p-glucosidases sont différentes. Le; résultats expérimentaux relatifs aux inhibiteurs des glycosidases sont loin d' être rationalisés dans leur totalité. C'est ainsi que les postulats de Wong cités précédemment concernent, pour l'essentiel, des inhibiteurs d' à-et de p-glucosidases. L'imidazolosucre 20, de configuration D-arabino tel qu'il est reproduit sur le schéma 9, est un inhibiteur spécifique de l'amannosidase du foie humain (À !) = 54 ¡J.M) [53] : 11 glycosidases du foie humain ont été testés avec cet aminosucre; seule l'a-mannosidase est inhibée [54 ], Mais l'aminosucre 20, en principe de configuration D-arabino, imite -t-il réellement le cation mannosylique ? L'atome de carbone trigonal du cycle à six chaînons de 20 correspond en principe à l'atome de carbone C(5), et non au carbone anomérique C(l) du mannose (schéma 9 : molécule 20 retournée et qui est, dès lors, un imidazolo-D-lyxose, effectivement très proche de la configuration du D-mannose). Notons enfin que l'inhibiteur le plus puissant de la P-glucosidase des amandes douces est l'isofagomine 52 (schéma 19), dont la conformation est chaise et, par conséquent, identique à celle des pyranoses dans leur topographie fondamentale. Or cet aminosucre, à squelette carboné ramifié de type pipéridine, ne comporte pas d'hydroxyle en C(2) [86 ], Dès lors, cet azasucre ne répond pas à tous les critères de Wong définis précédemment. La même remarque s'impose pour le stéréo isomère 53 de l'isofagomine qui détient sans doute le record en matière de puissance d'inhibition : Ki = 4 nM avec une P-galactosidase [87 ]. Compte tenu de leur grande puissance d'inhibition, on s'attendait - du moins dans le cadre de l'hypothèse de Pauling citée auparavant - à ce que ces pipéridines polyhydroxylées imitent plutôt l'état de transition de type oxocarbonium cyclique après leur protonation dans le site actif, ce qui est exclu. La mutagenèse site spécifique a également été mise en oeuvre pour tenter d'élucider les mécanismes d'hydrolyse enzymatique des glycosidases dont la géométrie tridimensionnelle des complexes enzymes-inhibiteurs avait été élucidée par diffraction aux rayons X. Cette méthode consiste à échanger un acide aminé particulier du site actif par un autre acide aminé, en remplaçant dans le cADN le codon correspondant par le codon propre au nouvel acide aminé. Un tel cADN « muté » est ensuite exprimé au sein d'une bactérie appropriée, ce qui permet de préparer une quantité de la protéine enzymatique suffisante pour une étude cinétique de l'inhibition. Quelques dizaines de glycosidases ont été mutées de la sorte, par échange de plus de 200 acides aminés, puis soumises à des études cinétiques. Les conclusions globales de : ces expériences sont les suivantes : i) lorsqu'un acide aminé qui assure une catalyse acide généralisée est remplacé par un autre acide aminé dépourvu de fonction carboxylique, la glycosidase recombinante correspondante présente une activité enzymatique environ 1000 fois plus faible; ii) le remplacement d'un acide aminé anionique (ion carboxylate) par un autre acide aminé non anionique conduit à une glycosidase recombinante dont l'activité enzymatique n'esi : plus que résiduelle [88 ]. La spécificité de la fixation, (par voie supramoléculaire) du site actif d'une enzyme sur son substrat, est fonction de l'arrangement topographique précis de toute une série d'atomes. La métaphore d'Emil Fischer de la complémentarité d'une serrure et de sa clef constituait pendant longtemps une excellente approximation pour rendre compte des complémentarités topologiques entre les enzymes et leurs substrats. Néanmoins, nous savons aujourd'hui que la géométrie tridimensionnelle du site actif de plusieurs enzymes est notablement modifiée par suite de sa liaison avec le substrat. E. Koshland Jr. a postulé que de telles enzymes épousent la géométrie complémentaire de leur substrat seulement après fixation de ce dernier en leur sein [89 ]. Koshland appelle un tel processus de reconnaissance dynamique induced fit, c'est-à-dire « complémentarité induite ». De là à postuler la possibilité de plusieurs complémentarités induites de la part d'un même site actif pour divers substrats et inhibiteurs, il n'y a qu'un pas. Dans cet ordre d'idées, on remarquera que la complémentarité topologique d'un complexe enzyme—substrat de type ion oxocarbonium cyclique demi-chaise, est nécessairement différente de celle du complexe enzyme-inhibiteur de type pipéridine Af-protonée chaise correspondant. À l'appui du mécanisme de protonation exocyclique, il convient de citer les récents résultats expérimentaux de McCarter et Withers relatifs au mécanisme d'hydrolyse enzymatique de glucosidases [90 ], Le fluorure équatorial (anomère (3) du 5-fluoro-D-glucopyranosyle 54 s'est révélé être un puissant inhibiteur irréversible d'une P-glucosidase. Le spectre de masse par electron spray de la P-glucosidase, inactivée par le fluorure 54, présente une augmentation de 181 Da de la masse molaire de l'enzyme; ce qui est un argument contraignant en faveur de la fixation covalente du fluorure 54 au niveau du site catalytique de la P-glucosidase. Ce résultat est en parfait accord avec une cassure exocyclique (schéma 5) telle qu'elle avait été formulée par Phillips [23] [24] (schéma 4 : dans le présent cas de figure, le produit covalent de type B, issu de la seconde étape, se formerait de façon irréversible et constituerait le point final du processus d'inhibition). En effet, une cassure endocyclique (schéma 5) aurait conduit à une fluorhydrine instable qui perdrait rapidement une molécule d'acide fluorhydrique. À supposer même que ce dernier intermédiaire, qui serait un dérivé du 5-cétoglucose, se fixe sur l'enzyme — ce qui est hautement improbable — le spectre de masse du complexe correspondant aurait été différent de celui mesuré. On aurait observé - dans ce second cas de figure - une hydrolyse et non une désactivation. Également à l'appui du mécanisme de protonation exocyclique, nous citerons les travaux de Vasella relatifs à la comparaison des forces d'inhibition enzymatique de dérivés azoliques de sucres [91 ]. À titre d'exemple, le nojiritétrazole 51, qui comporte en particulier un atome d'azote à la place de l'oxygène anomérique, est un bon inhibiteur de P-glucosidase; alors que les azoles comportant un carbone sp2 à la place de l'oxygène anomérique sont de moins bons inhibiteurs. Deux conclusions émergent de ces études sur les sucres azoliques du type 20, 48, 51 et du type nagstatine (schéma 17) : i) un azolosucre comportant un atome d'azote sp2 à la place de l'oxygène anomérique est un bon inhibiteur de glycosidases; ii) la protonation d'un tel azolosucre a lieu « latéralement », c'est-à-dire dans le plan des cycles azolique et pipéridinique, étant entendu que nous postulons dans ces cas de figure une inhibition enzymatique avec un état de transition de type ion oxocarbonium cyclique demi-chaise. Les conclusions telles qu'elles apparaissent actuellement peuvent être résumées comme suit. Les inhibiteurs de glycosidases de type pipéridinose, dont le cycle est saturé et par conséquent en conformation chaise, ressemblent au substrat dans son état fondamental. Ces inhibiteurs sont généralement très spécifiques; leur configuration est donc déterminante pour un positionnement optimal dans la poche enzymatique. Les inhibiteurs qui ressemblent à l'état de transition de type ion oxocarbonium cyclique, tels que les dérivés de pipéridinoses comportant un ion amidinium cyclique, sont souvent de meilleurs inhibiteurs que les précédents; en revanche, leur configuration joue un moindre rôle. C'est ainsi que le cation amidinium, tel que celui formé à partir de la molécule neutre 45, est sensiblement aussi actif pour inhiber une OC-mannosidase ou une P-glucosidase (schéma 17). Il semblerait dès lors que l'orientation topographique des groupes hydroxyle joue un rôle essentiel dans les substrats en conformation chaise, les pipéridines 52 et 53 apparaissant toutefois comme des cas particuliers. En revanche, pour des inhibiteurs canoniques en conformation demi-chaise, ce sont les interactions électrostatiques avec l'enzyme qui semblent jouer le rôle clef dans les processus de fixation et de reconnaissance. L'interprétation des mécanismes moléculaires des hydrolyses enzymatiques de substrats saccharidiques connaîtra encore des rebondissements, et s'affinera au fur et à mesure que paraîtront les résultats structuraux établis au moyen de diagrammes de rayons X (également par résonance magnétique nucléaire), des complexes glycosidases-inhibiteurs correspondants. En parallèle, de nouveaux aminosucres artificiels seront synthétisés, dans le but d'induire des inhibitions de glycosidases qui soient compétitives, spécifiques, puissantes et non toxiques pour l'organisme humain, dans l'hypothèse d'applications thérapeutiques. Grâce à la biologie moléculaire et au génie génétique, on est à présent en mesure de préparer des glycosidases recombinantes et des glycosyltransférases recombinantes, en nombre croissant et en quantités plus importantes. Dans peu de temps, nous disposerons de « bibliothèques » de glycosidases à l'échelle préparative, qui permettront un accès plus aisé à des complexes glycosidases-inhibiteurs cristallisés et, partant, à une meilleure connaissance de leurs mécanismes catalytiques. La connaissance des mécanismes intimes de la catalyse enzymatique des glycosidases permettra aux chimistes organiciens de synthétiser des inhibiteurs mieux ciblés dans leur configuration et leurs fonctionnalités chimiques. Le lysozyme est une eWo-glycosidase particulièrement abondante dans le blanc d' œuf et dans le liquide lacrymal des mammifères. Il s'agit d'une protéine de petite taille (129 acides aminés; masse molaire : 14,5 kDa) et de forme globulaire qui est parcourue à sa surface d'une tranchée allongée, son site actif. Le rôle du lysozyme consiste à détruire les parois cellulaires d'un grand nombre de bactéries, par hydrolyse de la portion polysaccharide du peptidoglycane. Les polysaccharides en question sont constitués de deux types de sucres : la Af-acétylglucosamine (N A G ou GicNAc) et le /V-acétylmuramate (NAM), qui est un dérivé de la NAG comportant un groupe lactyle attaché par une liaison éther à l'atome de carbone C(3). Dans ces polysaccharides, les sucres N A M et N A G sont liés entre eux, en alternance parfaite, par des liaisons glycosidiques de type (3(1-4). Le lysozyme catalyse spécifiquement l'hydrolyse des liaisons glycosidiques entre C(l) de NAM et C(4) de NAG, la liaison glycosidique entre C(l) de NAG et C(4) de NAM n'étant pas touchée. La diffraction par rayons X du lysozyme aura permis à Phillips et à ses collaborateurs de réaliser la toute première structure tertiaire d'une enzyme. Toutefois, et en raison de l'absence de tout groupe prosthétique, ils ne réussirent pas d'emblée à localiser le site actif de cette enzyme. Le décryptage du mécanisme de l'hydrolyse catalytique a pu être réalisé par l'équipe de Phillips grâce à la détermination des diagrammes de rayons X de plusieurs complexes lysozyme-inhibiteurs, les inhibiteurs utilisés étant de petites molécules obtenues à partir de la chitine, telle que la tri-NAG (ou chitotriose). Il convient ici d'attirer l'attention du lecteur sur une difficulté analytique : l'étude par radiocristallographie de complexes du type enzyme-substrat n'est guère envisageable, en raison du caractère très fugace de tels complexes. Les inhibiteurs compétitifs sont, en revanche et par essence, plus fortement liés à l'enzyme que le substrat habituel. De ce fait, les complexes enzymes-inhibiteurs peuvent être isolés et, parfois, cristallisés. L'oligomère tri-NAG est un puissant inhibiteur du lysozyme; en d'autres termes, il se fixe fortement au site actif. Le diagramme de rayons X du complexe lysozyme-tri-NAG montre que le site actif apparaît à la surface de l'enzyme sous la forme d'une tranchée allongée - et non sous l'aspect d'une caverne, tel qu'il est généralement représenté dans les modèles simplifiés, parce que calqués sur la « serrure » d'Emil Fischer — la molécule tri-NAG ne remplissant d'ailleurs que la moitié de cette tranchée. L'analyse radiocristallographique du complexe montre que le tri-NAG est lié au lysozyme par des liaisons hydrogène et par des liaisons de Van der Waals. En revanche, on note l'absence d'interactions électrostatiques, le tri - N A G étant dépourvu de groupes ioniques. La moitié seulement du site actif étant occupée par le tri-NAG (les pyranoses de ce triose, tous de conformation chaise, sont baptisés par convention A, B et C), Phillips a pu montrer au moyen d'une modélisation moléculaire soignée que ce site actif peut accommoder trois autres molécules de N A G, appelées D, E et F. Les pyranoses E et F, également en conformation chaise, se placent aisément dans la tranchée enzymatique, au moyen de liaisons hydrogène et de Van der Waals parfaitement ajustées. En revanche, le pyranose D, modélisé initialement dans sa conformation chaise, ne correspond pas au volume disponible, les atomes C(6) et 0(6) engendrant une gène stérique trop importante avec plusieurs sites enzymatiques. Phillips se tira magnifiquement d'affaire en postulant que le pyranose D doit adopter une conformation demi-chaise - les atomes C(5), 0-(5), C(l) et C(2) devant être coplanaires - sous la forme d'un ion oxocarbonium cyclique (cation glycosylique), pour pouvoir se caler dans l'espace disponible. Cette hypothèse structurale cadrait parfaitement avec la modélisation moléculaire. La coupure hydrolytique a ensuite lieu spécifiquement au niveau de la liaison glycosidique entre les pyranoses D et E, Glu-35 agissant en tant que donneur de proton et Asp-52 en tant que contre-ion (ion carboxylate) vis-à-vis du cation glycosylique. La confirmation expérimentale du site d'attaque a été réalisée en faisant agir l'enzyme sur le saccharide (GlcNAc)6 qui, au sein du site actif, est hydrolysé spécifiquement en (GlcNAc)4 et (GlcNAc)2. On observe par ailleurs que la ô-lactone, obtenue par oxydation de (GlcNAc)4 et qui comporte un atome de carbone C(l) trigonal planaire, est fixée environ 100 fois plus fortement à l'enzyme que le tétrasaccharide lui -même. Cette dernière observation est en excellent accord avec l'hypothèse, énoncée plus haut, d'une catalyse optimale sur un substrat qui est forcé d'adopter, par le site actif de l'enzyme, la géométrie de l'état de transition planaire au niveau de C(l). La démonstration de la coupure de l'oligosaccharide entre les hexoses D et E constituait un point important du mécanisme enzymatique. Restait encore à démontrer de quel côté de l'oxygène glycosidique la coupure avait eu lieu. La réponse découlait de l'expérience d'hydrolyse enzymatique réalisée en présence d'eau enrichie en l s O : les sucres isolés comportaient 1 8 0 sur l'atome C(l) de l'hexose D, alors que l'oxygène fixé en C(4) de l'hexose E était l'isotope ordinaire. En se basant sur le modèle enzyme-inhibiteur précédent - et donc implicitement sur son analogie très marquée avec le complexe enzyme-substrat - Phillips souligne que le fait structural saillant du complexe enzyme-substrat est constitué par la présence de deux groupes carboxyliques, qui sont situés à proximité immédiate et de part et d'autre de l'atome de carbone anomérique où aura lieu la coupure hydrolytique. Un premier acide carboxylique (Glu-35) fournit le proton à l'atome d'oxygène glycosidique; ce qui provoque la fragmentation et la formation d'un ion oxocarbonium cyclique de conformation demi-chaise (schéma 4). On a beaucoup discuté du rôle du second acide (Asp-52). Stabilise -t-il, grâce à sa charge négative, le cation oxocarbonium cyclique qui vient de se former ? Ou bien y a -t-il formation d'une liaison covalente par addition nucléophile au niveau de l'atome de carbone C(l) de cet ion oxocarbonium ? On penche aujourd'hui en faveur de cette seconde hypothèse, en postulant toutefois la formation réversible de la liaison covalente. Après attaque nucléophile par une molécule d'eau de l'ion oxocarbonium — ce dernier résultant de l'équilibre précité — le produit final est obtenu avec rétention de configuration au niveau du carbone anomérique (schéma 4). On se reportera, à la fin de cet article, aux nouvelles données expérimentales de Withers [83] qui confirment le mécanisme de Phillips. Le mécanisme tel qu'il est décrit précédemment peut être considéré de nos jours comme faisant partie du corps de doctrine de la glycobiologie, du moins pour des glycosidases qui catalysent la coupure d'une liaison glycosidique de type e — » e, avec rétention de configuration. Il s'agit là d'un résultat spectaculaire de la biochimie moléculaire contemporaine et d'un triomphe de la radiocristallographie. Cette dernière aura permis d'illustrer l'importance décisive de la structure tertiaire du lysozyme, puisque le site actif est constitué par un ensemble de cinq acides aminés bien spécifiques, qui font partie d'une séquence linéaire de 129 acides aminés et qui portent les numéros 35, 52, 62, 63 et 101. Quant à la dynamique moléculaire de l'hydrolyse catalytique de polysaccharides, elle est difficile à imaginer, en raison de la succession extrêmement rapide des étapes. Si l'on veut bien se remémorer les anciens poinçonneurs du métro de Paris, et leurs gestes rapides et répétitifs pour perforer les billets au moyen d'une tenaille munie d'un poinçon, on aura une vision très approximative de l'action d'une glycosidase et de bon nombre d'autres types d'enzymes : la tenaille (l'enzyme) serre entre ses mâchoires (les « parois » de la tranchée du site actif) un billet de transport (le polysaccharide) et écrase ce dernier en un point particulier. Traduisons cette dernière étape en termes de dynamique moléculaire : le carbone anomérique s'applatit, via le complexe activé, entre les deux groupes carboxyliques libres (les deux parties du poinçon) qui sont situés de part et d'autre de ce dernier et qui, avec le reste du site actif, provoquent la compression du substrat. Un film de vulgarisation scientifique réalisé récemment à Mulhouse reproduit, au moyen d'un dessin animé tourné au ralenti et de façon assez simpliste, le mouvement des « mâchoires » du site actif de quelques molécules d'enzymes, mais en l'absence de tout substrat (Film vidéo : Des colorants d'aniline à la Biovalley; production et diffusion : Fondation pour l' École nationale supérieure de chimie de Mulhouse, octobre 1997. Ce film comporte également une séquence de dessins animés relatifs au génie génétique : action d'une enzyme de restriction et de ligases au cours de la synthèse d'ADN recombinant à partir d'un plasmide à'Escherichia coli) .
Les glycosidases catalysent la dégradation hydrolytique des polysaccharides en oligosaccharides et en hydrates de carbone monomères. De toutes les enzymes mises en oeuvre par la nature, les glycosidases sont les plus abondantes: elles convertissent le plus fort tonnage de biomasse, et de loin. C'est une glycosidase de l'émulsine des amandes douces qui, grâce aux travaux de Liebig et de Wöhler en 1837, marque le début des études enzymatiques. C'est encore l'étude de deux glycosidases qui conduit Emil Fischer, en 1894-1895, à formuler la complémentarité du site récepteur de l'enzyme - comparé métaphoriquement à une serrure - et du substrat -qu'il compare à une clef. Une glycosidase permet à Bourquelot de démontrer en 1913 la transglycosylation et, partant, la réversibilité des réactions enzymatiques. C'est également une glycosidase qui, en 1913, conduit Michaelis et Menten à formuler les équations relatives aux cinétiques enzymatiques. Les recherches mécanistiques relatives aux actions enzymatiques connaissent en 1966-1967 leur point culminant, lorsque Phillips déduit la structure d'un complexe glycosidase-substrat, à partir de la première structure, jamais obtenue par rayons X, d'un complexe glycosidase-inhibiteur. Cette étude le conduit à préciser le mécanisme détaillé de l'hydrolyse enzymatique d'un oligosaccharide. Les désoxyaminosucres, découverts durant le dernier quart de siècle dans des plantes tropicales, constituent de bons inhibiteurs de glycosidases grâce, en particulier, à la présence et à la basicité de l'atome d'azote. Ces aminosucres sont des inhibiteurs réversibles et compétitifs dont les structures imitent les configurations et les conformations des hydrates de carbone, les substrats habituels. La diffraction de rayons X réalisée sur d'autres complexes glycosidases-inhibiteurs aura permis de décrypter la structure des complexes glycosidases-polysaccharides correspondants et, partant, d'établir le mécanisme intime de l'hydrolyse enzymatique de ces biopolymères. Par ailleurs, les chimistes organiciens - en imitant les hydrates de carbone dans leur état fondamental et, mieux encore, dans leur état de transition vers la coupure hydrolytique - ont synthétisé des centaines d'aminosucres artificiels. Quelques-unes de ces molécules non naturelles se sont révélées être des inhibiteurs particulièrement puissants qu'on cherche à utiliser dans la pharmacopée moderne, en tant que substances antivirales, anticancéreuses, antidiabétiques, voire antipaludéennes.
chimie_99-0171836_tei_elsevier_99-0171836_CRAS-IIc-Chim.tei.xml
termith-307-chimie
Parmi les multiples facteurs qui gouvernent la stabilité des complexes par transfert de charge, le milieu : phase gazeuse ou solution exerce une influence déterminante (1). La nature du solvant, elle -même, modifie notablement les constantes de complexation. En général, ces valeurs diminuent lorsque la polarité du solvant augmente; c'est le cas, par exemple, pour les complexes entre un donneur d'électron et un accepteur - rr (2). Lorsque l'accepteur d'électron est la molécule d'iode, un changement de solvant peut, selon le donneur considéré, conduire aussi bien à un accroissement (3-7) qu' à une diminution (8-11) des constantes K c de complexation. Ainsi pour le complexe entre l'iode et la N,N diméthylacétamide, K c diminue de 15 dm 3 mol - 1 (12) lorsque le solvant est l'heptane, à 1,4 dm 3 mol - 1 avec le dichlorométhane (8). Au contraire, si l'on considère la complexation de l'iode avec la tétraméthylthiourée, la constante subit une forte augmentation de 13 000 dm 3 moP 1 dans l'heptane (3) à 49 000 dm 3 mol - 1 dans CH 2 C1 2 (3). Pour expliquer ces divergences dans les variations de K c avec le solvant, Augdahl et coll. (3) ont émis l ' hypothèse que le sens de l ' effet de solvant dépend du pourcentage de transfert de charge dans l ' état fondamental et donc de la grandeur de la constante de formation du complexe. Si le transfert de charge est faible (N, N diméthylacétamide par exemple) la constante décroît lorsque la polarité du solvant augmente (11). Àl ' inverse, si le complexe correspond à un transfert de charge élevé (tétraméthylthiourée) un solvant polaire stabilise le complexe et entraîne une forte augmentation de la constante d ' équilibre. Le sens de variation de K c avec la polarité du solvant dépendrait donc uniquement de la stabilité du complexe et par conséquence, pour un accepteur donné, de la basicité du donneur d'électron. Il est possible de tester la validité de ce modèle en étudiant l ' effet des solvants sur les complexes de l'iode avec des composés thiocarbonylés dont la basicité est voisine de celle de la diméthylacétamide. Si l'hypothèse d'Augdahl et coll. est justifiée, on doit alors observer le même sens d'effet de solvant pour les bases carbonylées et thiocarbonylées. Deux bases thiocarbonylées ont été retenues : le thiocamphre et le dithioester C 4 H 9 CSSCH 3. Les constantes de complexation du tableau 1 ont été calculées à partir des absorbances des bandes de l ' iode libre et complexé qui se trouvent entre 400 et 520 nm. Les deux bases absorbent également dans ce domaine de longueur d ' onde; une correction a été effectuée pour chaque solution. La méthode de calcul est celle de Rose et Drago ou une méthode dérivée (13). Nous avons vérifié qu ' il n ' y avait pas précipitation du complexe dans les solvants apolaires et que les spectres n ' évoluaient pas pendant la durée de l ' expérience. Nous nous sommes également assurés de l ' absence des ions I 3 ~ qui apparaissent fréquemment dans les milieux polaires et entraînent des erreurs importantes sur les valeurs des constantes. Parmi les solvants, aucun ne possède un caractère basique suffisant pour entrer en compétition avec les bases thiocarbonylées. La présence d ' un ou deux atomes de chlore sur le noyau abaisse sensiblement la basicité du cycle aromatique du chloro ou de l ' or / ^o - dichlorobenzène. Les constantes mesurées dans ces deux solvants ne révèlent pas une présence significative de complexe iode-solvant analogue au complexe iode-benzène (8). Avec les bases thiocarbonylées étudiées nous constatons, comme pour les thioamides et les thiourées, une augmentation des valeurs de K c avec la polarité du solvant, caractérisée par sa constante diélectrique. Nous pouvons donc immédiatement en conclure que le modèle d ' Augdahl et coll. n ' est pas satisfaisant : « le sens de l ' effet de solvant, diminution ou augmentation de la constante de complexation, n ' est pas lié uniquement au pourcentage de transfert de charge dans l ' état fondamental et à la grandeur de la constante d ' équilibre ». Il apparaît au contraire comme une propriété qui dépend de la nature chimique du site donneur d ' électron. Pour tous les donneurs d ' électrons thiocarbonylés le sens de l ' effet de solvant est identique, quel que soit la valeur de la constante d ' association avec l ' iode. Il faut donc rechercher ailleurs les raisons de l ' inversion des effets de solvant entre les bases carbonylées et thiocarbonylées. Il est indispensable, auparavant, de préciser la notion, souvent ambiguë, de polarité des solvants. Nous distinguerons les effets liés réellement à la polarité-polarisabilité de ceux qui dépendent des interactions spécifiques (14). Ces interactions, par liaison hydrogène ou transfert de charge, sont fonction de la basicité (ou de l'acidité) du solvant d'une part, de l'acidité (ou de la basicité) de l ' accepteur et du donneur d ' électron, d ' autre part. Or les basicités relatives d ' une série de donneurs d ' électron dépendent de l ' acide choisi comme référence; il est impossible de caractériser la basicité par un paramètre unique qui établirait une échelle intrinsèque des basicités (15, 16). Pour pallier cette difficulté, Pearson a proposé de distinguer entre acidité et basicité dures et molles (17). Ce modèle permet de prévoir les interactions privilégiées entre acides et bases possédant des caractères durs ou mous semblables. Nous avons pu expliquer, de cette façon, que les constantes d ' association de l ' iode (acide mou) avec les bases thiocarbonylées (bases molles) sont beaucoup plus grandes que les constantes d ' association avec les bases carbonylées (bases plus dures) (18). L ' inverse est observé avec les donneurs de liaison hydrogène (acides relativement durs) : par exemple, à 20°C, dans CC1 4, la constante d ' association du phénol avec la diméthylacétamide est de 152 dm 3 mol - 1 alors qu ' elle n ' est que de 12 dm 3 mol - 1 avec la diméthylthioacétamide (19). Jusqu ' à présent, ces paramètres de dureté, ou de mollesse, n ' ont pas été pris en considération lors de la comparaison des effets des solvants étudiés bien que ceux -ci soient donneurs de liaison hydrogène (CH 2 C1 2, CHC1 3) ou accepteur d ' électron (CC1 4) (20). Compte tenu des observations précédentes nous prévoyons, dans le cadre de ce modèle, que les interactions par liaison hydrogène de CH 2 C1 2 et CHC1 3 sont privilégiées avec les bases les plus dures, c ' est-à-dire les composés carbonylés. Elles sont, en revanche, faibles avec les bases thiocarbonylées. En conséquence, la composante prédominante de l ' effet de CH 2 C1 2 OU CHCI3 sur la stabilité des complexes iode - bases carbonylées est l ' interaction par liaison hydrogène du solvant avec la base. Il en résulte, par rapport à l ' heptane, une diminution de la constante de complexation avec l ' iode. Au contraire, dans le cas des bases thiocarbonylées, l ' incidence des liaisons hydrogène est négligeable; ce sont les effets de polarité - polarisabilité qui vont déterminer le sens de variation de la constante. Or le complexe avec l ' iode possède, en raison du transfert de charge, un moment dipolaire plus important que celui du donneur libre ce qui conduit, puisque la polarité du solvant s ' accroît de l ' heptane à CH 2 C1 2 ou CHC1 3, à un terme énergétique favorable qui stabilise le complexe et augmente la constante. L ' inversion du sens des effets de solvant est donc une conséquence de la dualité du caractère basique, mou et dur, des donneurs d ' électron. Plusieurs résultats confirment cette interprétation et la validité du modèle : (z) Le chloroforme est un donneur de liaison hydrogène plus fort que le dichlorométhane, l ' abaissement de la constante d ' association iode - base carbonylée doit être plus importante avec le chloroforme. Conformément à cette précision, la constante de formation du complexe iode - diméthylacétamide est de 1, 4 dm 3 mol - 1 dans le dichlorométhane (8) et seulement de 0, 6 dm 3 mol - 1 dans le chloroforme (tableau 2). (ii) CH 2 C1 2 (e = 8, 93) est plus polaire que CHC1 3 (e = 4, 8); la stabilisation des complexes iode - diméthylthioacétamide et iode - thiocamphre doit donc être plus forte dans CH 2 C1 2. Les valeurs expérimentales vérifient cet ordre : les constantes sont plus élevées dans CH 2 C1 2 que dans CHC1 3. (iii) Les abaissements des constantes en passant de l ' heptane au tétrachlorure de carbone sont importants avec les bases carbonylées; dans le cas des bases thiocarbonylées, les valeurs diffèrent peut entre les deux solvants. Ici encore, les résultats corroborent pleinement le modèle proposé. Le chlore, atome accepteur du CC1 4, est un site relativement dur, les complexes carbonyle - CCl 4 sont donc plus stables que les complexes thiocarbonyle - CCl 4. La compétition entre les deux complexes base - I 2 et base - CCl 4 est plus marquée dans le cas des bases carbonylées d ' où les variations plus importantes qu ' avec les bases thiocarbonylées. (¿v) Avec les solvants non donneurs de liaison hydrogène (CH3CCI3, C1C6H5, O - C12C6H4 ,. ..) les interactions polaires sont seules présentes, quel que soit la base. Elles conduisent à des augmentations des constantes de formation avec la polarité du milieu, indépendantes de la stabilité des complexes iode - thiocarbonyles. Dans le cadre de ce modèle des effets de solvant et en se limitant aux solvants non donneurs de liaison hydrogène, nous attendons également une augmentation des constantes de complexation de l ' iode avec la diméthylacétamide et la diméthylformamide lorsque la polarité du solvant s ' accroît. Nous avons, pour ces deux amides, élargi la gamme de polarité des solvants aux chloro et orrfto - dichlorobenzène (tableau 2). Nous observons effectivement un accroissement régulier des valeurs K c en passant de CC14 à C1C6H5 et O - C12C6H4. Cependant, même dans ce dernier solvant, la valeur K c est inférieure à celle de l ' heptane. Il faudrait, pour retrouver une valeur identique, accroître encore la polarité du solvant, ce qui est difficile à réaliser expérimentalement : les ions I 3 ~ se forment alors très rapidement et interdisent une détermination significative de la constante. Lors de la formation du complexe, une molécule d ' iode se substitue à une molécule de solvant dans la couche de solvatation, ce qui introduit sur le plan énergétique un terme de déstabilisation du complexe. Pour avoir une augmentation de la constante, il faut que la stabilisation due à l ' interaction dipolaire du solvant avec le complexe compense le terme défavorable. Le pourcentage de transfert de charge peut alors intervenir; il doit être suffisant pour que l ' interaction supplémentaire complexe - solvant l ' emporte sur l ' effet résultant de l ' approche de l ' iode. Ces deux facteurs antagonistes peuvent expliquer les variations observées dans le cas des bases carbonylées : diminution puis augmentation des constantes lorsque la polarité des solvants s ' accroît. En l ' absence de modèle autorisant une évaluation quantitative des diverses contributions nous devons nous limiter à l ' interprétation qualitative fondée sur la dualité des caractères acides et basiques. Nous retiendrons que les solvants polaires non donneurs de liaison hydrogène (o - dichlorobenzène, par exemple) stabilisent, en règle générale, les complexes par transfert de charge avec l ' iode. Les solvants polaires donneurs de liaison hydrogène (CHCI3), qui sont des acides durs au sens de Pearson, stabilisent également les complexes par transfert de charge de l ' iode avec les bases molles (thiocarbonylées) car ils interviennent quasi exclusivement par leurs effets non spécifiques de polarité. En revanche, ces solvants déstabilisent les complexes de iode avec les bases dures (carbonylées) puisqu ' ils entrent en compétition avec l ' iode pour se complexer avec la base. Les mesures d ' absorbance ont été réalisées sur un spectromètre Cary 219 équipé de cellules quartz de 1 cm. La température était maintenue constante, à 25°C, par une circulation d ' eau à partir d ' un cryostat Lauda K2R. Le thiocamphre, préparé par action de P4S10 sur le camphre (22) a été recristallisé dans un mélange eau - alcool puis chromatographié sur colonne de gel de silice (éluant : hexane). Il a ensuite été séché sous vide sur P 2 0 5. Le dithioester C4H9CSSCH3, obtenu par la méthode de Meijer et al. (23), a été purifié par distillations répétées. Tous les solvants ont été purifiés avant usage (24) et séchés sur tamis moléculaires 4 À .
Ces effets sont comparés aux effets de solvant sur les complexes iode-composés carbonylés. L'inversion de l'effet des solvants donneurs de liaison hydrogène en passant d'une série à l'autre résulte du caractère dur des bases carbonylées et mou des bases thiocarbonylées
chimie_88-0069540_tei_29.v87-349.tei.xml
termith-308-chimie
La résonance paramagnétique électronique (RPE) est une technique utilisée dans de nombreux secteurs de la physico-chimie du solide ainsi que de la biologie, mais son utilisation est plus limitée dans le domaine des sciences géologiques et archéologiques. Cependant, ces sciences font de plus en plus appel à cette technique, notamment dans le cas de la détermination de l' âge des matériaux qui s'y rapportent. Ces derniers contiennent en effet des espèces qui donnent un signal en RPE. Il peut s'agir d'éléments chimiques paramagnétiques mais aussi de défauts localisés dans la matrice du matériau et qui proviennent de l'irradiation naturelle engendrée par les éléments radioactifs du milieu environnant et par les radiations cosmiques. Un événement énergétique survenu à un moment donné, comme une cristallisation ou un traitement thermique, détruit les centres à spin non apparié ou les radicaux. Il en est ainsi par exemple lors de la formation de calcites ou la fabrication de poteries. A partir de ce moment, les radiations inhérentes à l'environnement entraînent un repeuplement partiel du matériau en centres paramagnétiques, par déplacement d'électrons qui sont alors piégés dans des défauts du réseau du matériau. L'intensité du signal observé en RPE est alors proportionnelle à la dose radioactive reçue par l'échantillon, et donc au temps écoulé depuis l'événement énergétique. La connaissance de la nature des centres utilisés pour la datation par RPE n'est pas forcément nécessaire. Ces centres doivent cependant répondre à deux critères : ils doivent disparaître sous l'effet d'un traitement thermique et réapparaître à la suite d'une irradiation par une source d'énergie suffisante. Certains de ces centres ont quand même été identifiés. Ainsi, la première datation effectuée sur une stalactite [1] utilisait un signal attribué au centre COT présent dans les carbonates. D'autres datations de calcites utilisent un signal non identifié [2, 3 ], mais un centre C O j a été mis en évidence pour dater des coraux datant de l'Holocène [4 ]. De l'émail de dent [5 ], du sang humain [6] révèlent aussi un signal radiosensible. Le quartz est présent dans de nombreux sédiments et autres matériaux. Il est un très bon réservoir de défauts paramagnétiques [7 ]. Ces derniers ont conduit à de nombreuses datations [8] [9] et sont attribués soit aux centres E ' associés au silicium [10] [11 ], soit à des centres associés à l'aluminium [9] [12] [13 ]. La silice révèle non seulement des centres E ' [14 ], mais aussi des défauts « peroxy » dus à un radical formé par la liaison entre un ion Oj et un atome de Si [15] [16] [17 ], Les céramiques constituées d'aluminosilicates, contiennent des impuretés métalliques et aussi du quartz. Elles devraient donc parfaitement convenir pour ce type d'analyse. Cependant, elles posent un problème en RPE à cause de l'interférence d'un signal très large et très intense attribué au fer [18 ], En effet, les argiles contiennent le plus souvent des traces de fer en quantité suffisante pour générer un signal intense en RPE. Le paramagnétisme est dû à l'espèce Fe 3+ qui possède un spin électronique S = 5/2 à l'origine de bandes d'absorption parfois complexes. Ainsi, en bande X (9,8 GHz), le spectre RPE d'une argile fait apparaître deux signaux larges à g = 4 et g = 2 [19 ], et un signal beaucoup plus fin vers g = 2 [20 ]. Les deux premiers sont dus à l'espèce Fe(III) dans des environnements différents. La résonance à g = 4 provient du Fe J+ localisé dans des sites orthorhombiques [21 ]. Le signal très large situé autour de g = 2 est attribué à des espèces Fe 3+ hydratées qui donnent naissance à des oxydes du type Fe 2 0 3 ou FeOOH [22 ], Il est généralement admis que le signal fin à g = 2 n'est pas en relation avec le fer mais provient de l'irradiation naturelle qui induit la formation de radicaux, d'électrons piégés ou de trous. Ce type de centre est : stable, mais il s'amenuise et disparaît avec l'élévation de la température. Au vu du signal RPE global généralement observé pour une argile, nous avons pensé qu'en essayant de diminuer l'interférence du signal dû au fer, par un traitement chimique de l'argile par exemple, il serait peut-être possible de faire émerger une raie utilisable pour la datation. Dans ce but, nous avons fait une approche préliminaire de l'étude d'une argile que nous avons soumise à une action chimique et aussi à des traitements thermiques. L'analyse et l'interprétation des spectres RPE ont permis d'obtenir sur cette argile les résultats que nous décrivons ici. L'argile utilisée sert, depuis l'époque préhistorique, à la confection de poteries dans le Sud de la France et plus particulièrement dans l'Hérault. Elle a été prélevée dans un gisement qui se trouve à Argelliers, petite commune située à une vingtaine de kilomètres de Montpell ier. Nous avons travaillé sur l'argile brute telle qu'elle a toujours été utilisée dans la confection des poteries, c'est-à-dire sans chercher, par exemple, à éliminer le quartz qui est souvent présent dans ce genre de matériau. Dans un premier temps, l'argile a toujours été lavée plusieurs fois à l'eau, dans la proportion de 1 g d'argile pour 50 cm 3 d'eau, puis récupérée par sédimentation et filtration, enfin séchée à 80 °C. Ce dernier traitement est suivi, pour certaines expériences, d'un contact avec une solution d'HCl 6 mol-L - 1 (1 g d'argile pour 50 cm 3 de solution) pendant 2 h à 50 °C afin d'éliminer la plus grande partie du fer non structurel. Il est alors nécessaire d'effectuer plusieurs lavages à l'eau pour éliminer l'acide chlorhydrique et les complexes du fer formés. L'argile est ensuite séchée à 80 °C après sédimentation et filtration. Les traitements thermiques, lorsqu'ils sont effectués, ont permis d'obtenir des argiles cuites à 800 °C, avec une montée en température de 100 " Oh " 1. Cette température de 800 °C a été choisie car elle se situe dans le domaine des températures de cuisson observées pour les poteries anciennes [23 ]. Les analyses chimiques ont été effectuées à l'université de Montpellier-II en utilisant la microscopie électronique à balayage (MEB). L'établissement des spectres RPE en bande X (9,8 GHz) a été fait à l'aide d'un spectromètre Bruker ER100 en adoptant une fréquence de modulation de 100 KHz dont l'amplitude a été fixée à 4 G pour les raies larges et abaissée jusqu' à 0,5 G pour les raies les plus étroites. Les échantillons ont été réduits en poudre et une masse de 50 mg environ a été introduite dans un tube en quartz. Nous avons utilisé le quartz pour éviter la possible présence d'entités ferriques dans le verre ou le Pyrex. Les spectres RPE ont été enregistrés à la température ambiante et pour l'un d'entre eux à 5 K. La connaissance de la nature exacte de l'argile ne fait pas partie des objectifs de ce travail. Bien qu'elle appartienne vraisemblablement à l'espèce minéralogique des smectites silico-alumineuses, cela ne présente pas un intérêt fondamental dans la mise au point d'une méthode de datation. Elle a été simplement choisie pour ses caractéristiques spectrales qui sont celles généralement observées dans les argiles communément employées dans la fabrication de poterie. Le tableau / précise sa composition en équivalents d'oxydes. Comme indiqué précédemment, le spectre RPE d'une argile crue, représenté sur la figure la, présente trois signaux distincts. On remarque que le signal II, extrêmement large, interfère de façon importante avec le signal III beaucoup plus fin. C'est dans cette région du spectre, autour de g = 2, qu'apparaissent les raies dues aux centres paramagnétiques susceptibles d' être utilisés pour la datation. Ces dernières sont très fines et en général de faible amplitude. Elles devraient donc être totalement masquées par un signal aussi intense que le signal IL Si le spectre RPE de l'argile est enregistré dans un domaine de champ magnétique plus restreint autour de g= 2, le signal III présente une meilleure résolution, comme le montre la symétrie axiale. Il est superposé à une raie à structure hyperfine que l'on devine et qui est due à des ions Mn 2+, le manganèse étant souvent présent sous forme de traces dans les argiles et dans le quartz [7 ]. Lorsque l'argile crue est chauffée pendant 15 min à la température de 800 °C, son spectre RPE (figure le) présente une évolution. On remarque notamment la disparition du signal III, ce qui indique que ce dernier est sensible à la température. Il nous a paru alors intéressant d'essayer de mettre en évidence ce signal de façon plus précise pour envisager sa caractérisation. Pour cela, il fallait s'affranchir de l'interférence importante du signal II avec le signal III. Le signal II est, comme nous l'avons vu, dû à des oxydes de fer qui ne sont pas dans la structure du matériau. Lorsque la température diminue, on constate un infléchissement de son amplitude dû à un élargissement de la raie autour de g = 2. Cela indique que les temps de relaxation des spins décroissent à basse température. On parle alors dans ce cas de fer superparamagnétique [22] [24 ], À titre d'exemple, la figure Id montre le spectre RPE, enregistré à 5 K, de l'argile cuite à 800 °C. La diminution de l'amplitude du signal II y est incontestable. Cependant, l'abaissement de la température ne permet pas de diminuer suffisamment l'interférence entre les signaux II et III. Dans ces conditions, il paraissait alors intéressant de faire subir à l'argile crue un traitement acide afin d'éliminer tout ou partie des oxydes de fer se trouvant dans les clusters de surface de l'argile, f] est indispensable que le signal III ne soit pas modifié par un tel traitement, même si la nature de l'argile s'en trouve quelque peu perturbée, afin que les possibilités de datation de l'échantillon soient préservées. L'argile crue a été tout d'abord lavée à l'eau et avec une solution d'eau oxygénée à 15 %. Ce traitement préalable n'a entraîné aucune modification de son spectre RPE. En revanche, un traitement à l'aide d'une solution d'HCl 6 mol-L ' 1 fait apparaître une diminution importante de l'amplitude du signal II et une résolution accrue du signal III, comme le mon tre la figure le. Par ailleurs, il est remarquable de constater que les spectres de rayons X de l'argile, avant et après ce dernier traitement, sans apporter de renseignements déterminants pour la classification de cette argile, montrent les mêmes raies de diffraction. Cela indique qu'aucune évolution importante n'est intervenue dans la structure de cette argile. Après ce traitement acide, si l'argile est portée à la température de 800 °C, on observe encore la disparition du signal III (figure 1f) et l'on constate surtout que le signal II est très fortement amenuisé. Dans ces conditions, il interférera beaucoup moins avec des signaux fins qui seraient observés autour de g = 2. Pour améliorer la caractérisation du signal III, le spectre RPE de l'argile crue, traitée par HC1, a été enregistré dans un intervalle de champ magnétique réduit (figure 2). Ce signal est alors résolu de façon satisfaisante et il paraissait intéressant d'essayer de le simuler. Bien qu'il semble être de symétrie axiale, ses caractéristiques spectrales ont été déterminées en adoptant une symétrie orthorhombique qui donne les meilleurs résultats. Le calcul a été effectué à l'aide d'un programme de simulation élaboré au laboratoire [25] en adoptant une raie de type lorentzien. Les résultats (figure 2) indiquent une bonne concordance entre les spectres expérimental et calculé. Les paramètres spectroscopiques déterminés, le tenseur g et la largeur de raieCT,sontindiquésdansletableau II. L'identification de l'espèce responsable de ce signalpeutsefaireàpartirdesvaleursdegx, gy et g z en tenant compte de la nature du matériau. L'argile étudiée, formée d'aluminosilicates, contient aussi du quartz [23 ]. Des travaux menés sur des silices ont montré qu'après une irradiation, les spectres RPE de ces matériaux révélaient l'existence de défauts associés à l'oxygène [15 ]. Plus précisément, deux types de centres paramagnétiques ont été identifiés [16 ]. Le premier est le nonbridging-oxygen hole center (NBOHC) qui résulte soit de la rupture d'une liaison Si-O d'une chaîne Si-O—Si, soit de la rupture d'une liaison OH dans Si-OH pour conduire dans les deux cas à l'entité Si-O*. Le second est le radical peroxy déjà identifié dans des verres de silice après irradiation de ces derniers [16] [17 ]. Il provient de la formation d'une liaison asymétrique entre l'ion Oï et un atome de silicium pour conduire à l'entité Si-O-O*. D'après les valeurs du tenseur g (gx = 2,051, gy = 2,0033 et gz = 2,0018) et de la largeur de raie O obtenues, il apparaît que signal III de l'argile d'Argelliers est dû à un radical peroxy. En effet, pour ce dernier, les valeurs observées dans les verres de silice varient légèrement selon la nature de l'irradiation : 2,027 < gx < 2,067, 2,0070 < g y < 2,0085 et 2,0018 < g z < 2,0020. On constate, en ce qui concerne le signal III, une valeur légèrement plus faible pour la composante g. Cela s'explique par la nature très différente aussi bien de la matrice de l'argile étudiée que du quartz brut qui y est contenu. Le signal III semble cependant être de nature composite car il est difficile de rendre tout à fait correctement compte de sa forme à g = 2 (figure 2, exp). Il se pourrait alors que deux défauts paramagnétiques en soient responsables. Il disparaît totalement sous l'action de la température comme cela est indiqué précédemment. Des études menées actuellement sur sa vitesse de disparition, à des températures différentes, indiquent nettement sa nature composite, comme le montre la figure 3 qui représente le spectrc RPE du signal III après un traitement thermique à 400 °C pendant 5 min. La diminution des radicaux peroxy entraîne une meilleure résolution du signal global et l'apparition d'une raie beaucoup plus fine près de g= 2. Pour mieux caractériser ce signal très étroit, le spectre précédent a été enregistré entre 349,7 et 350,5 mT. Une raie axiale (figure 4, exp) est alors mise en évidence. La simulation (figure 4, calc) a été effectuée en utilisant une raie de type lorentzien et a conduit aux valeurs des paramètres spectroscopiques indiquées dans le tableau III. Parmi les défauts observés dans les verres de silice ou le quartz, les centres E ' présentent des caractéristiques spectroscopiques très voisines de celles déterminées ici (g x = 2,0018, 2,0004 < gy < 2,0006 et 2,0003 < g z < 2,0004) [14 ]. Ces centres sont intrinsèques à Si02. Ils peuvent se former à partir de la rupture d'une liaison entre deux atomes de silicium pour conduire à un atome de silicium à spin non apparié selon : =Si—Si= - > =SiT +=Si +e " [26] ou sSi-Sis + H ~> =SiT + =SiEI [16 ]. En considérant les valeurs de ^ obtenues pour cette raie (g x = 2,0017, g y = 2,000 38 et g z = 2,000 33) et la très faible largeur de raie, le signal observé peut être attribué sans ambiguïté à un centre E '. La mise en évidence du centre peroxy et d'un centre E ' dans cette argile est intéressante à plus d'un titre. D'une part, elle confirme la présence de ce type de défauts dans la plupart des argiles courantes; d'autre part, elle ouvre la voie à la datation par RPE des poteries anciennes, ce qui n'était pas envisagé jusqu' à présent. Ces deux défauts pourraient être associés à des atomes de silicium présents soit dans les feuillets de l'argile, soit dans les grains de quartz qui sont intimement mélangés à cette dernière. On retrouve en effet dans ces deux phases des liaisons covalentes, dans lesquelles chaque atome de silicium de la structure du matériau apporte un électron sp 3 à chacune des liaisons Si-O. L'existence de telles structures est indispensable à la formation des centres peroxy et E '. Les études précédentes sur Si0 2 [26] permettent d'envisager la présence des centres E ' plutôt dans le quartz que dans l'argile. Quant aux centres peroxy, l'une ou l'autre des structures pourraient les accueillir. Le signal RPE est relativement bien observé sur les argiles crues. 11 est probable que les sites accueillant les défauts qui en sont responsables soient saturés, du fait de l'enfouissement de l'argile et de son exposition immémoriale aux radiations. Cela signifie qu'une céramique ancienne présentera des signaux, utilisables pour la datation, beaucoup moins intenses. Mais le traitement chimique de la céramique et l'évolution des techniques de mesure en RPE, dont le matériel permet actuellement des gains de sensibilité 1000 fois plus importants, devraient permettre une utilisation aisée de cette méthode. Cette dernière a, de plus, l'avantage de ne pas détruire l'échantillon et de n'en consommer qu'une très faible quantité contrairement aux techniques actuellement utilisées comme, par exemple, la thermoluminescence. Les travaux découlant des premiers résultats obtenus ici devraient conduire à une localisation définitive de ces défauts, à une étude plus précise de leur correction thermique et de leur sensibilité au rayonnement radioactif. Des expériences en cours, menées notamment sur des échantillons anciens, permettent d'envisager favorablement la datation de ces derniers par RPE .
Deux défauts paramagnétiques, le centre peroxy et le centre E', sont mis en évidence dans une argile brute en utilisant la résonance paramagnétique électronique. La raie intense, due aux oxydes de fer, observée dans le spectre RPE de l'argile, a pu être en grande partie éliminée, ce qui a permis l'émergence des signaux dus à ces centres. Ces derniers, associés au silicium, sont localisés soit dans le quartz contenu dans l'argile brute, soit dans la matrice de l'argile. Corrigés par un effet thermique et sensibles au rayonnement radioactif, ils pourraient être utilisés pour la datation par RPE des céramiques anciennes.
chimie_99-0434755_tei_elsevier_99-0434755_CRAS-IIc-Chim.tei.xml
termith-309-chimie
L'utilisation d'agents perchloratants efficaces tels que C1 2 0 6, HC10 4, C1C10 4 ,. .. a permis à Schmeisser et Brandie (1), Rosolovskii et coll. (2), Christe et coll. (3) et nous -mêmes (4) de préparer plusieurs complexes perchlorato anhydres des métaux de transition et d'éléments du bloc p. Dans la colonne III, il a été mis en évidence des complexes de type MC1(C10 4) 2 (M = B (5)); MC1,(C10 4) (M = B (5) et Ga (6)); M(C10 4) 3 (M = B (5), Àl (2a) et Ga (6)); A " M(C10 4) 3 + " (M = B, n = 1, A = alcalin, NH 4 +, NO, +; M = Al ,n = 1, A = C10 2 +; 1 < n < 3, A = alcalin, NH 4 +, NO, +; M = Ga, n = 1, A = C10, + (5-11). Aucun perchlorate anhydre d'In(III) ou de Tl(III) analogue aux précédents n'est connu. Seuls sont signalés dans la littérature des perchlorates In(I) et de T1(I) (12a, 13) ainsi que des complexes de type ML t (C10 4) :; M = In, Tl, L = base organique (12b, 13). L'étude des structures de Sn 3 (0H) - (C10 4) par RX (rayons X) (14, 15) et des complexes de type M(C10 4) 2 (M = Cu (16a), Co, Ni (16b)) parEXAFS (Extended X-Ray Absorption Fine Structure) a permis d'affiner les données de la spectroscopie de vibration. On a pu établir d'une façon rigoureuse les corrélations : fréquences des vibrations <H> longueurs des liaisons et nombre de vibrations < - » géométrie du ligand (monodenté, bidenté en pont, tridenté en pont.) Nous présentons ici le mode de préparation des perchlorates anhydres d'indium(III) et de thallium(III) et proposons uneanalyse structurale des composés obtenus. Cette analyse repose sur les données de la spectroscopie de vibration ir et Raman, des diagrammes de poudre X et de récents résultats en EXAFS sur Ga(C10 4) 3 (17). Attention : Le trioxyde de chlore et les perchlorates anhydres sont des composés très réactifs, particulièrement au contact des matières organiques ou sous les chocs. Les réactions doivent être surveillées attentivement. Les complexes sont extrêment hygroscopiques; ils sont manipulés sur une ligne de vide (18) ou dans une boîte à gant contenant de l'azote très sec. Produits de base La préparation et la purification du trioxyde de chlore ont déjà été décrites (19). lnCl3 (Alfa Ventron ou Merck pour analyse) et T1C13 (Cerac (99,9)) sont utilisés sans purification préalable. InCl3,4H20 est obtenu par recristallisation dans l'eau de InCl3 anhydre et chauffage sous vide à 50-60°C jusqu' à poids constant. Méthodes d'analyse Les appareils d'analyse ir, Raman et RX sur poudre ainsi que les méthodes d'échantillonnage sont présentées par ailleurs (4, 5). Pour l'analyse chimique, la mise en solution des perchlorates anhydres est effectuée avec beaucoup de précautions (4). Les dosages de In (20), Tl (20), de C102+ (4, 21) et de C104 " (22) sont effectués généralement de façon classique comme indiqué dans la légende du tableau 1. Seule l'analyse de C104~ dans les complexes du thallium fait l'objet d'une méthode originale mise au point au cours de ce travail. Par suite d'une réaction de complexation secondaire (23), les complexes du thallium ne peuvent pas être titrés par potentiométrie grâce au chlorure de tétraphényl-arsonium (22). La concentration en C10 4 ~ est déterminée en utilisant une courbe d'étalonnage préalablement établie à partir des potentiels d'électrode de plusieurs solutions étalons de perchlorates de potassium (5 x 10~ 4 < M < 5 x 10~ 2). Pour tous les échantillons la force ionique est maintenue constante par addition de (NH4)2S04. Synthèse des complexes perchlorato d'indium et de thallium Les mécanismes de synthèses et de décomposition obeissent à des règles déjà rencontrées (4) : Contrairement au bore (5) et au gallium (6), on n'obtient jamais avec l'indium et le thallium, dans un premier stade, des complexes de type MC1 " - ,(C10 4) ". Dans une expérience classique on distille à — 180°C sur 0,5 à 6 x 10~ 3 mole de chlorure, un excès de C1 2 0 (, (2 à 5 fois plus). On laisse ensuite rechauffer doucement ce mélange jusquà 10°C, puis on agite plusieurs heures (de 3 à 8 h) jusqu' à ce que le maximum de trioxyde de chlore soit consommé. Durant l'agitation on note un fort dégagement de C10 2, 0 2, Cl 2. Ces gaz doivent être éliminés périodiquement sous vide dynamique du milieu réactionnel. Après avoir enlevé par pompage l'excès de C1 2 0 6, on aboutit un composé orange qui enrobe souvent des particules de chlorure qui n'ont pas réagi. On broit ce mélange en boîte à gant puis on le retraite par C1 2 0 6. Le produit final est un sel de chloryle pur, C10 2 M(C10 4) 4. Par chauffage sous vide dynamique du sel de chloryle on obtient M(C10 4) 3. Cette dernière opération doit être menée avec précaution, avec le sel de thallium pour éviter la formation d'un oxo perchlorato complexe. Les caractéristiques des réactions, l'analyse des composés isolés sont reportées dans le tableau 1. On doit remarquer que In(C10 4) 3 est stable jusqu' à 272°C. Les composés synthétisés sont anhydres car les spectres ir et Raman (figures 1 - 4) ne présentent aucune bande ou raie dans les domaines de vibrations du vibrateur O—H (3600-3000 cm " 1 et 1800-1500 cm " 1). In(Cl04)3 La similitude des spectres ir et Raman de ln(C10 4) 3 et Ga(C10 4) 3 (fig. 1 et réf. 6) indique que l'environnement du métal et la symétrie locale sont identiques dans les deux complexes. Leurs diagrammes de poudre sont cependant différents. Il est possible cfindexer les raies de celui de Ga(C10 4) 3 à partir du groupe R3 (17). Pour ln(C10 4) 3 on est conduit à adopter le groupe P3 pour lequel les arrangements dans la maille sont voisins (tableau 2). On reste ainsi cohérent avec les données de la spectroscopie de vibration. Une étude structurale par EXAFS de Ga(C10 4) 3 (17) a montré que sa structure dérive de celle de Asl 3 (24). C'est un polymère à structure lamellaire, la distance Ga—Ga est de 4,71 Â. Les groupes C10 4 sont bidentés en pont (fig. 5 et réf. 17). Autour de chaque atome de métal la symétrie locale est Z) 3. Dans le cristal le groupe facteur est S 6. Ceci conduit au tableau de corrélation 3a pour le squelette M0 Pour les groupes C10 4 on peut dresser le tableau de corrélation 3 b. Il est bien évident que l'on ne pourra observer, pour les 6 molécules contenues dans la maille, les (( 3 x 16 x 6) — 3 = 285) vibrations attendues. Par contre, on peut rendre compte des perturbations et effets de multiplicité pour les groupes C10 4 et des vibrations du squelette métal-oxygène. On note, pour les 18 modes de vibration attendus du groupe C10 4 entre 1400 et 400 cm " 1, 14 composantes principales en Raman et 12 en ir. L'activité sélective ir-Raman prévue est vérifiée en particulier dans le domaine des vibrations de valence CIO, (O, = oxygène terminal) (fig. 1). La présence de ligands C10 4 bidentés est confirmée par 4 groupes de bandes ou raies dans le domaine des vibrations de valence (18, 25) (cf. tableau 4). Sous l'effet du groupe facteur (tableau 3 b) chacun de ces modes de vibrations se dédouble en deux composantes A g et £ g en Raman et A n et en ir (tableau 4). Par exemple v as CIO, est observé à 1326 et 1306 cm " 1 en Raman et 1290 et 1275 cm " 1 en ir et v s CIO, apparaît à 1202 et 1156 cm " 1 en Raman et 1165 et 1143cm " 1 en ir. L'effet de multiplicité dû à la présence de 6 motifs dans la maille permet d'expliquer, notamment les composantes à 1305 cm " 1 en ir et à 1293 cm " ' en Raman. La plus faible résolution dans le domaine des modes de déformation de C10 4 (700-400 cm " ') ne permet pas de voir l'ensemble des composantes attendues (fig. 1). Les attributions les plus logiques sont données dans le tableau 4. Quatre raies en Raman (autour de 241 cm " 1) et deux bandes en ir (vers 222 cm " 1) caractérisent les vibrations de valence du squelette. Bien que le groupe C10 4 soit fortement lié au métal, ¿(In—O) = 2,19 A (17), les fréquences moyennes v In—O (—230 cm " 1) sont inférieures à celles notées pour l'acétylacétonate, v s : 444 cm " 1 (27), les acétates, v 5 : 300 cm " ' (28) ou d'autres complexes organo métalliques signalés dans la littérature (29). Ceci est bien sur lié à la faible basicité du groupe C10 4. En dessous de 150 cm " ' on attend les vibrations de déformation de l'octaèdre et les modes de réseau. Une attribution spécifique semble délicate, cependant, sans ambiguïté, les raies à 143, 137 et 107 cm " ' doivent plutôt décrire des modes de déformation de symétrie A s et E e. TI(C104)3 La comparaison des diagrammes de poudre de In(C10 4) 3 et T1(C10 4) 3 (tableau 2) montre que ces deux complexes cristallisent dans le même groupe d'espace. Leurs spectres ir sont identiques, ainsi qu'une grande partie de leurs spectres Raman. Par contre, le domaine des vibrations de valence C10 p présente en Raman une grande différence. Pour l'indium on relève trois raies à 872, 945 et 896 cm " ' et deux pour le thallium à 799 et 917 cm " '. Les vibrations du pont étant les plus affectées par le mode de coordination, on pourrait expliquer ces différences par l'existence de groupements T1(C10 4) 3 discrets comportant des groupes C10 4 bidentés chelatants. Cependant, ce type d'engagement est rare (26). En l'absence de toute autre information, on conservera pour T1(C10 4) 3 le même type d'analyse que précédemment. On admet que l'évolution des vibrations v C10 p est liée aux différences de masse et de rayon ionique de l'élément central. La moyenne des fréquences v C10 p (889 cm " 1) dans T1(C10 4) 3 subit un déplacement normal par rapport aux complexes de la même série A1(C10 4) 3 : 935 cm " 1, Ga(C10 4) 3 : 901 cm " 1, In(C10 4) 3 : 906 cm " 1. Comme attendu, les vibrations de valence v MO du squelette T10 6 apparaissent à des fréquences plus basses que celui de In0 6 : Av s = —18 cm " 1. Les principales attributions sont notées sur le spectre (fig. 2). C102M(C104)4 (M = In, Tl) Les diagrammes de poudre (tableau 2) montrent que ces sels sont des complexes définis puisque on n'y retrouve pas les raies de M(C10 4) 3. Les spectres ir et Raman sont donnés sur les figures 3 et 4. On note une certaine similitude. Le cation C10 2 + est défini par les bandes ou raies caractéristiques vers 1300 (v as), 1055 (v s) et 515 (ô) cm " 1. Sur les spectres on relève des composantes à des fréquences voisines de celle observées pour le perchlorato métal correspondant. Elles sont attribuées à des groupes C10 4 bidentés en pont. Il apparaît en outre des bandes et raies supplémentaires, par exemple pour l'indium, dans le domaine des vibrations de valence à 1225 (ir), 1240 (R), 1000 (ir), 1023(R), 855 (ir) et 759 (R). Elles sont caractéristiques de groupes C10 4 monodentés, ainsi que la raie à 375 cm " 1 (balancement de C10 3) (18). L'existence des deux types de ligand est confirmé par la présence de trois bandes dans le domaine des vibrations v MO alors qu'on en observe au plus deux pour le perchlorato métal (par exemple, pour les complexes d'indium, on a respectivement en ir : 290, 270, 220 et 250, 195 cm " 1). On doit noter que à la différence du ligand N0 3 (30) le ligand CIO4 ne parait pas apte à donner une environnement 8 pour Tl. La raie Raman vers 760 cm " 1 attribuée à v s Cl—O p du groupe C10 4 monodenté est caractéristique d'une coordination forte entre le métal et le ligand. Ceci devrait se traduire par l'apparition, vers 1300 cm " 1, de bandes correspondant à v as Cl—O, (5). Ici cette vibration est relevée autour de 1220 (ir), 1240 cm " 1 (R), alors que pour C10 2 Ga(C10 4) 4 elle est observée vers 1235 cm " 1. Pour le complexe du gallium, ce déplacement vers les basse fréquences a été expliqué par une interaction métal-perchlorate supplémentaire conduisant à une semicoordination (18). Il semblerait plus logique d'admettre une interaction entre C10 2 + et les groupes C10 4 monodentés dans M(C10 4) 4 ". Ceci tendrait à recréer des enchaînements comparables à ceux rencontrés dans C1 2 0 6 liquide (31). Cette hypothèse n'est pas aberrante puisque des interactions C10 2 + - anion ont été observées lors de l'étude structurale de C10 2 Sb 2 F M, C10 2 GeF 5 etC10,BF 4 (32). Elle permet de plus, de rendre compte du mécanisme réactionnel de la transformation relativement facile de C10 2 M(C10 4) 4 en M(C10 4) 3 avec élimination de C10 2 C10 4. Grâce à ce travail, on a pu compléter l'étude des complexes perchlorato des éléments du groupe IIIB. L'action de C1 2 0 6 sur InCl 3 (ou InCl 3 ,4H 2 0) et T1C1 3 conduit à la formation de quatre nouveaux perchlorates anhydres, deux perchlorato-métal M(C10 4) 3 et deux sels de chloryle C10 2 M(C10 4) 4 (M = In, Tl). L'analyse structurale par spectroscopie de vibration infrarouge et Raman et diagrammes de poudre RX a permis de montrer que les perchlorato métal, M(C10 4) 3 (M = In, Tl) ont des structures proches de celle de Ga(C10 4) 3. Ce sont des polymères avec des groupes C10 4 bidentés en pont où tous les groupes C10 4 sont en interactions forte avec le métal, alors que dans C10 2 In(C10 4) 4 et C10 2 T1(C10 4) 4 il faut distinguer des groupes C10 4 de même nature que les précédents et des groupes C10 4 monodentés présentant une interaction importante avec l'ion chloryle. Par ailleurs, on a pu mettre en évidence les évolutions des fréquences de vibration v ClOj, et v MO dans la colonne IIIB pour la série M(C10 4) 3 (M = Al, Ga, In et Tl). Elles sont directement liées aux rayons ioniques et à la masse de l'élément central. Ce travail a été réalisé dans le cadre d'accords de coopération CNRS (France) - DRST (Tunisie). Les auteurs du mémoire remercient ces organismes pour les liens qu'ils ont su renforcerentre les deux laboratoires et l'aide financière qu'ils leur ont apporté. Ce travail a été réalisé dans le cadre d'accords de coopération CNRS (France) - DRST (Tunisie). Les auteurs du mémoire remercient ces organismes pour les liens qu'ils ont su renforcer entre les deux laboratoires et l'aide financière qu'ils leur ont apporté .
Présentation du mode de préparation des perchlorates anhydres d'indium et de thallium et proposition d'une analyse structurale des composés obtenus réalisée par spectres de vibration IR et Raman, diffraction RX et EXAFS
chimie_87-0044237_tei_53.v85-573.tei.xml
termith-310-chimie
L'étude des volumes molaires partiels et apparents des composés tensioactifs est généralement entreprise dans le but de déterminer avec précision des valeurs de concentration micellaire critique (cmc) (3), le phénomène de micellisation s'accompagnant le plus souvent, dans l'eau d'une importante variation des propriétés volumiques des amphiphiles. À ce titre, différents travaux ont été réalisés dans l'eau pure, mais également en présence de faibles quantités d'additifs moléculaires (4) ou ioniques (5) dont on a pu ainsi préciser les modes d'action dans le processus de micellisation. Peu d'études, en revanche, s'attachent à décrire le comportement volumique des détergents en milieu salin concentré, bien que de nombreux travaux se basant sur la mesure d'autres paramètres physiques (viscosité, diffusion de la lumière. ..) (6—9) montrent que les édifices micellaires sont profondément affectés par la présence d'un électrolyte concentré. Des travaux antérieurs (1,2) nous ayant permis de préciser les propriétés volumiques individuelles des anions et des cations, minéraux et organiques, mono chargés dans les mélanges eau—KC1 pour des concentrations en chlorure de potassium comprises entre 0,5 et 3,5 mol L"'^nous avons entrepris l'étude des volumes molaires partiels V/ et apparents <| >, de composés tensioactifs dans ces mêmes milieux. Nous nous sommes plus particulièrement intéressés à quatre halogénures d'alkyltriméthylammonium de formule générale CH 3 (CH 2) " N + (CH 3) 3 X~ : les bromures de décyl (n = 9) dTA, dodécyl (n = 11) DTA, tétradécyl (n = 13) TTA, hexadécyl (n = 15) HTA triméthylammonium. Afin de juger de l'influence de la nature de l'électrolyte support et du signe de la charge portée par l'amphiphile, lescomportements du dodécylsulfate de sodium DSNa et du DTA ont été également étudiés dans les milieux eau—NaCl pour une gamme de concentrations comprise entre 0,25 et 0,75 mol L " ' en chlorure de sodium. Le bromure de décyltriméthylammonium est un produit Eastman Kodak; les autres détergents cationiques sont des produits Sigma. Différents essais de reproductibilité ont montré que les résultats expérimentaux obtenus avec des produits recristallisés ne différaient pas notablement de ceux obtenus à partir des produits bruts. La purification n'a donc pas été systématiquement effectuée. Le dodécylsulfate de sodium, d'origine Prolabo RP, ne conduit en revanche à des résultats reproductibles que recristallisé au moins deux fois dans un mélange méthanol — éther éthylique. Les chlorures de potassium et de sodium sont des produits Prolabo RP. L'eau utilisée est fraîchement distillée. Sa masse volumique à 298 K a été prise égale à 0,997047 g cm " 3. Les mesures de masses volumiques ont été réalisées au moyen d'un " densimètre vibratomètre à flux " Sodev (modèle 03D) maintenu à la température constante de 298 ± 2 x 10 " 3 K par un thermostat Setaram. Les mesures des périodes ont été effectuées sur un fréquencemètre Hewlett Packard 5315A. Le calcul de la valeur du volume molaire apparent <)>, @BULLET du soluté i, de masse molaire Mi, à la molalité m référée à 1000 grammes de la solution eau—KC1 considérée, s'effectue à partir de la relation classique : p, et p 0 sont respectivement les masses volumiques de la solution i et du solvant eau—KC1. L'addition d'un électrolyte à une solution de tensioactif favorise, en règle générale, le phénomène de micellisation, ce qui se traduit par un abaissement de la valeur de la cmc (10). La technique de détermination des volumes molaires apparents mise en oeuvre dans cette étude, nécessite l'emploi d'une concentration minimale de soluté égale à 10 - 2 mol kg " 1 (11). À cette concentration les tensioactifs utilisés, qui possèdent déjà dans l'eau des seuils critiques micellaires relativement faibles (tableau 1), se trouvent pour la plupart partiellement ou même totalement micellisés en présence de l'électrolyte support. A titre d'exemple, les variations des volumes molaires apparents du dTA en fonction de la molalité en détergent, pour différentes teneurs de la solution en chlorure de potassium, sont reportées sur la fig. 1. On peut ainsi constater que même pour la plus faible concentration de KC1 utilisée, 5 x 10 - l molL - 1, le dTA à 10 - 2 mol kg - 1 est déjà partiellement associé. Il n'est donc pas envisageable d'étudier, au moyen de la technique de mesure précédemment décrite, le comportement des amphiphiles sous leur forme monomère dans les mélanges eau-KCl. En revanche, l'utilisation d'une concentration suffisante en détergent permet d'obtenir des systèmes totalement micellisés pour lesquels les propriétés physicochimiques des amphiphiles sont parfaitement définies. C'est dans ce cadre précis que s'inclut la présente étude. Les résultats expérimentaux regroupés dans le tableau 2 et illustrés par ailleurs sur la fig. 2 montrent que dans un milieu eau-KCl donné, une fois le système totalement micellisé, les volumes molaires apparents des détergents, de la même manière que ceux des halogènures alcalins (1), sont indépendants de leur molalité dans la gamme de concentration utilisée (m < 3 x 10 " ' mol kg - 1). On pourra donc caractériser le détergent micellisé par un volume molaire apparent 4> m correspondant à cette valeur constante. Les valeurs moyennes des volumes molaires apparents 4>, " pour les différents détergents étudiés, à plusieurs concentrations en chlorure de potassium sont regroupées dans le tableau 3. On remarque que ces valeurs varient très peu, pour un tensioactif donné, avec la teneur de la solution en KCl. À titre de comparaison, les variations de 4>, " pour les quatre détergents cationiques, et celles des volumes molaires apparents à dilution infinie de deux autres électrolytes KBr et (C 4 H 9) 4 NBr sont représentées sur la fig. 3. La différence de comportement entre ces deux derniers sels a été justifiée dans une étude précédente (2). Les mesures réalisées avec le DSNa et le DTA dans les mélanges eau-NaCl seront évoquées ultérieurement dans le chapitre consacré à l'interprétation des résultats. La modification des propriétés structurales des systèmes micellaires, en présence de quantités variables de sel a fait l'objet de nombreux travaux et une littérature abondante existe actuellement sur ce sujet (6—9). Nous en retiendrons les conclusions suivantes en rapport avec notre étude : A. La création d'édifices micellaires dans l'eau pure conduit à l'apparition en solution de structures comportant un nombre élevé de charges identiques. Pour des raisons électrostatiques évidentes la majeure partie des contre-ions se trouve située dans l'environnement immédiat de la micelle. La répartition des contre-ions s'effectue selon une loi de distribution radiale continue, partant d'une forte concentration près de la surface de la micelle qui décroit régulièrement lorsque l'on s'en éloigne (12,13). Ce phénomène de " surconcentration " au voisinage de l'interface micelle—solvant peut être traité au moyen d'un concept d'association qui suppose des contre-charges " liées " à la micelle au niveau de sa surface par l'intermédiaire d'un équilibre d'échange (14). Cependant, la notion de " liaison " dans ce type de modèle doit être prise au sens large car elle n'implique pas l'existence de sites spécifiques sur la micelle pour le rattachement des contre-ions (15). Il en résulte que l'on ne différenciera pas au niveau de leurs propriétés thermodynamiques et en particulier de leurs volumes molaires partiels, les contre-ions qui se " fixent " sur la micelle des autres ions de la solution, cette séparation étant essentiellement formelle. Lorsque l'on ajoute à ces solutions une quantité importante d'électrolyte, on modifie notablement la répartition des contreions dans l'environnement des édifices micellaires. Deux cas peuvent alors se présenter : (a) L'électrolyte possède le même contre-ion que le détergent (ajout par exemple du sel M + Y " à une solution de détergent cationique T + Y~). Cette opération a pour conséquence d'augmenter la concentration des ions Y - dans l'environnement immédiat de la micelle. Ceci peut se traduire dans le concept de l'équilibre d'association par un déplacement de l'équilibre d'échange (contre-ions associés ^ contre-ions libres) vers la forme associée, ce qui correspond à une saturation en contre-ions de l'interface micelle—solvant. Ce phénomène dont la conséquence est un affaiblissement des répulsions électrostatiques entre les " têtes " polaires des amphiphiles de la micelle est à l'origine de l'abaissement du seuil critique micellaire (16). (b) L'électrolyte possède un contre-ion différent (par exemple l'ajout du sel M + X~ à une solution de détergent cationique T + Y~). Les ions X - introduits tendent à participer, en concurrence avec les ions Y ", à l'électroneutralité des édifices micellaires. Divers travaux (17—20) montrent que la répartition des ions dans le proche environnement de la micelle n'est pas contrôlé exclusivement par le facteur entropique, mais qu'il faut également prendre en compte la nature chimique des contre-ions. Dans le cadre du concept de l'équilibre d'association, on considère qu'il s'établit un équilibre d'échange entre les ions X~ et Y~ plus ou moins déplacé vers l'une ou l'autre des deux formes associées (T + ,X~ et T + ,Y~) selon la sélectivité relative de la micelle pour les ions X ' et Y ". Toutefois, en présence de fortes quantités d'électrolyte MX il se crée, par simple " effet de masse ", un environnement de la micelle constitué presque exclusivement d'ions X~. On peut ainsi admettre que les édifices micellaires cationiques en présence de KC1 à forte concentration sont associés aux ions chlorure, même si à l'origine les détergents comportaient un contre-ion différent (Br -). Les remarques précédentes permettent d'interpréter les propriétés des détergents cationiques dans les milieux eau—KC1 et en particulier le fait que leur volume molaire apparent 4>, " ne dépend pas de leur molalité. Ce comportement est identique à celui observé pour les halogènures alcalins mais sa justification en est différente. En effet dans le cas d'un sel minéral P + Y~ introduit dans une solution concentrée eau-KCl, il est légitime de considérer qu'aux faibles concentrations les ions P + et Y " se comportent dans le milieu comme des entités indépendantes (pas d'interactions P + - P +, P + - Y~, Y " -Y ") (2) et en conséquence que les propriétés de ces ions peuvent être décrites par les lois des solutions diluées. La valeur du volume molaire apparent de PY est alors constante tant que la concentration du sel reste faible devant celle de l'électrolyte support. Elle s'identifie alors à sa valeur extrapolée à dilution infinie. Dans le cas des tensioactifs, au contraire, les cations T + sont agrégés sous forme d'édifices micellaires et seuls les contreions Y " peuvent être supposés sans interactions réciproques tant que la concentration en détergent reste faible. La valeur constante observée indique donc, selon toute vraisemblance, que l'intensité des interactions entre les amphiphiles T + eux -mêmes dans l'édifice micellaire, mais également entre T + et Cl~ ne varie pas lorsque la concentration du tensioactif augmente. B. Lorsque la concentration de l'électrolyte support croit, la structure de l'édifice micellaire se modifie. La configuration initialement sphérique évolue selon la nature du détergent vers des structures de symétrie moindre (15). Toutefois au cours des ces modifications, les interactions entre les têtes polaires des amphiphiles et les constituants du solvant ne sont pas fondamentalement modifiées, pas plus d'ailleurs que celles qui existent entre les chaînes aliphatiques regroupées au coeur de la micelle. Il faut donc s'attendre à ce que ces modifications n'entraînent pas de variations notables des volumes molaires apparents des amphiphiles micellaires. L'indépendance des valeurs de 4> ", avec la concentration en KC1 confirme cette hypothèse. Il a été en effet montré dans une étude précédente que les volumes molaires apparents individuels à faible concentration des halogènures Y " s'identifiaient à leurs volumes intrinsèques ceux -ci étant eux -mêmes reliés à leurs volumes cristallins (calculés à partir des rayons de Pauling) par l'équation : Les volumes molaires apparents des détergents T + Y~ étant indépendants de la concentration en KC1, ct> Y - l'étant également, il en est nécessairement de même pour les amphiphiles T +. Les valeurs de <}> ra (T +) ne varient donc pas avec la teneur de la solution en chlorure de potassium. Une précédente étude sur le comportement des bromures de tétraalkylammonium symétriques (( CH 3 (CH 2) x )4NBr) a permis de montrer que les volumes molaires apparents des ions organiques de grande taille {x > 2) pouvaient être identifiés à leur volume intrinsèque en solution saline concentrée (2). L'indépendance de 4> m (T +) avec la concentration en KC1 laisse supposer qu'il doit en être de même pour l'amphiphile dans l'édifice micellaire. S'il est ainsi, on peut alors écrire : soit encore en utilisant la relation [2] : Les amphiphiles étudiés appartenant à une même famille de composés CH 3 (CH 2) " N(CH 3) 3 (n = 9, 11, 13 et 15), il est possible de scinder leur volume intrinsèque en deux contributions : Vg relative au groupement polaire (CH 3 )4N +, et nV l cH, relative aux n groupements CH 2 constituant la chaîne aliphatique, en supposant que chacun d'entre eux possède des propriétés voisines (Vcti,) - Le volume intrinsèque de T + s'écrit alors : soit : Les valeurs de ont été calculées pour les quatre détergents cationiques (tableau 4) et reportées en fonction de n sur la fig. 4. Le graphe représentatif est une droite de pente Vc H, = 16,5 cm 3 mol - 1 et d'ordonnée à l'origine Vg = 78,5 cm 3 mol " 1. Le volume intrinsèque de l'amphiphile CH 3 (CH 2) " N + (CH 3) 3 s'écrit donc : La valeur trouvée pour le volume intrinsèque du groupement tétraméthylammonium (n = 0) s'identifie à celle que l'on calcule pour l'ion tétraméthylammonium à partir du rayon ionique proposé par Masterton et al. (r = 2,51 Â) (21) en appliquant la relation [2 ]. L'incrément de volume pour chaque CH 2 correspond à celui observé pour les alcanes purs (8 < n < 14) (22), laissant ainsi supposer que l'association des chaînes aliphatiques au sein de l'édifice micellaire conduit à la constitution d'un " milieu interne " dont les propriétés s'apparentent à celles des carbures saturés. Cet incrément est nettement supérieur à celui que l'on détermine dans ce mêmes milieux pour les ions ammonium quaternaires symétriques (CH 3 (CH 2),) 4 N + pour lesquels les CH 2 possèdent un environnement aqueux (23). La représentation des variations du volume intrinsèque des cations ammonium en fonction de x conduit au tracé d'une droite de pente égale à 4Vc H2 et d'ordonnée à l'origine V ' g relatif au même groupement tétraméthylammonium (fig. 4). On obtient : Même si l'on tient compte de la faible précision des extrapolations, il est à noter que l'on retrouve pour cette famille de composés, une valeur identique à la précédente pour le volume intrinsèque du groupement (CH 3) 4 N +, ce qui semble justifier les partitions des volumes telles qu'elles ont été réalisées. La différence de volume intrinsèque observée entre les groupements —CH 2 — selon qu'ils possèdent un environnement ionique aqueux ou hydrophobe est à l'origine du phénomène d'expansion lié à la micellisation qui apparaît ainsi comme une conséquence du changement d'environnement de la partie hydrophobe du détergent (24, 25). Cas d'un détergent anionique : le dodécylsulfate de sodium L'influence des électrolytes sur les micelles de NaDS et entre autres, les variations de la cmc avec la teneur en sel ont fait l'objet de nombreux travaux (26-29). Dans le cas du sel NaCl, il a été établi que le volume des micelles et donc leur rayon, ne varie que très faiblement (27) tant que la concentration de l'électrolyte reste inférieure à 0,45 mol L " 1 (26,28). Au delà de cette limite la forme sphérique évolue vers une forme cylindrique (28) dont la stabilité a pu être étudiée thermodynamiquement (29). Toutefois, comme nous l'avions fait remarquer précédemment, il est probable que cette transition n'affecte pas de manière notable les volumes molaires partiels des amphiphiles et l'on pourra considérer que le volume molaire apparent de l'ion dodécylsulfate (DS _) reste identique à son volume intrinsèque, c'est-à-dire invariant avec la teneur de la solution en électrolyte support dès que celle -ci est suffisamment importante. Il n'en sera pas de même, en revanche, pour le volume molaire apparent individuel du cation associé puisque celui -ci varie avec la teneur de la solution en électrolyte support (2). Il s'ensuit que contrairement aux détergents cationiques, il faille s'attendre à observer pour les anioniques une variation de leur volume molaire apparent avec la concentration du sel de fond. Pour des raisons de solubilité, nous n'avons pas pu étudier le comportement de NaDS dans les mélanges eau—KC1. La vérification des hypothèses précédentes a donc été tentée dans les mélanges eau—NaCl entre 0,25 et 0,75 molaire en chlorure de sodium où nous avons étudié à titre de comparaison les volumes molaires partiels de NaDS, NaBr, NaCl, C, 2 H 25 N(CH 3 )3Br. Les résultats expérimentaux sont regroupés dans le tableau 5. Comme on peut le remarquer sur la fig. 5, le volume molaire apparent du détergent cationique est indépendant de la concentration de la solution en NaCl, alors que l'on assiste à des variations tout à fait comparables pour NaDS, NaCl et NaBr, dues essentiellement au comportement particulier de l'ion sodium. Le volume molaire intrinsèque attribuable à l'ion dodécylsulfate est de l'ordre de 262 cm 3 mol " '. Cette valeur est tout à fait comparable avec celle calculée pour le volume intrinsèque de l'amphiphile cationique, ayant même chaîne aliphatique (CH 3 (CH 2) n N(CH 3) 3) qui est de l'ordre de 260 cm3 mol " '. Ces résultats confirment les rôles dissymétriques joués par les cations et les anions dans les solutions salines concentrées. La connaissance des valeurs des volumes intrinsèques des amphiphiles micellisés (anioniques ou cationiques) dans les mélanges eau—sel permet également d'estimer de manière pré - cise la contribution volumique de la phase micellaire au volume total de la solution .
Les volumes molaires apparents de quatre détergents cationiques CH3(CH2)nN(CH3)3Br pour n=9, 11, 13 et 15 ont été déterminés dans les mélanges eau-chlorure de potassium à 298 K, pour des concentrations en électrolyte support comprises entre 0,5 et 3,5 mol L−1. La très faible dépendance des volumes molaires apparents des tensioactifs, une fois micellisés, avec la concentration du sel de fond laisse supposer que les interactions entre les amphiphiles eux-mêmes et entre les amphiphiles et leur environnement ne sont pas fondamentalement modifiées par l'addition de sel. L'utilisation de résultats antérieurs obtenus pour ces mêmes milieux, concernant le comportement des sels d'ammonium symétriques permet d'accéder aux volumes intrinsèques des amphiphiles et, par conséquence, d'estimer le volume réel occupé par la phase micellaire dans la solution. Des mesures des volumes molaires apparents du bromure de dodécyltriméthylammonium et du dodécylsulfate de sodium dans les mélanges eau-NaCl permettent de confirmer les rôles dissymétriques joués par les anions et les cations en milieu salin concentré
chimie_86-0055977_tei_70.v85-410.tei.xml
termith-311-chimie
Beaucoup d'oxydes de métaux de transition (W0 3, V 2 0 5) peuvent être obtenus à l'état colloïdal ou de gel; ce sont alors des matériaux aux propriétés intéressantes, qui se prêtent à de nombreuses applications : réalisation de cellules électrochromiques ou de dispositif d'affichage, emploi comme semi-conducteur (1). Les gels tungstiques ou vanadiques sont facilement obtenus suivant une méthode développée au laboratoire (2) : préparation d'un acide à partir d'un sel passé sur une résine échangeuse de protons, suivie de la polymérisation de cet acide par élimination de H 2 0 entre deux groupements M—OH voisins. Les gels molybdiques, par contre, ne sont pas obtenus par cette voie parce que la polymérisation de l'acide molybdique formé est limitée. Il est donc nécessaire d'utiliser la préparation de Graham-Murgier (3) qui part de solutions très concentrées. Cependant, un autre moyen d'accéder aux gels molybdiques dans des conditions moins restrictives de concentration pourrait consister à incorporer à l'acide molybdique peu condensé un autre acide pouvant évoluer spontanément vers une forme hautement condensée, par exemple, l'acide tungstique, afin d'induire la formation d'un haut polymère mixte. En effet, des composés mixtes à base de tungstène et de molybdène sont aisément obtenus aussi bien dans le domaine des faibles condensations (hexa-et dodéca-métallates (4)) que dans celui des condensations élevées caractéristiques des gels (5). Le problème est donc de savoir si la texture hautement condensée de l'acide tungstique est susceptible de se maintenir dans le polymère mixte, même lorsqu'il y est présent en faible proportion. Dans ce travail, le tungstène a été introduit dans la solution aqueuse molybdique sous forme d'hétéropolyacide possédant la structure de Keggin (6) de formule générale H (8 _ ") [X W 12 O 40] où n est le degré d'oxydation de l'hétéro-élément X (X = Si, H 2). En effet, nous avons observé qu'en solution aqueuse pure, l'un de ces composés faiblement condensés, l'acide métatungstique (X = H 2), avait la propriété de se transformer très lentement en acide tungstique très condensé. 3 C'est donc sous cette forme que le tungstène a principalement été introduit dans la solution aqueuse molybdique, avec l'avantage de ne pas apporter d'autre élément étranger que le tungstène. D'autres hétéropolyacides du type précédent (X = Si) ou mixtes lui ont été ensuite comparés pour tenter de préciser le mécanisme de formation des acides mixtes molybdotungstiques polymérisés. Il est préparé par échange d'ions sur une résine cationique de type Dowex 50 W X-2, 100-200 mesh, sous forme H +, à partir d'une solution de molybdate de sodium Na 2 Mo0 4 - 2H 2 0 à 20°C. Ils sont préparés suivant les méthodes classiques (8), par extraction ou par échange d'ions. Les sels sont d&apos;abord préparés (4, 9), puis les acides, par échange d'ions. Le système mixte à étudier est préparé soit par mélange des réactifs 1.1 et 1.2, soit par dissolution de 1.3. Il est défini par sa fraction molaire /= [Mo]/[Mo + W ]. Les réactions sont lentes; elles sont suivies pour la plupart à température constante de 20°C. Réalisée dans un appareil Beckman Spinco, modèle E équipé d'un d'un rotor à godets SW65E, à 36 000 r/min pendant 100 min, elle permet la séparation des hauts polymères qui sont rassemblés au fond du tube sous forme d'un gel. En surface, on dispose d'une solution pure de composés légers. Par passage sur une résine Amberlite CG-400, 100-200 mesh, sous forme Cl -, les ions polymolybdiques sont fixés. En utilisant 2 méquiv. de résine pour 0,10 méquiv. de molybdène, l'échange est complet quelle que soit la concentration. Réalisée sous azote, à pH constant égal à 8, par addition de soude pendant 1 min à l'aide d'un combititreur Methrohm E 415, elle permet la dégradation alcaline en ions Mo0 4 2 ~ et W0 4 2-des formes labiles du mélange exclusivement. Réalisée par un excès de soude à l'ébullition, elle permet la décomposition totale du système à l'état d'ions Mo042 " et W04 2 -. Les hétéropolyanions substitués [XMoWnO«]'8 - " ' - sont dosés par Polarographie en milieu acide chlorhydrique 1,0 x 10 " ' M (X = H2) et par spectrophotométrie d'absorption à 500 nm, après réduction, à pH 2, du molybdène par le chlorure stanneux en solution dans le glycérol (10) (X = Si). Les autres dosages sont effectués après hydrolyse des mélanges : Hydrolyse rapide : la somme [Mo0 4 2 ~ + W0 4 2 -] labile est titrée par dosage protométrique avec l'acide chlorhydrique en présence de mannitol (11), et Mo0 4 2 " est déterminé, à 475 nm, par spectrophotométrie d'absorption du complexe coloré formé avec le pyrocatéchol en tampon phosphate (pH 7,50) (12); le métatungstate est dosé par Polarographie en tampon phosphate de pH 7,50 (13). Hydrolyse totale : Mo0 4 2 " et W0 4 2 " sont dosés simultanément, à 475 et 350 nm, par spectrophotométrie d'absorption du complexe formé avec le pyrocatéchol en tampon phosphate de pH 7,50, ou par Polarographie en milieu acide chlorhydrique 8 M (14), La condensation est mesurée par ultracentrifugation analytique à l'aide d'un appareil Beckman équipé de l'optique Schlieren. 3.1 Les coefficients de sédimentation apparents, (i p) a pp, sont déterminés en cellule de 12 mm d'épaisseur, à double secteur, à différentes vitesses de rotation (14 000 < v < 26 000 r/min), dans des solutions suffisamment diluées pour éliminer les effets dus aux interactions moléculaires (1,0 x 10 " 2 M < Mo < 5,0 x 10~ 2 M). Le solvant ajouté au moment de la mesure est constitué de chlorure de lithium à la concentration 5,0 x 10~ 2 M. La distribution des coefficients (i)app est obtenue au moyen de la fonction de distribution normalisée g(i) = l/C(dC/di) où Cest la concentration du soluté(15). 3.2 Les coefficients de diffusion, D ", sont obtenus par centrifugation à basse vitesse, v = 10 000 r/min, en cellule à frontière synthétique à capillaire, selon la méthode de Fujita - Van Holde (16). 3.3 La masse molaire des composés lourds est calculée à l'aide de la relation de Svedberg (17); celle des composés légers est obtenue par construction du diagramme d'Archibald après centrifugation en transition vers l'équilibre de sédimentation (18), à différentes vitesses (15 000 < v < 42 000 r/min), avec cellule à double secteur, à remplissage homogène. Il est déterminé lorsque les concentrations des constituants ne varient plus avec l' âge, c'est-à-dire au bout de 30 jours à 20°C. Le système est toujours homogène. Le coefficient de sédimentation apparent est supérieur à 50 svedbergs pour tous les mélanges dont la fraction molaire / = [Mo]/[Mo + W] est comprise entre 0,08 et 0,94. Il se forme donc des hauts polymères dans un domaine étendu de compositions. Le système est assez polydispersé (fig. 1) mais ne renferme qu'une famille de composés lourds de coefficient de sédimentation moyen de l'ordre de 100 svedbergs quelle que soit la valeur de / entre 0 et 1, la concentration en molybdène FIG. 1. Distribution du coefficient de sédimentation apparent (i p) a pp mesuré dans les mélanges de fraction molaire /= 0,50 (a); 0,66 (b); 0,75 (c) et 0,80 (d). dans le haut polymère étant voisine de 1,0 x 10~ 2 M. La distribution des coefficients de sédimentation tend à se resserrer lorsque / augmente. Ils sont recueillis après ultracentrifugation préparative, sous forme d'un gel amorphe aux rayons X. La proportion de molybdène et de tungstène polymérisé peut être importante— 80 % de ce qui a été introduit. Elle est atteinte dans un domaine de compositions qui est plus large pour le molybdène, 0,14< /<0,94 (fig. 2, courbe a), que pour le tungstène, 0,80 </< 0,94 (fig. 2, courbe b), en raison de la persistance de la forme métatungstique dans les mélanges de/< 0,80 (fig. 2, courbe c). À partir des résultats de l'analyse élémentaire (tableau 1), on peut exprimer la composition des acides mixtes dans le haut polymère (H.P.), en fraction molaire/ H P. = [Mo] H .p./[Mo + W] H .p.. Elle dépend de la composition initiale du mélange (fig. 3) : d'abord constante et égale à 0,50 pour les faibles valeurs de/ (0</<0,30), elle croît ensuite jusqu'en /= 0,90 de façon pratiquement linéaire. Au-delà de /= 0,95, la précision des analyses n'est plus suffisante pour préciser le mode de variation de / H P, en particulier l'existence éventuelle d'une limite vers /H.P. = 0,95. La masse molaire des composés lourds calculée à partir des mesures de coefficients de sédimentation et de diffusion du gel remis en solution est de l'ordre de 1,0 x 10 5 pour une concentration moyenne de (1,0-4,0) x 10~ 2 M en molybdène (tableau 2). Durant les trois premiers jours d'évolution, la masse molaire apparente des mélanges reste égale à la masse moyenne des constituants (M — 3000). Puis un composé lourd sédimente en ultracentrifugation. Au fur et à mesure que progresse la formation de ce composé lourd, on observe que son coefficient de sédimentation, mesuré dans le milieu même de formation, augmente (tableau 3). Ceci pourrait signifier que le composé lourd tend à se polymériser davantage, mais il est également possible que la variation du coefficient de sédimentation soit due simplement aux changements de concentration du milieu réactionnel. Pour le vérifier, le composé lourd a été isolé par ultracentrifugation, puis redissous dans du LiCl 5,0 x 10 " 2 M : son coefficient de sédimentation prend alors une valeur approximativement constante (40-50 svedbergs), quels que soient son âge et le rapport / (tableau 4). Il ne semble donc se former qu'une seule famille de hauts polymères. Les mélanges en cours d'évolution sont constitués de formes labile et inerte. La forme inerte ne renferme que du métatungstate; la forme labile contient des acides mixtes, lourds et légers et éventuellement l'acide molybdique n'ayant pas réagi. Les composés légers peuvent être isolés durant les premiers jours d'évolution avant que le haut polymère ne se forme : les ions polymolybdiques sont d'abord éliminés par échange d'ions, puis le composé mixte est séparé du métatungstate par précipitation de son sel de césium à 25°C. Le rapport [Mo/W] léger des composés légers ainsi isolés (tableau 5) est égal à celui déterminé dans les composés lourds à l'équilibre (tableau 1), la charge, par contre, est plus élevée. D'après la masse molaire mesurée (M ==3400), le degré de condensation moyen des acides mixtes formés initialement est égal à 18. La polymérisation a donc lieu par simple diminution de la charge, sans modification de la composition en molybdène et tungstène. Ceci est vérifié par les dosages des constituants dans les composés lourds et légers, en cours d'évolution des mélanges. Ils indiquent en effet que le rapport [Mo/W] y est le même et que sa valeur demeure constante durant l'évolution (tableau 6). De plus, ils indiquent que l'acide molybdique finit par réagir totalement (fig. 4, courbe a), contrairement à l'acide métatungstique (fig. 2). La vitesse de réaction peut être mise sous la forme d'une loi du premier ordre par rapport à la concentration en acide molybdique, v = ^ [Mo ], avec k\ — 0,115 d - 1 à 20°C. 3.1 Acide silico-12 tungstique (X = Si). En fin d'évolution, après 20 jours à 40°C, un composé lourd sédimente en ultracentrifugation et tout l'acide molybdique a réagi. En cours d'évolution, les dosages par la soude, à pH 8, des acides débarassés des ions polymolybdiques par échange d'ions, indiquent que le molybdène se répartit sous une forme labile constituée d'un acide mixte molybdotungstique, de composition constante, en grande partie polymérisé, et sous une forme inerte, constituée de l'acide substitué H 4 [SiMoW n 0 4 o ]. Cette dernière réaction n'était pas observée avec l'acide métatungstique. 3.2 Acides substitués H^-n)[XMoWuO40 ]. Aucune évolution n'est observée par polarographie et ultracentrifugation dans la solution d'acide H 4 [SiMoW n 0 4 o ], même en présence d'acide molybdique, au contraire de la solution d'acide H 6 [H 2 MoWnO 40 ]. Dans celle -ci, le pourcentage d'acide s'annule au bout de 30 jours à 20°C (fig. 4, courbe b) : sa vitesse de réaction peut se mettre sous la forme v = k 3 [acide substitué ], avec k 3 = 0,123 d - 1 à 20°C; elle ne dépend pas de la concentration en acide molybdique éventuellement présent. Au terme de l'évolution, le coefficient de sédimentation vaut 57 svedbergs et le molybdène est totalement dosé sous une forme labile à pH 8, tandis que le tungstène se répartit sous formes labile (en quantité égale au molybdène) et inerte (seul, à l'état de métatungstate). Les produits de la réaction sont donc l'acide métatungstique et un acide mixte, de rapport Mo/W = 1, qui se polymérise. 1. Les résultats montrent qu'il est possible d'obtenir des acides mixtes hautement polymérisés en solution, par interaction des acides molybdique et métatungstique, dans un grand intervalle de fraction molaire /= [Mo]/[Mo + W] des mélanges. En particulier si 0,80 </< 0,95, la réaction est totale; ce sont les conditions de préparation de sols riches en molybdène. La fraction molaire du haut polymère/ H P est alors égale à celle du mélange. Toutefois au-delà de /= 0,90, sa détermination précise devient vite difficile, en raison justement du pourcentage très élevé de Mo par rapport à celui de W. La fraction molaire/ H .p. devrait tendre vers une limite correspondant à celle de l'espèce légère formée. Expérimentalement, elle se situe au-dessus de / H P. = 0,94, ce qui correspond à l'introduction d'un tungstène dans une molécule de 18 ou 24 centres métalliques (/H.P. = 0,944 ou 0,958). Les sols sont constitués de deux familles de composés de même rapport Mo/W, mais de masses très différentes. La répartition entre les deux s'établit en général ainsi : 80 % d'espèces lourdes et 20 % de légères. Du point de vue polymérisation, le système étudié ici se comporte comme les autres systèmes mixtes, à base d'acide antimonique en particulier, étudiés au laboratoire. Tous ces systèmes sont constitués de plusieurs familles d'espèces de masse molaire différente en équilibre. Si les deux acides en présence peuvent évoluer spontanément vers une forme hautement condensée, les familles d'espèces en présence diffèrent à la fois par leur masse molaire et leur composition. Ceci a été vérifié sur le système acide antimonique - acide tungstique (19). Par contre, si l'un des éléments en présence n'évolue pas spontanément vers une forme hautement condensée, les familles d'espèces en présence ne diffèrent que par leur masse molaire. Cette conclusion valable dans le cas des composés de l'acide antimonique et des acides phosphorique, arsénique et arsénieux (20) est aussi vérifiée dans le cas des composés molybdovanadiques (7) et dans le cas présent des composés molybdotungstiques. 2. La fraction molaire / H P ne varie pas de façon continue comme la fraction molaire / du mélange, puisqu'elle est constante dans l'intervalle 0 </< 0,30. Cette particularité est le signe d'un comportement différent des mélanges selon la valeur de leur fraction molaire. C'est probablement au niveau de la formation de l'espèce légère que se situe cette différence, puisque la polymérisation ne modifie pas la fraction molaire de l'espèce mixte. À partir des résultats obtenus avec les deux hétéropolyacides tungstiques (X = H 2 et Si) d'une part, et avec les acides substitués correspondants d'autre part, nous proposons le schéma suivant pour rendre compte de la formation des acides mixtes. (i L'action de l'acide molybdique sur l'hétéropolyacide est double : [1] formation d'espèce légère mixte [2] formation d'espèce substituée [XMoWnO^]8 - " (ii) Suivant la nature de X, une troisième réaction peut avoir lieu : [3] formation d'espèce légère mixte à partir de l'espèce substituée. L'influence de la valeur de la fraction molaire / du mélange intervient au niveau de la compétition entre les réactions 1 et 2 : aux faibles valeurs de /, la réaction 1 est négligeable devant l'autre, dans le cas des mélanges avec l'acide métatungstique. Les réactions 1 et 2 sont bien mises en évidence dans le cas de l'acide silico-12 tungstique; elles sont simultanées, puisque la polymérisation ne se fait pas à partir de l'acide substitué, même en présence d'acide molybdique. Dans le cas de l'acide métatungstique, nous pouvons penser que la réaction se déroule suivant le même processus, bien qu'aucun résultat ne montre la présence de l'espèce substituée correspondante (en particulier, la présence de molybdène sous une forme inerte à pH 8). Pour que la réaction 2 ne soit pas observée expérimentalement, il suffit que sa vitesse soit égale à celle de la réaction 3 qui a lieu obligatoirement dans ce cas. C'est ce qui est vérifié expérimentalement : les deux constantes de vitesse kx et k 3 sont voisines et ki est bien la constante de vitesse de la réaction 2 si la réaction 1 est négligeable en /= 0,17. Dans ces conditions (0 </< 0,30), l'acide mixte ne se forme que suivant [3] et sa composition est constante. Aux plus fortes valeurs de /, la réaction 1 n'est plus négligeble, et la composition varie .
En solution aqueuse, l'acide métatungstique se décompose très lentement en oxyde tunstique, haut polymère insoluble, la polymérisation de l'acide molybdique étant limitée. Durant la polymérisation la teneur en Mo et W des acides mixtes ne varie pas
chimie_86-0221507_tei_51.v86-038.tei.xml
termith-312-chimie
Dans un travail précédent (1), il a été montré que le peroxyde une décomposition induite au cours de sa thermolyse dans des de ieri-butyle et de pentène-4 yle, PI, se comporte comme ses solvants bons donneurs d'hydrogène. homologues inférieurs, le peroxyde d'allyle et de reri-butyle La phase de propagation de cette décomposition induite en et le peroxyde de ierr-butyle et de butène-3 yle, et subit chaîne est la suivante : Le rendement obtenu en (tétrahydrofuryl-2 méthyl)-2 tétrahydrofuranne lors de cette étude préliminaire (1), où le solvant est le THF, est de 50 %. Ceci laisse présager que ces réactions peuvent constituer une voie d'accès facile à des tétrahydrofurannes fonctionnels substitués en 2. Notre travail, dont le but est d'explorer les possibilités synthétiques de la décomposition induite de peroxydes 8-insaturés, se limitera uniquement à la recherche et à la séparation des éthers cycliques. Une définition préalable des modalités permettant d'atteindre les meilleurs rendements est indispensable. L'expérience acquise conduit à opérer dans des conditions d'additions radicalaires afin d'éviter la disparition du peroxyde par thermolyse. L'amorceur et les paramètres qui ont donné les meilleurs résultats lors de la décomposition de peroxydes allyliques (2) et homoallyliques (3) sont les suivants : chauffage en présence de peracétate de ieri-butyle (PA) à 110°C durant 12 h. Les premiers essais ont mis en évidence l'influence primordiale des proportions relatives Pl/PA sur les rendements de la réaction. En effet, au-dessous d'une certaine valeur de ce rapport, la décomposition de PI est incomplète. Ce facteur doit être déterminé en premier lieu. PA Le solvant utilisé pour cette étude est le cyclohexane. Le rapport molaire cyclohexane/Pl est arbitrairement fixé à 100/1. Les rendements en (cyclohexylméthyl)-2 tétrahydrofuranne sont rassemblés dans le tableau 1. L'examen de ce tableau impose d'utiliser un rapport molaire Pl/PA égal à 2 si l'on veut que la décomposition de PI soit complète. Cette proportion d'amorceur est beaucoup plus importante que celle déterminée dans le cas d'autres dérivés peroxydiques : en effet, avec le peroxyde d'allyle et de tert-butyle (2), le peroxyde de butène-3 yle et de ferr-butyle (3), un rapport molaire peroxyde/PA de 10 est suffisant. La nécessité d'utiliser ici davantage d'amorceur traduit l'intervention d'une réaction en chaîne très courte. Ce résultat est surprenant si l'on considère que les décompositions induites des trois modèles cités s'effectuent avec le même mécanisme en trois étapes. Précisons que si, dans l'étude des peroxydes de butényle (3), le rapport peroxyde/PA utilisé était de l/0,5etnonde 1/0,1, ce choix avait été établi non pas à partir du peroxyde de butène-3 yle et de feri-butyle mais à partir du peroxyde de méthyl-4 pentène-3 yle et de ieri-butyle, afin de pouvoir effectuer des comparaisons dans toute cette série : en effet, le peroxyde disubstitué sur le carbone sp 2 terminal nécessitait, lui et lui seul, un tel taux d'amorceur. La détermination du « meilleur » rapport molaire ZH/P1 a été réalisée à partir des essais décrits dans le tableau 2. On observe que, si l'on excepte le cas du cyclohexane, le rendement maximum en tétrahydrofuranne substitué correspond à un rapport ZH/P1 = 100. Ces proportions seront retenues et utilisées pour tous les solvants et tous les peroxydes étudiés dans cette série. Les additions radicalaires de solvants ZH aux peroxydes ô-éthyléniques seront donc réalisées en présence de peracétate de rm-butyle dans les conditions suivantes : rapport molaire ZH/peroxyde/PA = 100/1/0,5; 110°C; 12 h. La réaction a été effectuée dans divers solvants, fonctionnels ou non : dichlorométhane, cyclohexane, propionate de méthyle, acétonitrile, dioxanne-1,4, acide propionique, anhydride propionique, acétone, dans les conditions déterminées dans le paragraphe précédent. Les rendements en produits isolés relativement au peroxyde mis en jeu dans la réaction sont rassemblés dans le tableau 3. Dans la majorité des cas, un seul tétrahydrofuranne substitué est identifié; seul le propionate de méthyle fait exception. Les rendements en hétérocycles oxygénés, lx, compris entre 40 et 70 % sont relativement bons, bien que légèrement inférieurs à ceux obtenus à partir du peroxyde d'allyle et de ieri-butyle (2); ils confèrent donc à la méthode un intérêt synthétique. Compte-tenu de la potentialité synthétique de l'addition radicalaire de dérivés à hydrogène mobile ZH au peroxyde PI, nous avons préparé les peroxydes P2, P3, P4, dans le but de déterminer l'influence des substituants présents sur ou au voisinage des deux fonctions réactives sur le cours de la réaction. Nous allons essayer d'interpréter les résultats enregistrés avec chacun des peroxydes sur la base du mécanisme en deux étapes établi dans le cas du peroxyde PI (1). Le tableau 4 regroupe les résultats obtenus à partir du peroxyde P2. La comparaison des résultats des peroxydes PI et P2 montre que l'on peut classer les solvants ZH en deux catégories, une augmentation du rendement étant observée avec la première (dichlorométhane, acétonitrile, propionate de méthyle, acide propionique, acétone), alors que pour la seconde, il n'y a que peu de variation (cyclohexane) ou diminution (dioxanne). Si l'on se réfère au caractère polaire des radicaux issus de ces deux catégories de solvants — électrophile pour la première, nucléophile pour la seconde — on est tenté d'attribuer cette différence de résultats à l'étape d'addition; en effet, la nature du radical additionné ne devrait avoir aucune influence sur l'étape de substitution homolytique intramoléculaire. Le tableau 5 regroupe les résultats obtenus à partir du peroxyde P3. De la comparaison des résultats obtenus avec les peroxydes PI et P3, il ressort que la substitution des deux hydrogènes en a de la liaison peroxydique par deux groupements méthyle est sans effet majeur sur la formation de tétrahydrofuranne et n'entraîne une diminution du rendement nette que dans le seul cas du dioxanne. Le tableau 6 regroupe les résultats obtenus à partir de ce peroxyde. Le peroxyde P4 conduit à des tétrahydropyrannes alors que les peroxydes PI, P2, P3 sont des précurseurs de tétrahydrofurannes. Ce résultat est conforme aux règles gouvernant la réactivité et la régiosélectivité de l'étape d'addition, à savoir : l'orientation de l'addition d'un radical à une double liaison est contrôlée par la substitution de cette dernière. Lorsque le substrat ZH est le cyclohexane, l'hétérocycle attendu ne semble pas se former; une partie du peroxyde P4 est récupérée après réaction, indiquant que l'addition du radical cyclohexyle à la double liaison ne se fait pas, vraisemblablement pour des raisons stériques. Les rendements en hétérocycles formés à partir du peroxyde P4 sont plus faibles que dans le cas du peroxyde Pl. Aucune comparaison directe ne peut être effectuée, puisque les chaînes séparant le centre radicalaire de la liaison peroxydique n'ont pas la même longueur. L'addition radicalaire de composés donneurs d'hydrogène au peroxyde de ierr-butyle et de pentène-4 yle conduit avec des rendements intéressants à des tétrahydrofurannes substitués en 2 par un groupement fonctionnel ou non. La ramification de la chaîne du peroxyde ne semble pas être un obstacle au succès de la réaction. Notre méthode permet de synthétiser aisément et avec de bons rendements : (;) certains tétrahydrofurannes substitués en 2 à partir du peroxyde de im-butyle et de pentène-4 yle; (¿0 certains tétrahydrofurannes-2,2 disubstitués à partir de peroxydes d'alkyl-4 pentène-4 yle et de íerí-butyle; (iii) certains tétrahydrofurannes-2,2,5 trisubstitués à partir de peroxydes d'alkyl-2 hexène-5 yle-2 et de íerí-butyle; (zv) certains tétrahydropyrannes-2,2,3 trisubstitués à partir de peroxydes d'alkyl-5 alcène-4 yle et de rm-butyle. Techniques utilisées Les analyses en cpg ont été effectuées sur un chromatographe Intersmat ICG 112 F (ionisation de flamme; gaz vecteur : azote), équipé de colonnes d'acier inox (longueur = 1,50 m ou 2 m; diamètre intérieur = 2 mm). Deux phases ont été utilisées : FFAP (10 %) et OV 17 (10 %). Les identifications ont été réalisées par comparaison des temps de rétention avec ceux des échantillons préparés en référence. Les dosages ont été effectués par la méthode de l'étalon interne. En l'absence de produits de référence, après vérification de la pureté des produits par cpg, les techniques spectroscopiques ont permis de confirmer la structure des composés. Les spectres de rmn ' H ont été enregistrés sur des appareils Perkin Elmer R 12 B opérant à 60 MHz et Bruker WP 60 CW fonctionnant à 60 MHz; le solvant utilisé est CC1 4 contenant 10 % de TMS (étalon interne). Les spectres de rmn l3 C ont été effectués sur un appareil Bruker AC 200 fonctionnant à 50,3 MHz; le solvant utilisé est CDC1 3 contenant 5 % de TMS (étalon interne). Les séparations en chromatographie liquide à haute performance (hplc) ont été réalisées sur un appareil Prep LC/System 500 Waters, équipé d'une cartouche Prep Pak-500/Silica. Les spectres de masse ont été enregistrés sur des appareils Micromass 16 F et 70-70, en ionisation électronique (70 eV) ou ionisation chimique, couplés avec un chromatographe en phase gazeuse de type Pye-Unicam, série 204. Matières premières Tous les solvants utilisés sont des produits commerciaux, distillés avant emploi. Le peracétate de ier/-butyle est préparé par action de l'hydroperoxyde de tert-butyle sur le chlorure d'acétyle en présence de pyridine (4). Peroxyde de pentène-4 yle et de ten-buty le, PI : il a été préparé selon laréf. 1, par action de/BuOOH surlebromo-1 pentène-4 (Rdt 39 %), et possède des constantes physiques en accord avec la littérature. Peroxyde de Xeri-butyle et de méthyl-4 pentène-4 yle, P2 : il a été préparé selon la réf. 5, par action de /BuOOH sur le mésylate du méthyl-4 pentène-4 ol-l (6), Eb 25 75°C (litt. (6) Ebi 9 67,5-69°C); rmn ' H ô(ppm) : 4,7 (s, 2H, CH 2 =), 4-3,4 (m, 3H, CH 2 OH), 2,3-1,5 (m, 7H, autres protons). P2 est purifié par chromatographie sur gel de silice; Rdt = 39 %; n 2 D ° = 1,4225; rmn ' H S(ppm) : 4,8 (s, 2H, C«@BULLET,=), 3,9 (t, J = 8 Hz, 2H, CH 2 0), 2,2-1,3 (m, 7H, autres H), 1,2 (s, 9H, (Cff 3) 3 C). Peroxyde de tert-butyle et de méthyl-2 hexène-5 yle-2, P3 : il a été préparé selon la réf. 7, par action de /BuOOH sur le bromo-2 méthyl-2 hexène-5 (8), Eb 90 82°C (litt. (8) Eb 95 87-89°C); rmn ' H 5(ppm) : 6-4,8 (m, 3H, CH 2 =CH), 2,8-1,8 (m, 4H, autres CH 2), 1,2 (s, 6H, (CH 3) 2 C). P3 est isolé par distillation; Rdt = 28 %; Eb, 43°C; nf = 1,4198; rmn ' HS(ppm) : 6-4,9 (m, 3H, CHn=CH), 2,3-1,3 (m, 4H, autres CH 2), 1,2 et 1,15 (2s, 15H, (Ctf 3) 3 C et (CH 3) 2 C). Peroxyde de tert-butyle et de méthyl-5 hexène-4 yle, P4 : il a été obtenu selon la réf. 5, par action de t BuOOH sur le mésylate du méthyl-5 hexène-4 ol-l (9), Eb 30 86°C (litt. (9) Eb, 5 79°C); rmn ' H ô(ppm) : 5,1 (t, J = 8 Hz, 1H, =CH), 3,6-3,2 (m, 3H, CH 2 OH), 2,2-1,8 (m, 4H, autres CH 2), 1,65 et 1,6 (2s, 6H, CH 3) 2 C). P4 est purifié par chromatographie sur gel de silice; Rdt = 40 %; ni 0 = 1,4329; rmn ' H S(ppm) : 5,3-5 (m, 1H, =H), 3,9 (t, J = 8 Hz, 2H, CH-,O), 2,5-1,3 (m, 10H, (Ctf 3) 2 C et autres CH 2), 1,2 (s, 9H, (CH 3) 3 C). Additions radicalaires Les études analytiques ont été réalisées en introduisant 2 cm 3 de solution dans des ampoules en Pyrex scellées, placées 12 h dans un bain thermostaté à 110°C (rapport molaire 100/1). Les études préparatives ont été effectuées sur des volumes de 90 ou 180 cm 3 dans des autoclaves de 125 ou 250 cm 3 placés pendant 12 h dans une étuve préalablement portée à 110°C. Les rapports molaires substrat/composé insaturé/amorceur sont de 100/1/0,5. Après élimination du solvant en excès, les produits de réaction sont isolés par les méthodes habituelles (distillation, chromatographie sur gel de silice ou hplc). Produits de reactions 2 1. Additions radicalaires à PI (Dichloro-2,2 éthyl)-2 tétrahydrofuranne, la : Eb 0, 5 45°C; nl° = 1,4842; rmn ' H ô(ppm) : 6 (t, J = 8 Hz, 1H, CHCU), 4,25-3,5 (m, 3H, CHj—O—CW), 2,5-1,5 (m, 6H, autres protons); principaux pics du spectre de masse, m/z (abondance) : 27 (32), 39(24), 41 (41), 42 (21), 43 (35), 71 (100), 85 (19). Cyclohexylméthyl-2 tétrahydrofuranne, 1 b : Eb 0. 3 5 7 7°C; « 5 = 1,4721 (litt. (10) Ebo.i 45°C; nf = 1,471); rmn ' H S(ppm) : 4,25-3,5 (m, 3H, CH 2 —O—CH), 2,25-1 (m, 17H, autres protons); principaux pics du spectre de masse, m/z (abondance) : 41 (35), 43 (30), 55 (21), 71 (100). Méthyl-2 (tétrahydrofuryl-2)-3 propionate de méthyle, le : Eb 0 ,45 55°C; « 2 d ° = 1,4422; rmn ' H S(ppm) : 4,1-3,6 (m, 3H, CH 2 —O— CH), 3,5 (s, 3H, OC//3), 2,75-1,3 (m, 7H, autres CH 2 et CH), 1,1 (d, J = 8 Hz, 3H, CH 3 —CH); principaux pics du spectre de masse, m/z (abondance) : 45 (36), 71 (100), 85 (32). (Tétrahydrofuryl-2)-3 propanenitrile, 1 d : Eb 4 74°C; n 2 0 ° = 1,4499 (litt. (11) Eb 8 92-94°C; n 2 D ° = 1,4468); rmn ' H ô(ppm) : 4-3,5 (m, 3H, CH 2 —O—CH), 2,5-1,3 (m, 8H, autres protons); principaux pics du spectre de masse, m/z (abondance) : 39 (28), 41 (53), 42 (24), 43 (74), 55 (22), 71 (100). (Tétrahydrofuryl-2) méthyl dioxanne-i ,4, le : Eb 0, 5 74°C; nl° = I,4661; rmn ' H ô(ppm) : 4,3-4 (m, 10H, CH 2 —O et CH—O), 2-1,2 (m, 6H, autres protons); principaux pics du spectre de masse, m/z (abondance) : 31 (17), 41 (29), 43 (75), 71 (100), 87 (16). Acide méthyl-2 (tétrahydrofuryl-2)-3 propionique, 1 f : Eb 0 35 92°C; n 2 ° = 1,4590 (litt. (12) Eb, 3 154°C; n 2 ° = 1,4561); rmn ' H S(ppm) : II,2 (s, 1H, COOH), 4-3,5 (m, 3H, CH 2 —O—CH), 2,8-2,2 (m, 1H, CH—COO), 2,1-1,3 (m, 6H, autresC// 2), 1,2 (d, 7= 8 Hz, 3H, C/i 3); principaux pics du spectre de masse, m/z (abondance) : 41 (36), 42 (19), 43 (55), 71 (100), 85 (21). (Tétrahydrofuryl-2 )-4 butanone, 1 g : Eb 0 8 61°C; nf = 1,4464 (litt. (13) Eb 2 81°C; /¡¡, 9 = 1,4459); rmn ' H 5(ppm) : 4-3,5 (m, 3H, CH 2 —0—CH), 2,6 (t, J = 8 Hz, 2H, CH 2 —CO), 2 (s, 3H, CH 3), 2-1,3 (m, 6H, autres protons); principaux pics du spectre de masse, m/z (abondance) : 41 (28), 43 (100), 71 (69), 84 (40). 2. Additions radicalaires à P2 (Dichloro-2,2 éthyl)-2 méthyl-2 tétrahydrofuranne, 2a : Eb 0 3 76°C; n 2 ° = 1,4767; rmn ' H S(ppm) : 5,9 (t, J = 8 Hz, 1H, CWC1 2), 3,9-3,6 (m, 2H, CH 2 —O), 2,5-1,3 (m, 6H, autres CH 2), 1,2 (s, 3H, CH 3); principaux pics du spectre de masse, m/z (abondance) : 42 (29), 43 (100), 85 (70). Cyclohexylméthyl-2 méthyl-2 tétrahydrofuranne, 2b : Eb 0 s 86°C; nf = 1,4696; rmn ' H &(ppm) : 3,8-3,5 (m, 2H, CH 2 —O), 2-1,2 (m, 17H, autres CH 2 et CH), 1,1 (s, 3H, CH 3); principaux pics du spectre de masse, m/z (abondance) : 43 (34), 85 (100). Méthyl-2 (méthyl-2 tétrahydrofuryl-2)-3 propionate de méthyle, 2c : Eb 05 74°C; H 20 = 1,4402; rmn ' H S(ppm) : 3,9-3,6 (m, 2H, CH-,—O), 3,5 (s, 3H, OC//3), 2,6-1,25 (m, 7H, autres CH -, et CH), 1,2 (d, J = 8 Hz, 3H, CH 3 —CH), 1,1 (s, 3H, CH 3 —C—O); principaux pics du spectre de masse, m/z (abondance) : 43 (48), 85 (100). (Méthyl-2 tétrahydrofuryl-2)-3propanenitrile, 2d : Eb 3 80°C; nl° = 1,4507; rmn ' H 5(ppm) : 3,9-3,6 (m, 2H, CH 2 —O), 2,5-1,5 (m, 8H, autres CH -,), 1,2 (s, 3H, CH 3); principaux pics du spectre de masse, m/z (abondance) : 41 (29), 42 (22)43 (100), 82 (46), 85 (55), 124 (17). (Méthyl-2 tétrahydrofuryl-2) méthyl dioxanne-1,4, 2e : Eb 0 ,6 56°C; n 2 D ° = 1,4603; rmn ' H &(ppm) : 4-3,4 (m, 9H, CH 2 —O et CH—O), 2,1-1,2 (m, 6H, autres CH 2), 1,1 (s, 3H, CH 3); principaux pics du spectre de masse, m/z (abondance) : 32 (24), 43 (83), 85 (100), 87 (17). Acide méthyl-2 (méthyl-2 tétrahydrofuryl-2)-3 propionique, 2 f : Eb 0 95°C; nf = 1,4801; rmn ' H ô(ppm) : 11,2 (s, 1H, COOtf), 4-3,5 (m, 2H, CH-,—O), 2,6-1,3 (m, 7H, autres CH -, et CH), 1,25 (d, J = 8 Hz, 3H, ¿«3—CH), 1,1 (s, 3H, CH 3 —C—O); principaux pics du spectre de masse, m/z (abondance) : 28 (20), 43 (41), 85 (100). (Méthyl-2 tétrahydrofuryl-2)-4 butanone, 2g : Eb 04 76°C; n 2 ° = 1,4547 (litt. (14) Eb 0 5 80-81°C); rmn ' H &(ppm) : 3,8-3,5 (m, 2H, CH 2 —O), 2,5-1,25 (m, 8H, autres CH 2), 2 (s, 3H, CH 3 —C), 1,1 (s, 3H, CH 3 —C—O); principaux pics du spectre de masse, m/z (abondance) : 43 (100), 85 (64). 3. Additions radicalaires à P3 (Dichloro-2,2 éthyl)-2 diméthyl-5,5 tétrahydrofuranne, 3a : Ebio 98°C; n 2 ° = 1,4592; rmn ' H S(ppm) : 5,9 (t, J = 8 Hz, 1H, CtfCl,), 4,25-4 (m, 1H, CH—O), 2,5-1,5 (m, 6H, CH 2), 1,2 (s, 6H, CH 3); principaux pics du spectre de masse, m/z (abondance) : 43 (100), 55 (28), 59 (39), 70 (33), 81 (39), 99 (51), 181 (68), 183 (42). Cyclohexylméthyl-2 diméthyl-5,5 tétrahydrofuranne, 3b : Eb 0 3 63°C; n 2 ° = 1,4597; rmn ' H ô(ppm) : 3,8-3,5 (m, 1H, CH—O), 1,8-1,3 (m, 17H, autres CH et CH 2), 1,1 (s, 6H, Ctf 3); principaux pics du spectre de masse, m/z (abondance) : 43 (21), 55 (20), 81 (56), 99 (100). (Diméthyl-5,5 tétrahydrofuryl-2)-3 méthyl-2 propionate de méthyle, 3c : Eb 8 110°C; n 20 = 1,4364; rmn ' H ô(ppm) : 4-3,5 (m, 1H, CH—O), 3,5 (s, 3H, OCW3), 2,8-1,8 (m, 7H, autres CH et CH 2), 1,6 (d, J= 8 Hz, 3H, CH 3 —CH), 1,1 (s, 6H, autres CH 3); principaux pics du spectre de masse, m/z (abondance) :41 (30), 43 (100), 55 (39), 70 (25), 81 (79), 88 (43), 99 (83) 112 (36), 144 (43). (Diméthyl-5,5 tétrahydrofuryl-2)-3 propanenitrile, 3d : Eb 0 5 49°C; n 2 ° = 1,4330; rmn ' H ô(ppm) : 4-3,7 (m, 1H, CH—O), 2,5-1,3 (m, 8H, CH 2), 1,1 (s, 6H, CH 3); principaux pics du spectre de masse, m/z (abondance) : 41 (22), 43 (100), 55 (33), 59 (23), 138 (29). (Diméthyl-5,5 tétrahydrofuryl-2) méthyl dioxanne-1,4, 3c : Eb 0 1 55°C; nf = 1,4557; rmn ' H ô(ppm) : 3,8-3,4 (m, 8H, CH-,—O et CH—O), 1,8-1,3 (m, 6H, autres CH 2), 1,1 (s, 6H, CH 3); principaux pics du spectre de masse, m/z (abondance) : 29 (15), 31 (17), 32 (42), 41 (26), 43 (79), 55 (26), 81 (100), 86 (30), 87 (65), 89 (99), 144 (21). Acide (diméthyl-5,5 tétrahydrofuryl-2)-3 méthyl-2 propionique, 3 f : Eb 2 113°C; n 2 D ° = 1,4506; rmn ' H ô(ppm) : 9,8 (s, 1H, COOH), 4-3,7 (m, 1H, CH— O), 2,8-1,7 (m, 7H, autres CH et CH -,), 1,6 (d, J = 8 Hz, 3H, CH 3 —CH), 1,1 (s, 6H, autres CH 3); principaux pics du spectre de masse, m/z (abondance) : 39 (24), 41 (43), 43 (100), 55 (34), 81 (33), 99 (26). (Diméthyl-5,5 tétrahydrofuryl-2)-4 butanone, 3g : Eb 0 5 78°C; « 2 d ° = 1,4396; rmn ' H S(ppm) : 4-3,7 (m, 1H, CH—O), 2,5-1,3 (m, 8H, CH 2), 2 (s, 3H, CH 3 —C=0), 1,2 (s, 6H, autres CH 3); principaux pics du spectre de masse, m/z (abondance) : 43 (100), 55 (17), 81 (23), 99 (16), 112 (15). 4. Additions radicalaires à P4 Dichlorométhyl-3 diméthyl-2,2 tétrahydropyranne, 4a : Eb 0 5 46°C; nl°= 1,4870; rmn ' H ô(ppm) : 6 (d, J = 8 Hz, 1H, CtfCl,), 3,7-3,4 (m, 2H, CH-,—O), 2,4-1,5 (m, 5H, autres CH et CH -,), 1,25 et 1,2 (2s, 6H, CH 3); rmn l3 C ô(ppm) : 74,9 (CHCL), 73,7 (C(CH,),), 61,2 (CH 2 0), 56,1 (CH—CHC1 2), 29,5 et 19,5 (CH 3), 25,8 et 19,1 (autres CH 2); principaux pics du spectre de masse, m/z (abondance) : 41 (33), 43 (100), 55 (16), 68 (18), 85 (67). (Diméthyl-2,2 tétrahydropyrannyl-3)-2 propionate de méthyle, 4c : Eb 0 8 66°C; nf = 1,4566; rmn ' H S(ppm) : 4-3,3 (m, 2H, CH-,—O), 3,6 (s, 3H, OCW3), 2,8-1,3 (m, 6H, autres CH 2 et CH), 1,5 (d, J = 8 Hz, 3H,C// 3 —CH), 1,2 et 1,1 (2s, 6H, autres C// 3); principaux pics du spectre de masse, m/z (abondance) : 39 (24), 41 (59), 43 (93), 55 (100), 59 (33), 85 (22), 88 (52), 99 (57), 113 (31), 114 (20), 125 (23), 127 (28), 142 (59). (Diméthyl-2,2 tétrahydropyrannyl-3) éthanenitrile, 4â : Eb 0 2 59°C; nf = 1,4670; rmn ' H S(ppm) : 3,7-3,4 (m, 2H, CH-,—O), 2^4-1,3 (m, 7H, autres CH 2 etC//), 1,1 et 1,2 (2s, 6H, CH 3); rmn l3 C 5(ppm) : 118,8 (CN), 73,2 (C(CH 3) 2), 61,1 (CH 2 0), 41,3 (CH—CH 2 CN), 28,1 et 18,9 (CH 3), 24,9 et 19,8 (autres CH 2); principaux pics du spectre de masse, m/z (abondance) : 41 (33), 43 (100), 55 (16), 66 (18), 85 (67). (Diméthyl-2,2 tétrahydropyrannyl-3) dioxanne-1,4, 4c : 4e n'a pu être obtenu parfaitement pur après distillation (cpg); Eb 0 4 52°C; n f = 1,4339; rmn ' H ô(ppm) : 3,8-3,3 (9H, CH-,—O et CH—O), 2,8-1,3 (m, 5H, autres CH et CH 2), 1,2 et 1,1 (2s, 6H, CH 3 )\ principaux pics du spectre de masse, m/z (abondance) : 27 (15), 29 (17), 31 (25), 41 (52), 43 (31), 45 (15), 55 (100), 69 (71), 73 (18), 81 (37), 86 (48), 87 (84), 96 (40), 97 (20), 125 (24). Acide (diméthyl-2,2 tétrahydropyrannyl-3)-2 propionique, 4f : Eb 0 2 92°C; n 20 = 1,4691; rmn ' H S(ppm) : 10,5 (s, 1H, COOH), 3,75-3,25 (m, 2H, CH 2 —O), 2.75-1,3 (m, 6H, autres CH -, et CH), 1,5 (d, J = 8 Hz, 3H, CH 3 —CH), 1,2 et 1,1 (2s, 6H autres CW 3); principaux pics du spectre de masse, m/z (abondance) : 32 (15), 39 (23), 41 (49), 43 (91), 55 (97), 56 (19), 58 (29), 59 (100). 74 (46), 83 (28), 85 (31), 87 (26), 113 (24), 128 (74). (Diméthyl-2,2 tétrahydropyrannyl-3) acétone, 4g : Eb 0 5 55°C; « 2 b° = 1,4639; rmn ' H &(ppm) : 3,75-3,25 (m, 2H, CH-,—O), 2,5-1,4 (m, 7H, autres CH 2 et CH), 2,1 (s, 3H, CH 3 —C=0), 1,2 et 1,1 (2s, 6H, autres CH 3); principaux pics du spectre de masse, m/z (abondance) : 41 (19), 43 (100), 59 (21), 112 (25). Les auteurs remercient Monsieur le Professeur Lalande pour l'intérêt qu'il a porté à ce travail .
Les additions radicalaires de composés donneurs d'hydrogène: dichlorométhane, cyclohexane, propionate de méthyle, acétonitrile, dioxanne-1,4, acide propionique, acétone, aux alcène-4yl t-butyl peroxydes conduisent à des dérivés du furanne et du pyranne
chimie_88-0433310_tei_24.v87-447.tei.xml
termith-313-chimie
Les hydroxydes mixtes de Fe(III) et de Fe(II) de type pyroaurite engageant un anion dans leur structure et dénommés rouilles vertes (RV) jouent probablement un rôle de tampon de potentiel dans les sols [1-5 ]. Ils participent ainsi aux processus de réduction des nitrites [6 ], nitrates [7, 8 ], séléniates [9, 10] ou à la fixation d'anions en milieu réducteur comme les ions chlorure, sulfate et carbonate. Des composés de ce type sont également rencontrés lors de la corrosion du fer dans certaines conditions [11, 12 ]. Les proportions relatives de Fe(III), de Fe(II) et de l'anion ainsi que la structure des RV sont fonction de la nature de l'anion et des conditions de synthèse. Bernai et al. [13] distinguent deux types de RV, les RV I et les RV II. Ces deux types de RV ont des structures différentes, les RV I ont une structure rhomboédrique, alors que celle des RV II est hexagonale. Les RV sont le plus souvent synthétisées par oxydation d'un sel ferreux par l'air soit à pH constant [14, 15 ], soit en partant d'un rapport Fe(II)/OH " fixé [12, 16 ], On peut encore les obtenir en ajoutant des ions hydroxyde à des mélanges de sels de Fe(II) et de Fe(III) de composition définie [17, 18 ]. Il importe de savoir si la formation de rouille verte implique nécessairement la présence d'un oxydant en solution ou si le solvant H 2 0 peut jouer ce rôle. Cela revient à préciser la stabilité des RV en milieu réducteur, en particulier vis-àvis de l'hydrogène et par voie de conséquence, à définir leur aptitude à fixer des anions en milieu anoxique. Il est connu depuis longtemps que le Fe(Il) est capable de réduire l'eau. La réaction de formation de Fe 3 0 4 à partir d'hydroxyde ferreux ainsi que la dissolution de la magnétite en présence d'hydrogène ont été étudiées en détail [19 ]. Les diagrammes potentiel-pH relatifs à la rouille verte sulfatée (Fe (11) 4 Fe (1IÎ) 2 (0H) 12 S0 4) [16] [17] [20] semblent en faveur de la formation de ce composé après oxydation de FcS0 4 par l'eau. Cela implique néanmoins que les phases solides en présence au cours de la première étape d'oxydation de FeS0 4 par l'oxygène selon la réaction : 5Fe(OH) 2 + Fe 2+ + SOf + MO 2 + H 2 0 Fe 6 (0H) 12 S0 4 aient été bien identifiées d'une part et d'autre part, que les potentiels mesurés aient effectivement une signi-fication thermodynamique. La présence simultanée de l'hydroxyde ferreux et de la rouille verte comme phases distinctes n'a été démontrée que très récemment par spectroscopie Môssbauer, de même que la validité des potentiels mesurés au niveau de la première étape, la réversibilité du système ayant été confirmée par voltampérométrie [21 ], Contrairement à ce qui se passe lorsque l'on utilise l'air comme oxydant, le titrage du mélange (résultant de la réaction de 6FeS0 4 avec lONaOH) par l'eau oxygénée permet de préciser la stoechiométrie de la RV et d'évaluer le potentiel normal du système Fe 6 (0H) 12 S0 4 /Fe(0H) 2 sans ambiguïté. La courbe potentiométrique à l'électrode de platine (figure 1) confirme que deux électrons sont mis en jeu pour former la rouille verte sulfittée selon la réaction : 5Fe(OH), + Fe " + + SO 2 " + H 2 0 2 Fe 6 (0H) 12 S0 4 (domaine A), les deux étapes suivantes correspondant l'une à l'oxvdation de la rouille verte en lépidocrocite selon l'équilibre : Fe 6 (0H) 12 S0 4 + 1,5H 2 0 2 5FeOOH + Fe 2+ + sb 4 2 " + 5H 2 0 (domaine B), l'autre correspondant à l'oxydation de l'ion Fe~ + libéré (domaine C). Si l'on se place au milieu du premier palier (un électron échangé), le potentiel est égal à - 0,51 V/ENH. Compte tenu de la force ionique élevée de la solution (/= 0,300 M) et de l'association existant entre les ions Fe 2+ et SO| " (FeS0 4 pK c = 2,0), l'activité des ions sulfate, selon Trolard et al. [4 ], n'est que de 2,25TO - 2 M, alors que leur concentration est égale a 1,1 @BULLET 10~ ' M. II en résulte que le potentiel normal £°RV/Fe(OH) -, correspondant à l'équilibre : 6Fe(OH) 7 " + S0 4 " - 2e - > Fe 6 (0H) l2 S0 4 (palier A) est égal à-0,56 V/ENH. Ce résultat permet de calculer la constante d'équilibre et donc 1 enthalpie libre de la réaction qui conduit à la rouille verte sulfatée à partir de sulfate ferreux et d'hydroxyde ferreux, où l'eau joue le rôle d'oxydant : 5Fe(OH) 2 + Fe 2+ + S0 4 mélange 5Fe(OH) ? + lFeS0 4 (résultant de la Fe 6 (0H) 12 S0 4 + H 2 La constante de cet équilibre s'exprime facilement en fonction de £°RV/Fe(OH) ,. du potentiel normal du système H 2 0/H 2 (£°H20/Hj. et du produit de solubilité de l'hydroxyde ferreux (KsFe(OH)2) : pK = (£°RV/Fe(OH)2 - £°h,0/H,) /0 ' 03 - pK L'enthalpie libre AC7° (en kJ-moL 1) est égale à 5,71 pK. Selon les données de la littérature, la valeur du pK Fe(OH)2 oscille entre 13,8 et 16,3 (13,8 [22 ], 14,7 [23 ], 15,1 [24 ], 15,1-15,8 [25 ], 15,2 [26 ], 15,8 [27] 16,3 [28]). 11 en résulte que l'enthalpie libre de la réaction (1) se situe entre - 40 et - 25 kJ-moL 1 et son pK entre - 7,0 et - 4,5. La réaction est donc thermodynamiquement possible. Elle est en principe peu dépendante du pH, comme lorsque l'on oxyde le mélange 5Fe(OH) :, + FeS0 4 par l'eau oxygénée. Le montage schématisé figure 2A a permis de mettre en évidence expérimentalement la réaction entre H 2 0 et Fe(II), en limitant au maximum la contamination des solutions de sulfate ferreux et de soude par l'oxygène de l'air. L'expérience a été menée comme suit : après avoir purgé le dispositif avec de l'azote U, les parties 1 et II sont remplies respectivement de soude et de FeS0 4 soigneusement dégazés au préalable, puis le montage est scellé sous vide. Les réactifs sont ensuite mélangés en inclinant le dispositif comme il est indiqué sur la figure 2R, puis agités au moyen d'un barreau aimanté qui se trouve dans la partie II. Le mélange, qui est au départ blanc (Fe(OH)2), se colore progressivement en vert-bleu caractéristique de la présence de RV. Simultanément, la suspension minérale libère des bulles d'hydrogène; elles semblent partiellement emprisonnées par la phase solide. Au bout d'une semaine, le dégagement gazeux cesse pratiquement. Une rotation supplémentaire du dispositif (figure 2C) permet alors de transférer la pulpe dans la cellule spectroscopique en quartz afin d'cffcctuer la caractérisation par spectrophotométrie de réflexion-absorption dans le visible où une bande apparaît vers 780 nm (figure 3) et par microscopie Raman. Sur le spectre Raman (figure 4), on distingue en (a) un signal à 508 cm-1, puis un massif à deux composantes vers 435 cm-1. À plus grand nombre d'onde, vers 600-620 cm " ' et 980 cm-1, les signaux de déformation et d'élongation symétrique des sulfates sont également visibles, mais ne sont pas présentés pour ne pas surcharger la figure. Les signaux à 508 et 435 cm " ' correspondent, sans contestation, aux modes de vibration d'une rouille verte sulfatée. Ceux -ci ont déjà été observés pour une rouille verte clairement identifiée concomitamment par spectroscopie Môssbauer et par diffraction de RX [21 ]. Cette rouille verte était obtenue par oxydation, à l'air, du mélange FeS04 + N a O H en rapport Fe(II)/OH " de 0,600. Les signaux à 508 et 435 cm-1, bien que correspondant à des modes optiques collectifs, peuvent être décrits, en simplifiant, comme des modes symétriques d'élongation Fe(OH)6 des octaèdres autour des atomes Fe(II) à 435 cm-1 et : des atomes Fe(III) à 508 cm"1. Ceux -ci sont très sensibles aux contre-anions « intercalés » dans les feuillets, ainsi qu'au rapport Fe(II)/Fe(III). La figure 4b, obtenue en un temps plus court sur un endroit différent de l'échantillon montre ces mêmes signaux avec, en plus, deux pics plus fins à 255 et 407 cm-1, qui correspondent à l'hydroxyde ferreux [29 ]. Il faut noter que les nombres d'onde à 435 et 508 cm"1 ne correspondent pas à ceux observés par Lutz pour Fe(OH)2 très faiblement oxydé par l'air, en absence d'anion en solution, avec quelques ions Fe3+ dans le réseau, composé qui est légèrement bleuté et qui n'est pas une RV. Dans ce dernier cas en effet, les vibrations mettant en jeu l'atome de Fe(III) se situent vers 545 cm"1. La quantification de la réaction de synthèse de la rouille verte par action directe sur l'eau passe par une mesure de la pression d'hydrogène qui reste faible, et par celle de la diminution de la teneur en Fe2+ de la solution à partir d'une évaluation précise des volumes. Ces opérations sont en cours. Il est possible de synthétiser la rouille verte sulfatée Fe6 (0H)1 2 S04 par action directe du mélange lFeS04 + 5Fe(OH)2 sur l'eau, le solvant jouant le rôle d'oxydant. Ce nouveau résultat est important en ce qui concerne la chimie de l'environnement dans la mesure où il montre la possibilité d'avoir une formation de rouille verte sans apport d'oxydant extérieur. Il prouve par ailleurs que la rouille verte sulfatée est compatible avec la présence d'hydrogène. La fixation d'ions sulfate en milieu très réducteur sous forme de rouille verte sulfatée est donc possible. Il est probable que cette propriété ne soit pas réservée à la seule rouille verte sulfatée. Des expériences à partir de chlorure et de carbonate de Fe(II) sont actuellement poursuivies .
La rouille verte sulfatée Fe6(OH)12SO4 a été mise en évidence lors de la réaction d'oxydation par l'eau du sulfate ferreux en présence de soude (Fe(II)/OH- = 0,600). Le potentiel normal du couple Fe6(OH)12SO4/Fe(OH)2 étant égal à -0,56 V/ENH, la constante d'équilibre de cette réaction est supérieure à 3.104. Un montage sous vide a permis de mettre en évidence le dégagement d'hydrogène et la couleur bleu-vert caractéristique de la rouille verte, identifiée également par son spectre Raman. Ce composé peut donc se former en milieu anoxique; il est stable en présence d'hydrogène.
chimie_99-0412923_tei_elsevier_99-0412923_CRAS-IIc-Chim.tei.xml
termith-314-chimie
Les travaux rapportés dans la littérature concernant la dissolution anodique du cuivre en solution aqueuse acide ont surtout été réalisés en présence des anions Cl " (1-7) et S 0 4 2 - (8-16). Ces études ont démontré l'influence déterminante de l'anion en solution ainsi que la rôle clé joué par les complexes du cuivre dans les procédés d'oxydation de ce métal. En ce qui concerne les ions fluorures, l'oxydation électrochimique du cuivre a été étudiée dans le HF anhydre (17). L'oxydation se produit en deux étapes soient la dissolution du cuivre en ion Cu 2+ et la précipitation du CuF 2 sur l'électrode. A notre connaissance, la dissolution anodique du cuivre dans des solutions aqueuses légèrement acides contenant des ions F~ n'a pas été abordée dans la littérature. De façon plus générale, la forme stable du cuivre dissous dans des solutions non complexantes comme les sulfates, les nitrates et les perchlorates est le Cu(II) alors que les espèces du Cu(I) sont stables dans des solutions complexantes comme les Cl ", Br~, I~ et l'ammoniaque (18). La dismutation de l'espèce Cu + est largement favorisée lorsque l'ion n'est pas stabilisé par la formation d'un complexe. L'ion fluorure est peu complexant pour le cuivre. A la différence des autres halogénures, la thermodynamique prévoit que les composés et complexes du fluor avec le cuivre bivalent seront favorisés par rapport à ceux du cuivre monovalent (19-22). Au cours de ce travail, nous avons étudié le comportement anodique du cuivre en solutions aqueuses acides (pH 1,6-6) en présence de KF 0,1 M, principalement à pH 5. La nature des changements se produisant sur l'électrode durant l'oxydation a été mise en évidence par la voltampérométrie cyclique, ainsi que par différentes méthodes d'analyse de surface (SEM, XPS et AES). Des essais avec l'électrode tournante à disque ont été menés à pH 5 dans des conditions où la dissolution du cuivre est généralisée afin d'établir le mécanisme d'oxydation électrochimique du cuivre. Une cellule électrochimique conventionnelle de verre, à trois compartiments, a été utilisée pour les pH 5 et 6 et une cellule de matériaux inertes au HF, à deux compartiments, pour les pH allant de 1,6 à 5. L'électrode de travail est constituée d'un cylindre de cuivre (diamètre ~ 0,56 cm) coupé à partir d'une tige de cuivre polycristallin (Alpha-Ventron Corporation 99,99 %) et scellé dans un tube de verre avec de la colle époxy ou dans une gaine de Kel F (pour l'électrode tournante). De cette manière une surface circulaire en position horizontale (—0,25 cm 2) est en contact avec la solution. La surface de l'électrode de cuivre a été polie mécaniquement sur une polisseuse Leco avec une suspension de particules d'alumine de 5 à 0,3 p. m puis nettoyée abondamment avec de l'eau triplement distillée. Avant chaque essai, l'électrode est plongée en solution à un potentiel de - 0,4 V pour réduire les oxydes se trouvant sur la surface; lorsque le courant atteint - 0,4 p,A cm - 2, l'électrode est jugée prête pour l'essai proprement dit. L'électrode de référence est l'électrode au calomel saturé Hg/HgCl/KCl (sat) (E = 0,24 V ESH); elle est séparée du compartiment principal par un pont qui est relié à un capillaire de Luggin. Aux pH inférieurs à 5, l'électrode de référence a été séparée du compartiment principal par un capillaire de Lugin de matériau inerte au HF. Les potentiels sont indiqués par rapport à cette électrode. L'électrode auxiliaire est une tige de carbone ou une grille de platine placée dans un 2 e compartiment. Pour les analyses de surface, les échantillons de cuivre ont été lavés après l'essai avec de l'eau tridistillée et du méthanol distillé puis scellés dans un tube de verre sous atmosphère d'azote pour être analysés. La pression résiduelle durant les analyses était de 5 x 10 " 8 Torr (1 Torr = 133,3 Pa). Les analyses par XPS ont été faites avec une source de Mg Ka de 480 W de puissance. Un canon à électrons de 10 kV a servi aux analyses par AES; le courant était de 4 nA. Les solutions acides ont été préparées par un mélange de KF et de HF. Avant chaque essai, la solution a été désaérée par un barbottage d'azote. Les expériences ont été menées à 25°C. Les essais en balayage linéaire de la tension ont été réalisés avec un potentiostat PAR modèle 173, contrôlé par un programmeur universel PAR modèle 175. Les charges ont été mesurées avec un coulomètre intégré PAR modèle 179 et le courant avec un ampèremètre Keithley modèle 177. La figure 1 montre un voltampérogramme réalisé dans une solution de HF 1 M (pH = 1,6) à une vitesse de balayage en tension de 10 mV s - 1. Le courant d'oxydation du cuivre est négligeable de —0,8 V jusqu' à ~0 V où la dissolution généralisée du cuivre est observée. En balayage inversé, le processus de réduction commence à un potentiel de ~0 V et un pic cathodique est formé. La charge anodique, Q ox (—300 mC cm - 2), est beaucoup plus grande que la charge cathodique, Q red (—20 mC cm - 2), ce qui est compatible avec la dissolution du cuivre en solution. Au cours de l'oxydation, la surface de l'électrode passe d'un éclat brillant à mat. La microscopie optique a révélé que ce changement est dû à une augmentation de la rugosité de la surface. Un essai dans une solution de KF 0,1 M additionnée de HF (pH = 5), à une vitesse de balayage de 10 mV s - 1, est effectué sur une échelle de potentiel allant du dégagement de H 2 (1,8 V) jusqu' à +2,8 V sans qu'il y ait formation apparente de 0 2 (fig. 2). Le courant d'oxydation est négligeable jusqu' à —0 V puis la dissolution généralisée commence. Au cours du balayage anodique, on voit apparaître un film sur l'électrode sans constater une baisse significative du courant d'oxydation. On observe la présence de deux zones de réduction distinctes; la première débute à 0,1 V et la seconde à 0,9 V. Lorsque l'électrode est polarisée jusqu' à +0,5 V dans les mêmes conditions (fig. 3, ligne pleine), on voit à l'oeil nu qu'un film anodique se forme et un pic de réduction est présent; il débute autour de - 0,8 V. Dans une solution de KF 0,1 M (pH = 5) tamponnée avec le phtalate de potassium (P.P.) (fig. 3, ligne pointillée), un pic anodique est présent autour de +0,2 V; au-delà de ce potentiel, la dissolution généralisée de l'électrode a lieu. Aucun produit visible à l'oeil nu n'est observé sur le cuivre et l'électrode qui avait initialement un éclat métallique est devenue terne. Aucun pic cathodique n'est présent en balayage de retour avant le dégagement d'hydrogène. Ces courbes montrent une différence significative du comportement de l'anode de cuivre en solution fluorurée selon qu'il y ait ou non du phtalate de potassium dissous. Il est en effet admis que le pouvoir complexant de l'ion phtalate par rapport au cuivre est supérieur à celui de l'ion fluorure (22). Pour cette raison, les analyses ont été effectuées dans des solutions de KF 0,1 M titrées avec HF aux pH désirés. Dans une solution de KF 0,1 M (pH = 5), l'électrode a subi un balayage en tension de - 0,8 à +0,5 V à une vitesse de 10 mV s " 1, suivi d'un arrêt du potentiel à +0,5 V durant plusieurs minutes. L'électrode de cuivre se recouvre peu à peu d'un film. En prolongeant l'oxydation au-delà d'une heure, la surface est entièrement recouverte et la vitesse de dissolution du cuivre devient considérablement réduite. La microscopie électronique à balayage (SEM) a été utilisée pour étudier la morphologie du film anodique généré sur une électrode qui a subi un balayage (10 mV s - 1) de - 800 à +580 mV, avec un arrêt à ce dernier potentiel durant 10 min, dans une solution de KF 0,1 M à pH 5. Le film est poreux et il est composé d'un produit qui conduit mal le courant (fig. 4). Une analyse en spectroscopie des photoélectrons X (XPS) et en spectroscopie des électrons Auger (AES) a révélé que le film se compose de Cu 2 0 mais ne contient pas le composé fluoruré qui peut exister dans ces conditions à pH 5, i.e. le 3CuF 2 - Cu(OH) 2 (23). Afin d'établir le mécanisme d'oxydation électrochimique du cuivre à pH 5, des études avec l'électrode tournante à disque ont été menées dans des conditions où la dissolution du cuivre est généralisée. L'électrode est plongée dans une solution de KF (a F - = 0,074) ayant un pH de 5, avec un potentiel imposé de - 0,4 V. Le courant est lu pour chaque vitesse de rotation allant de 81 à 4 rotations par seconde (rps). Une plage de potentiel de - 0,05 à +0,05 V est couverte en effectuant des sauts de potentiel de +0,01 V. Les courbes i vs. co 1/2 (w, vitesse de rotation angulaire de l'électrode en s " " 1) sont montrées à la figure 5. Les courbes s'écartent d'une droite et ne passent pas par l'origine, ce qui indique que l'oxydation du cuivre est quasi réversible (24), i.e. limitée à la fois par le transfert de masse et par une réaction de surface. Dans ce cas où le système est quasi réversible, il est possible de décomposer le courant total en deux termes associés à chaque processus lent comme suit : i x : composante du courant indépendante de <o 1/2 - réaction de surface; et ¡ dja : courant de diffusion-convective anodique qui obéit à l'équation de Levich, [2] : (réf. 24) n : nombre d'électron; F : constante de Faraday; A : aire géométrique de l'électrode; D : coefficient de diffusion de l'espèce oxydée (cm 2 s - '); 7 : viscosité cinématique (cm 2 s - 1); w : vitesse de rotation angulaire de l'électrode (s - 1); C* : concentration de l'espèce qui diffuse dans la solution (mol cm - 3); C s : concentration de l'espèce qui diffuse à la surface de l'électrode (mol cm - 3). Les relations [1] et [2] conduisent à r 1 = (Ü 1 + ß-'cü * 1/2 [3] Les courbes 1 - 1 en fonction de w - 112 doivent donner une droite pour chaque potentiel appliqué (fig. 6), dont les valeurs B~ l et iZ l sont déterminables à partir de la pente et de l'ordonnée à l'origine respectivement. L'inverse de la pente du graphique en fonction de co - 1 ' 2 correspond à B, c'est-à-dire au produit, i'd,a«~ 1/2 alors que est obtenu par extrapolation de la droite jusqu' à 1/2 égale zéro. Les valeurs de B ou (d, a w " " 2 ont été déterminées pour différents potentiels. La relation log / d>a co " 1/2 vs. £est linéaire (fig. 7, ligne pleine) et la pente moyenne obtenue pour plusieurs essais dans une solution de KF (a F = 0,074) à pH 5 est de 29,2 ± 0,5 mV. La relation log i " o vs. E est linéaire ce qui indique que la réaction de surface est une réaction de transfert d'électron. Nous obtenons avec la relation log i-x vs. E une courbe de Tafel dont la pente moyenne est de 32 ± 6mV. Le pouvoir peu complexant de l'ion fluorure favorise la formation de l'ion Cu 2+ (18). Considérons le cas où le cuivre se dissout sous forme de Cu 2+ et où le transfert de masse fait intervenir la diffusion du Cu 2+ formé à l'électrode. Nous pouvons résumer la réaction globale d'oxydation du cuivre en deux étapes; (1) l'étape globale de transfert d'électron conduisant à la formation de Cu 2+, i.e. Cu = Cu 2+ + 2e -; (2) la diffusion du Cu 2+ de l'électrode vers la solution. Lorsque co — » 0, l'étape (2) est lente et l'étape (1) rapide; le terme 1/2 de l'équation [3] devient le terme dominant et i ~; d, a. Le courant de diffusion de l'ion Cu 2+ est donné par l'équation de Levich : où C S CU2+ : concentration de Cu 2+ à la surface de l'électrode et C*CU2+ : concentration de Cu 2+ en solution. Puisque la vitesse de transfert de masse est lente par rapport à la vitesse de transfert d'électron lorsque co — » 0, l'équation de Nernst s'applique ce qui nous permet de calculer la concentration de Cu 2+ à la surface de l'électrode : En combinant les équations [4] et [5] et en tenant compte du fait que C*CU2+ C S CU2+, on obtient la relation du courant de diffusion : Pour une réaction procédant d'un échange de 2 électrons comme l'oxydation du cuivre sous forme de Cu 2+, la relation log ¿d,a w_1/2 vs. E tirée de l'équation [6] donne une pente de 29,6 mV (25°C). La courbe expérimentale représentée à la figure 7 (ligne pleine) a deux pentes différentes, 29,2 mV et 74 mV. La cassure des droites a lieu à —h 15 mV. Nous considérons dans l'analyse des résultats uniquement la partie de la courbe allant de — 50 à +15 mV parce que la cassure apparaît près du potentiel pour lequel un dépôt noir commence à se former sur l'électrode. Les composés prévus à partir de la thermodynamique dans ces conditions expérimentales sont le Cu 2 0 et le 3CUF2 - CU(OH)2 (23). Nous avons obtenu à partir de nos mesures une pente moyenne de 29,2 ± 0,5 mV. Les résultats expérimentaux concordent très bien avec la réaction d'oxydation du cuivre sous forme Cu 2+. A partir de l'équation [6 ], on a tracé la courbe calculée de la relation log ¿ d-a w 1/2 en fonction de E (fig. 7, ligne pointillée), en utilisant les valeurs suivantes : E ' o Cu/Cu 2+ = - 0,40 (25), D Cu >+ = 0,83 x 10 = 0,105 V ecs (18), 5 cm 2 s " 1 (26), 7 = 0,01 cm 2 s " 1 (24), A = 0,20 cm 2. Les droites expérimentale et calculée (fig. 7) sont séparées par un faible écart; il y a donc harmonie entre les résultats expérimentaux obtenus à pH 5 et le modèle proposé pour l'oxydation du cuivre. On explique l'écart par la différence entre les valeurs DCU2+, f C u-+ > £°cu/cu !+ utilisées pour le calcul et les valeurs réelles du système expérimental et possiblement par une faible différence de potentiel dans la jonction liquide. La réaction de transfert d'électron peut être déterminée par l'analyse de la courbe de Tafel, log vs. E. Lorsque « — » le terme î _1 de l'équation [3] devient dominant et i ~ c'est-à-dire que le transfert d'électron est l'étape déterminante. Un mécanisme conduisant à la formation de Cu 2+ peut être envisagé (12). Il fait intervenir deux étapes d'oxydation électrochimique successives pour lesquelles la deuxième étape est déterminante (l'espèce Cu + reste adsorbée sur l'électrode) : Pour un tel mécanisme, la pente de la courbe de Tafel a une valeur théorique de 40 mV. Etant donné que la pente expérimentale de la relation log i x vs. E est comprise entre 26 et 38 mV, le mécanisme procédant des étapes [7] et [8] est envisageable. Par ailleurs, la dismutation de l'espèce intermédiaire Cu + est aussi probable (27), ce qui conduit dans ce cas à une valeur pour la pente de Tafel de 30 mV. Cette étude nous a permis de mettre en évidence l'influence de l'ion F " sur la dissolution anodique du cuivre dans des solutions aqueuses acides (pH 1,6-6), principalement à pH 5, en présence de KF 0,1 M. Aux pH 1,6-6, l'électrode de cuivre se dissout uniformément, i.e. sans qu'il y ait de zones préférentielles sur la surface lorsqu'elle subit une polarisation potentiodynamique (10 mV s - 1) à des potentiels supérieurs à 0 V ECS. A pH faiblement acide (pH 5, KF 0,1 M), lorsque le balayage du potentiel va jusqu' à +0,5 V, l'oxydation du cuivre débute par la dissolution généralisée de l'électrode suivi de la formation d'un film de Cu 2 0 non passivant; au fur et à mesure que le temps d'oxydation augmente, le courant diminue et l'électrode devient passivée. À pH 5, dans les conditions où la dissolution de l'électrode tournante est généralisée, les courbes i = /(w 1/2) sont caractéristiques d'un système quasi réversible. Lorsque w —> 0, l'oxydation est limitée par l'étape de diffusion du Cu 2+ de l'électrode jusqu'au coeur de la solution, alors que lorsque « — » l'oxydation du cuivre est limitée par le processus de transfert de charge conduisant à la formation de Cu 2+. Ce travail a été supporté par l'Institut de recherche de l'Hydro-Québec (IREQ) et par le Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG). Nous tenons à remercier Monsieur A. Adnot du « Laboratoire d'analyse de surface du GRAPS » (Université Laval) pour les analyses de XPS et AES .
Etude de l'influence des ions F− sur la dissolution anodique du cuivre dans des solutions aqueuses acides (pH 1,6-6) en présence de KF 0,1 M. Mise en évidence de la nature des changements se produisant à l'électrode durant l'oxydation par voltammétrie cyclique et différentes techniques d'analyse de surface (SEM, XPS, AES). Etablissement du mécanisme d'oxydation électrochimique du cuivre à pH 5 à partir d'études avec électrode tournante à disque dans des conditions où la dissolution du cuivre est généralisée
chimie_88-0242516_tei_26.v87-350.tei.xml
termith-315-chimie
Actuellement dans l'industrie, l'utilisation des matériaux revêtus par projection thermique (en particulier de WC–Co) est en constante augmentation en raison de leurs bonnes propriétés tribologiques (frottement, usure. ..), spécialement dans l'industrie aéronautique. Les performances de ces matériaux dépendent d'un certain nombre de paramètres intrinsèques aux revêtements, qui peuvent évoluer durant leur utilisation 〚1〛. Afin de mieux appréhender l'adhérence et les mécanismes d'endommagement de ces dépôts, plusieurs méthodes ont été développées 〚2〛, en particulier grâce à l'utilisation de l'indentation interfaciale 〚3〛 ou de l'émission acoustique 〚4〛. Selon Noone et Mehan 〚5〛, « l'émission acoustique est représentative de phénomènes durant lesquels des ondes élastiques sont générées par la relâche rapide d'énergie provenant de sources locales au sein du matériau. » D'une manière plus générale, l'émission acoustique provient de phénomènes tels que les transformations de phases, la déformation plastique, la corrosion, l'amorçage et la propagation de fissures, entre autres 〚6〛. Dans la pratique, un événement acoustique est détecté par un capteur, puis amplifié et exploité en termes d'énergies absolues, d'amplitudes, de nombres de coups ou « d'ASL » (Average Signal Level) 〚7〛. Dans le cas des revêtements projetés thermiquement, la fissuration au sein du revêtement et la fissuration interfaciale (délaminage) génèrent des événements acoustiques caractéristiques. Certaines études sur les mécanismes d'endommagement des matériaux revêtus ont notamment utilisé l'émission acoustique associée à des tests de flexion trois et quatre points 〚2, 8–11〛, à des tests d'adhérence en traction 〚12〛 et à des tests d'indentation 〚13–16〛. Elles montrent que, sous certaines sollicitations, on génère une microfissuration au sein du revêtement qui n'altère quasiment pas ses propriétés d'usage dans un milieu non corrosif. En revanche, on constate aussi, dans certains autres cas, la propagation catastrophique d'une fissuration interfaciale, entraînant, en conséquence, une perte totale des propriétés du revêtement. Dans cette étude, les mécanismes d'endommagement d'éprouvettes en acier revêtues par une couche de cermet WC–Co projeté thermiquement par le procédé HVOF (High Velocity Oxy Fuel) ont été analysés par enregistrement in situ de l'émission acoustique associé à des observations au microscope électronique à balayage (MEB). Les éprouvettes en acier 35NCD16, revêtues d'une couche de cermet WC–Co, ont été préparées en utilisant le procédé HVOF, couplé à un système de refroidissement par jet d'azote liquide autour du canon de projection. Deux épaisseurs de dépôt ont été étudiées : 50 et 100 μm. La taille des éprouvettes était de 100 × 9 × 5 mm 3 (figure 1). Les essais de flexion quatre points ont été réalisés sur une machine universelle Instron, à une vitesse de mise en charge de 1 mm·min –1. La distance entre les appuis supérieurs du montage de flexion quatre points était de 80 mm, celle entre les appuis inférieurs de 43 mm (figure 1). Cette configuration permet de tester le revêtement en traction et le substrat en compression. Les mesures d'émission acoustique (EA) ont été réalisées grâce à une chaîne munie du logiciel Mistras 2001. Ce logiciel a été développé par Euro Physical Acoustic (EPA) pour l'acquisition et le traitement des signaux d'émission acoustique; ceux -ci ont été détectés par des capteurs résonnants de type PICO (450 kHz), placés sur la surface du revêtement, amplifiés par des préamplificateurs à trois gains (20, 40, 60 dB) de modèle 2/4/6-AST et convertis par une carte AEDSP-32/16, intégrée dans un micro-ordinateur. Sur la figure 2, on constate que les courbes charge–déplacement, dites courbes de chargement, montrent la présence d'un changement de pente qui se situe à environ 3  000 N. Bien que le matériau puisse être considéré comme un matériau multicouche, ce point peut être assimilé à une pseudo-limite d'élasticité du substrat. Sur cette figure, on peut également définir trois zones : la zone 1, caractérisée par une partie linéaire de la courbe, correspond à un comportement élastique de l'éprouvette (substrat et revêtement); à la limite supérieure de cette zone, on commence à détecter de l'émission acoustique; c'est le début de l'endommagement du revêtement; la zone 2 traduit un comportement élastique du substrat associé à un endommagement du revêtement; étant donné la faible épaisseur du revêtement comparée à l'épaisseur totale de l'éprouvette, le comportement élastique du substrat est prédominant; ainsi, dans cette zone, la courbe conserve une allure linéaire; la limite supérieure de cette zone se situe à la pseudo-limite d'élasticité du substrat; aucune différence ne semble être observable entre les deux épaisseurs de revêtement; la zone 3 caractérise un comportement plastique du substrat et un endommagement important du revêtement (délaminage); une flèche résiduelle d'ordre millimétrique est observée après chaque essai. L'observation des éprouvettes avant sollicitation fait apparaître la présence d'un réseau de microfissures sur la surface du revêtement. Ce réseau de fissures s'apparente à un faïençage et est confiné à la surface du revêtement (quelques micromètres). La figure 3a présente la surface du revêtement après sollicitation à une charge inférieure à la limite d'élasticité (zone 2 sur la courbe de charge). On observe la présence d'un réseau de macrofissures transverses (observables à l' œil nu), toutes parallèles les unes aux autres et perpendiculaires à la direction de la sollicitation. On a ainsi la création d'une série de pavés (zone entre deux fissures) dont la taille varie de 0,2 à 1 mm suivant l'endroit de l'éprouvette considéré. À plus fort grossissement, on constate que les macrofissures sont liées aux microfissures précédemment citées. En effet, ces macrofissures ne s'amorcent pas dans des parties saines du revêtement, mais sont le résultat de l'ouverture progressive du réseau de microfissures préexistantes. Sur la figure 3b, pour la même sollicitation, la fissuration transverse pénètre dans l'épaisseur du revêtement jusqu' à atteindre l'interface substrat/revêtement. Toutefois, sur cette éprouvette, on ne distingue aucun décollement du revêtement. Ainsi, l'apparition de la fissuration transverse se fait durant la zone 2 sur la courbe de charge. Le comportement de l'éprouvette, durant la montée en charge précédant le point d'inflexion de la courbe, n'est donc pas purement élastique, puisqu'il y a déjà apparition d'un endommagement dans le revêtement. Le comportement du matériau est donc la superposition du comportement élastique du substrat et de l'endommagement du revêtement, ce qui expliquerait l'écart par rapport à la linéarité parfaite des différentes courbes de charge. La figure 4 présente, à deux grandissements différents, la section transverse d'une éprouvette ayant subi un essai complet (zone 3). Dans ce cas, la quantité d'énergie fournie a été suffisante pour permettre à la fissuration de se propager le long de l'interface dans les deux directions. Ainsi, il semble que la fissuration interfaciale (délaminage) n'apparaisse qu'après le point d'inflexion de la courbe de charge. Le délaminage semble donc lié au comportement plastique de l'éprouvette. La figure 5 représente l'évolution chronologique de l'ASL (Average Signal Level) et de l'amplitude des événements acoustiques, ainsi que la courbe de charge (en unités arbitraires). L'évolution de l'ASL est similaire à celle de l'amplitude. Ainsi, ces deux paramètres permettent une description relativement simple de la cinétique d'endommagement du revêtement. Sur les deux graphiques, nous avons représenté les trois zones précédemment décrites : dans la zone 1, aucun événement acoustique n'est détecté; il n'y a donc aucun endommagement; cela confirme le comportement élastique du matériau; dans la zone 2, on détecte une activité acoustique liée à l'endommagement du revêtement; d'après les observations au MEB, cette activité est liée à l'amorçage et à la propagation de la multifissuration transverse; la chute de l'ASL, en fin de cette zone, correspond à un phénomène de saturation; dans la zone 3, on détecte une activité liée au délaminage; l'amplitude présente une distribution uniforme; les hautes valeurs correspondent à la fissuration interfaciale et les faibles valeurs à des phénomènes de frottement. La bonne reproductibilité de l'ASL permet d'obtenir une signature acoustique standard de l'endommagement de ce type de matériau. Ainsi, il devient possible de comparer cette signature à celles d'autres types de matériaux soumis aux même sollicitations. La figure 6 présente la réponse acoustique (énergie absolue en fonction de l'amplitude) de la même éprouvette à deux niveaux de charge différents. Sur la figure 6a, on note la présence d'un unique type d'événements (type A) ayant une faible énergie (1–10 4 attojoules; 1 aJ = 10 –18 J) et une faible amplitude (40–70 dB). D'après les observations microscopiques, la plupart de ces événements sont liés à la multifissuration transverse, qui est l'endommagement principal à ce niveau de charge; les autres sont liés à des phénomènes de frottement interfacial. Sur la figure 6b apparaît un nouveau type d'événements (type B) qui sont représentatifs du délaminage. Ils sont caractérisés par une forte amplitude (70–100 dB) et une forte énergie absolue (10 4 –10 8 aJ). Dans cette étude, nous avons validé une méthode de caractérisation de l'adhérence et des phénomènes d'endommagement des revêtements, basée sur une double analyse des résultats. À titre d'exemple, le cas d'éprouvettes revêtues thermiquement (procédé HVOF) par un cermet WC–Co a été étudié. L'utilisation conjointe de la mesure in situ de l'émission acoustique et de l'observation au MEB a permis d'identifier les différents modes de fissuration mis en jeu lors d'essais de flexion quatre points. Nous avons mis en évidence sur chacune des courbes de charge obtenues trois zones distinctes : dans la zone 1, le comportement de l'éprouvette est purement élastique (aucune activité acoustique n'est visible); dans la zone 2, caractérisée par un comportement élastique global de l'éprouvette, on constate l'apparition d'une multifissuration transverse à la surface du revêtement, qui génère des événements acoustiques de faible amplitude (40–70 dB) et de faible énergie absolue (1–10 4 aJ); dans la zone 3 (après le point d'inflexion de la courbe correspondant à la limite d'élasticité du bimatériau), l'éprouvette présente un comportement plastique et l'on observe l'apparition du délaminage (fissuration interfaciale), qui engendre des événements acoustiques de forte amplitude (70–100 dB) et de forte énergie absolue (10 4 –10 8 aJ) .
Cette note présente une méthode de caractérisation par émission acoustique de « l'adhérence » d'un revêtement sur son substrat. Lors de tests de flexion quatre points, des mesures in situ de l'émission acoustique, exploitées en termes d'amplitude, d'énergie absolue et de position des événements.., ont été réalisées sur des éprouvettes revêtues de cermet WC-Co par HVOF (High Velocity Oxy Fuel). L'observation microscopique des éprouvettes a mis en évidence la présence de deux types de fissuration: une fissuration transverse (fissures régulièrement espacées à la surface) et une fissuration interfaciale (délaminage). Les résultats d'émission acoustique ont révélé deux types différents d'événements (en termes d'amplitudes et d'énergies), représentatifs des deux modes de fissuration observés.
chimie_01-0338963_tei_elsevier_01-0338963_CRAS-IIc-Chim.tei.xml
termith-316-chimie
La photochimie du cyclohexène est relativement bien connue. Déjà en 1965, DeMaré et al. ont étudié la mercurisensibilisation de cet hydrocarbure à 254 nm (1). L'éthylène et le butadiène-1,3, en rendements similaires, sont les produits majeurs avec toutefois des quantités fort appréciables de vinylcyclobutane et de cyclohexane. L'augmentation de la pression a un effet négatif sur les rendements des deux hydrocarbures insaturés tandis que celui du vinylcyclobutane atteint un maximum à une pression de 5-10 Torr (665-1 330 N m - 2). Plus tard, Lesclaux et al. ont étudié la photolyse directe de cet hydrocarbure cyclique à 147, 123,6 et vers 105 nm en présence ou en l'absence de divers intercepteurs radicalaires (2). A 147 nm (8,4 eV) le système est relativement simple : hormis la formation de petites quantités d'hydrogène et de pentadiènes ($ < 0,04), les produits majeurs sont l'éthylène ($ = 0,83) et le butadiène-1,3 ($ = 0,71). Il ne semble pas que des radicaux stables soient formés en quantités appréciables sauf l'atome d'hydrogène qui a un rendement de l'ordre de 0,2 (2). Finalement, il apparaît que la photolyse du tétradeutérocyclohexène - 3,3,6,6-d 4 forme principalement l'éthylène-c/o et le butadiène - 1,1,4,4-^. A plus courtes longueurs d'onde, 123,6 nm (10,0 eV) et 106,7-104,8 nm (11,6-11,8 eV) les mêmes processus semblent actifs, de façon prépondérante. Cependant l'augmentation de l'énergie du photon, et donc de celle de la molécule photoexcitée, favorise la fragmentation secondaire de l'éthylène et du butadiène, de telle sorte que le rapport $(C 2 H 4 )/$(C 4 H 6), qui est voisin de 1,2 à 147 nm, passe à 2,1 et à presque 4 à 123,6 et à 106,7-104,8 nm, respectivement (2). 11 faut ajouter que l'apparition de paires d'ions - le potentiel d'ionisation du cyclohexène est de 8,94 eV (3) - vient compliquer l'interprétation quantitative relative à la fragmentation de la molécule photoexcitée. A plus longue longueur d'onde, soit à 184,9 nm (6,4 eV), Inoue et al. ont également montré que les produits majeurs sont toujours l'éthylène et le butadiène-1,3 avec un rapport <Ï>'(CïH4)/CÏ>'(C4H 6) voisin de 1,05-1,10 (4). Bien que les rendements quantiques n'aient pas été mesurés, ils sont fortement affectés par l'augmentation de la pression : ils décroissent de moitié entre 5 et 30 Torr (650 et 4 000 N m - 2). Ces auteurs ont aussi observé la formation de mini-quantités de méthylènecyclopentane et de bicyclohexane[3.1.0] dont les rendements ne semblent pas affectés par l'augmentation de la pression (4). En phase liquide, ces deux isomères sont formés chacun avec des rendements quantiques de l'ordre de 0,06 (5). Nous avons repris ce dernier travail avec bien entendu l'intention de le compléter en orientant nos efforts vers l'identification d'indices permettant d'apprécier à leur juste valeur, et s'ils existent, les processus d'isomérisation et de façon plus générale les comportements de la molécule photoexcitée. Le cyclohexène est un produit " A.P.I. " dont le contenu affiché en impuretés est de 0,023 ± 0,020 mol %. Aucune impureté couramment analysée par chromatographie en phase gazeuse à l'aide d'un double détecteur à ionisation de flamme, n'y est décelée. L'oxygène (99,99 %) et l'oxyde nitrique (99,0 %) sont des produits achetés chez Matheson du Canada. Le cyclohexène-3,3,6,6-c/ 4 a déjà été décrit (2). Les techniques photolytiques utilisées à 184,9 (6) et vers 163 nm (7), les actinométries (6, 8), les analyses chromatographiques (6, 8) de même que celles réalisées par spectrométrie de masse (2) ont toutes été décrites. Des analyses ont aussi été effectuées à l'aide d'une colonne de SE-30 afin de confirmer l'absence d'une éventuelle formation de vinylcyclobutane (1). La photolyse à 184,9 nm du monomère pur, ou en présence d'oxygène, d'oxyde nitrique, d'hydrogène sulfuré, d'isoprène ou d'iodure d'hydrogène, montre la présence d'éthylène et de butadiène-1,3 avec des rendements supérieurs à 0,5 quelle que soit la pression du cyclohexène entre 1 et 60 Torr (133-8 000 N m - 2). On observe en outre quelques produits supplémentaires avec des rendements mineurs. 11 faut mentionner en présence d'iodure d'hydrogène : le méthane ($ = 0,02), le propène (<î> = 0,01). En présence d'hydrogène sulfuré on observe, en outre, du cyclohexane : Î> = 0,12 et 0,07 à 2,5 et 30 Torr. 11 faut enfin ajouter que tous les efforts réalisés en vue de mettre en évidence la formation éventuelle de composés isomères acycliques ou du vinylcyclobutane ont été vains, que ce soit en présence du cyclohexène pur ou en présence du propane ou de soufre hexafluoré à des pression de 400-500 Torr. La figure 1 montre la variation du rendement quantique de l'éthylène entre 10 et 70 Torr (1 330 et 9 300 N m' 2). 11 faut tout de suite remarquer l'importance du rendement quantique un peu inférieur à l'unité à faible pression. Hormis une erreur systématique toujours possible, il est clair que la fragmentation de la molécule photoexcitée à cette longueur d'onde produit essentiellement de l'éthylène avec en contre partie du butadiène-1,3 (Fig. 2). Là encore existe un léger déficit en butadiène. L'addition de l'atome d'hydrogène sur la double liaison du monomère a déjà été signalée comme pouvant ajouter de l'éthylène (9). L'effet de la pression sur le rapport d>(C 2 H 4 )/cï>(C l H 6) pourrait être alors expliqué sur la base de la stabilisation d'un intermédiaire : La réaction [4] étant endothermique, il est assuré que la réaction de stabilisation par collision, processus [5 ], lui fait une concurrence d'autant plus vive que la pression s'accroît. 11 faut aussi ajouter que le butadiène-1,3 est plus sensible, réactif que l'éthylène vis-à-vis les radicaux usuels, de telle sorte qu'il peut aussi être consommé dans des réactions secondaires. 11 faut finalement ajouter que la présence de quantités minimes de radicaux est révélée par la formation de méthane, de propène et de cyclohexane lorsque le monomère est photolysé en présence d'iodure d'hydrogène ou de sulfure d'hydrogène : (R = H -, CH 3 -, OU C 3 H 5 ') Le tableau 1 montre les analyses isotopiques de l'éthylène obtenu à diverses longueurs d'onde. Au fur et à mesure que celle -ci croît, l'éthylène perhydrogéné croît en importance en même temps que diminue celle de l'éthylène-^-Par contre, entre 147 et 184,9 nm, il semble y avoir un peu plus de C 2 D 4 et de C 2 D 3 H. 11 faut ajouter que l'addition signalée plus haut d'un atomed'hydrogène sur ce cyclohexène partiellement deutérié libère normalement une molécule d'éthylène-\,\-d 2 (9). Dans ce cas, la tendance observée dans ce tableau montre sans ambiguïté possible la diminution de l'importance de ce produit avec l'allongement de la longueur d'onde. FIG. 1. Rendement quantique de l'éthylène en fonction de la pression du cyclohexène. O : aucun additif; A : 10 % 0 2; ° : 10 % NO. Note : la décroissance du rendement quantique à des pressions inférieures à 10 Torr est lice à l'absorption partielle du faisceau photonique. FIG. 2. Variation du rapport <Î>(C 4 H 6 )/Î>(C 2 H 4) en fonction de la pression du cyclohexène. Puisque le monomère contient 40 % d'atomes d'hydrogène lourds, et sur la base où tous les atomes d'hydrogène seraient équivalents, l'éthylène formé devrait être constitué principalement des variétés - d 2 (43 %) et - d\ (38 %). 11 est évident que ce n'est pas le cas. La molécule, en absorbant un photon, est portée dans un état électronique, S ". Le spectre d'absorption de la molécule n'est pas trop bavard et la nature de l'état électronique excité n'est pas évidente. La vibration d'élongation de la liaison C—C est cependant visible et le spectre présente certaines similarités avec celui du tétraméthyléthylène (10). La photochimie des alcènes acycliques en phase gazeuse a été, en général, expliquée sur la base de la rupture primaire de la liaison (3(C—C) (11) et ce probablement à partir de l'état fondamental électronique vibrationnellement excité. Le mécanisme déjà proposé par ailleurs pour le cyclohexène met plus directement en cause les états électroniques Sj et Rydberg (4, 5). Mécanisme réactionnel L'effet de pression est évidemment intéressant. S'il permet une estimation grossière du temps de vie d'un intermédiaire impliqué dans la formation de l'éthylène, il n'en indique pas la nature. Tous les efforts faits en vue de stabiliser un hydrocarbure acyclique en C 6 ou le vinylcyclobutane ont été vains. Cet échec est peut-être le résultat d'une pression de stabilisation insuffisante de la chambre expérimentale bien que d'autres études ont montré par ailleurs que, vers 60 Torr, la moitié des molécules hexène-1 (C 6 H] :), dans l'état fondamental vibrationnellement excité à 184,9 nm, devraient être stabilisées par collision. ' Cette pression est de l'ordre de 1 500 Torr dans le cas du pentène-1 (C 5 H 1U). Cet échec peut être aussi le résultat des propriétés physiques associées du ou des états électroniques de la molécule photoexcitées. La décomposition thermique du cyclohexène a été, elle aussi, étudiée par plusieurs laboratoires. La constante de vitesse du processus 2 - en système thermique - est telle que log k 2 = 15,3 - 66900/RT (9) ou 14,93 - 65200/RT (12). L'énergie d'activation et le facteur de fréquence sont plus faibles que ceux observés dans le cas des ruptures de liaisons (3(C—C) (13). Cette remarque a déjà été faite ailleurs (14) de telle sorte que l'éthylène et le butadiène-1,3 sont le résultat d'une fragmentation concertée du cyclohexène telle que cela a été calculé théoriquement (15) plutôt qu'en deux étapes. C'est donc une fragmentation de type rétro-Diels-Aider (16) permise selon les règles de conservation de symétrie des orbitales de Woodward et Hoffmann (17). Il est pertinent de rappeler ici que la'mercurisensibilisation semble générer plutôt un mécanisme en deux étapes puisque vinylcyclobutane, qui y est observé, est le résultat de la cyclisation de l'intermédiaire radicalaire n-propyl - allyle. Nous voudrions remercier le ministère des Affaires Intergouvernementales du Québec (Coopération belgo-québécoise) qui a permis des échanges fructueux avec monsieur G. DeMaré (Université Libre de Bruxelles) dont le concours a été vivement apprécié. La généreuse hospitalité de monsieur P. Ausloos (NBS, Washington) a aussi contribué à enrichir cette étude .
Photolyse en présence ou absence d'intercepteur radicalaire tel que O2, NO, H2S ou HI entre 1 et 70 Torr. Produits majeurs observés: C2H4 et butadiène-1,3 avec des rendements quantiques supérieurs à 0,5. Mécanisme
chimie_84-0017603_tei_121.v83-340.tei.xml
termith-317-chimie
En Tunisie, le gouvernement a mis en exploitation une nappe d'eaux fossiles située au Sud du pays au moyen de forages de grande profondeur (800-2600 m) afin de développer l'agriculture et lutter contre la désertification. La température de l'eau, à la sortie des forages, dont la plupart sont artésiens, varie entre 50 et 73 °C et les eaux émergent sous une pression totale comprise entre 15 et 20 bar. Le débit d'exploitation est compris entre 80 et 100 L-s - 1, soit, en moyenne, 7800 m 3 - j _1. Ces eaux sont d'une salinité élevée; elles sont très chargées en an ions sulfate et chlorure et leurs teneurs en calcium et en magnésium sont importantes. Bien que la concentration de ces eaux en anions hydrogénocarbonate soit faible (leur TAC n'est que d'une dizaine de degrés français alors que leur TH est voisin de 100 °F), elle est cependant suffisante pour entraîner la formation de dépôts de tartre constitués, pour 95 % environ, de carbonate de calcium [1 ], On a évalué entre 40 à 50 tonnes la masse de tartre formée annuellement par forage; une partie précipite à la sortie des forages dans les tours ou piscines de refroidissement, mais la précipitation se poursuit dans les conduites qui amènent l'eau aux points d'utilisation : les palmeraies, l'usine d'osmose inverse de Gabès. Actuellement, la méthode retenue pour restaurer le diamètre initial des canalisations est un hydrocurage sous pression : la conduite est découpée, l'hydrocurage effectué puis les deux tronçons de la conduite sont raccordés au moyen d'un joint. Le tableau I donne la composition de quatre eaux géothermales du Sud tunisien. On observe des différences mais qui ne sont pas considérables. Or, le comportement à l'hydrocurage de ces eaux est très variable : l'eau du forage de Om Essomaa produit un tartre d'une très grande dureté : la longueur de conduite de 40 cm de diamètre qui peut être curée ne dépasse pas 80 m par jour. À l'opposé, l'eau de Saidane dépose un tartre friable et l'on parvient à nettoyer 500 m par jour d'une conduite de 15 cm de diamètre. Les eaux du forage de El Mansoura et du forage dit F2 dans la région de El Hamma ont un comportement intermédiaire, les tartres déposés étant moyennement durs. Le coût du procédé de restauration varie ainsi beaucoup selon le forage considéré. Nous avons recherché si une méthode électrochimique permettrait de prévoir, à partir d'un échantillon d'eau, la compacité du carbonate de calcium qu'elle est susceptible de déposer. Nous avons montré, précédemment, qu'il était possible d'effectuer un entartrage accéléré par microélectrolyse à potentiel contrôlé [2 ]. On opère sur une électrode de platine que l'on porte à un potentiel où a lieu la réduction électrochimique de l'oxygène dissous selon : 0 2 + 2H 2 0 + 4e 40H~ Le voisinage de l'électrode devient basique et il s'établit un gradient de pH entre la surface de l'électrode et le sein de la solution (l'eau à étudier). Le carbonate de calcium précipite à l'électrode selon : Ca 2+ + HC0 3 + OH " CaC0 3 (s) + H 2 0 de sorte que la réaction globale est : 4Ca 2+ + 4HC0 3 + 0 2 - > CaC0 3 (s) + 2H 2 0 Un dépôt de carbonate de calcium se forme à l'électrode. Il a été montré que le tracé des diagrammes d'impédance des interfaces métaldépôt de carbonate de calcium—électrolyte permettait d'apprécier, par la résistance haute fréquence et la capacité de double couche, l'importance et la compacité des dépôts de tartre [3 ]. Nous avons appliqué cette technique aux quatre eaux de forage considérées et recherché s'il existait une corrélation entre les informations tirées des diagrammes d'impédance et les constatations faites sur le terrain quant à la dureté des tartres formés dans les conduites. Le montage utilisé pour les mesures d'impédance comprend un potentiostat EGG modèle 263 A, un analyseur de fonction de transfert « Locking-amplifier » modèle 5210, qui permet à la fois la génération du signal perturbateur et la mesure de l'impédance, et un ordinateur IBM-PC équipé du progiciel de mesure d'impédance M 398, qui permet de réaliser les mesures en pilotant l'analyseur de fonction de transfert. Les données collectées sont transférées dans le programme Equivcrt. Pas [4 ]. L'électrode de platine a une surface de 0,125 cm 2; le dépôt de carbonate de calcium est obtenu en portant, pendant 11 000 s (= 3 h) l'électrode à - 550 mV par rapport à une électrode de référence argent-chlorure d'argent, solution saturée de chlorure de potassium; l'électrode de platine est mise en rotation à une vitesse de 1000 tours-min " 1. En suivant l'intensité du courant d'électrolyse en fonction du temps, on a obtenu les courbes chronoampérométriques représentées figure 1. On a une première estimation de la compacité du dépôt de tartre en mesurant l'intensité du courant résiduel à la fin de l'électrolyse : plus celle -ci est faible, plus la diffusion de l'oxygène dissous à travers la couche de tartre est lente et plus le dépôt est compact. Selon ce critère, la compacité du dépôt augmente dans l'ordre : Saidane < El Mansoura, F2 < Om Essomaa ce qui correspond aux observations effectuées sur le terrain. Les diagrammes d'impédance ont alors été tracés avec l'électrode recouverte de tartre pour les quatre eaux considérées. Une perturbation sinusoïdale d'amplitude de 5 raV est superposée au signal continu. La zone de fréquence balayée s'étale de 10 kHz à 0,1 Hz. On a choisi un potentiel où l'intensité du courant est de 3 pA, c'est-à-dire suffisamment faible pour que l'état de surface de l'électrode ne soit pratiquement pas modifié pendant le tracé du diagramme qui dure environ 20 min. Les diagrammes obtenus sont répétables. Ils sont représentés figure 2. Les mesures d'impédance ont été interprétées en accord avec le circuit électrique équivalent représenté figure 3, où Rq représente la résistance de la solution, Q représente la couche de tartre et la capacité de double couche en série et 7 ? hf est la résistance haute fréquence. Les diagrammes d'impédance obtenus dans le cas d'une électrode recouverte par une couche de tartre sont décentrés par rapport à l'axe des réels. Cela est attribué à la rugosité de la surface [5] [6 ], Par conséquent, dans les simulations, nous avons utilisé une CPE (élément à phase constante) à la place d'une capacité pure C. Cette CPE est fonction de la fréquence par l'intermédiaire d'une puissance n, où n est habituellement compris entre 0 et 1 (le cas d'une capacité pure correspond à une valeur de n égale à 1). Son impédance s'écrit : Z = 1 /y0(jœ) - » Dans cette expression, n est corrélé à l'angle de rotation |) du cercle capacitif autour de l'axe des réels par la relation : = (1 - n) 31/2 où Yu est une constante réelle indépendante de la fréquence, égale à R dans le cas d'une résistance (n = 0) et à C dans le cas d'une capacité {n = 1). Les paramètres ont été ajustés simultanément par la méthode non linéaire des moindres carrés (NLLS-fit) et sont regroupés dans le tableau II. O n accède aux paramètres suivants. - À la résistance de l'électrolyte Rs qui permet de classer les quatre eaux par conductivité électrique croissante : El Mansoura = O m Essomaa < F2 < Saidane, ce qui est en accord avec la conductivité des eaux mesurée, classiquement, avec un conductomètre comme le montre le tableau III. - À la résistance haute fréquence R HF, correspondant à l'extrapolation de la boucle haute fréquence dans le domaine des fréquences moyennes où le processus de diffusion est gelé laquelle est, en principe, d'autant plus grande que le dépôt est plus compact. Les travaux de Zidoune [7] montrent que lorsque l'on augmente la vitesse de rotation de l'électrode à disque tournant, la boucle obtenue à basse fréquence, qui dépend du transfert de masse diminue, et elle tend à disparaître à partir de 1000 tr-mkr 1. Ce paramètre classe les quatre eaux comme suit : Saidane < F2 < Om Essomaa < El Mansoura croissant Il y a inversion entre les eaux de O m Essomaa et de El Mansoura de sorte que ^?HF n'apparaît pas comme le meilleur critère pour classer les eaux. - À la capacité de double couche C HF; plus celle -ci est faible et plus le dépôt de tartre est, en principe, compact; en effet, d'après [8] la capacité haute fréquence est inversement proportionnelle au taux de blocage de la surface de l'électrode et s'exprime par la relation suivante : C HF = C/(l + ct) où 0 est le taux de blocage estimé par la relation : a =8/(1-6) où 9 représente le taux de recouvrement de la surface par le tartre. Le taux de recouvrement de la surface par le tartre peut être estimé par la valeur du courant résiduel obtenu au bout de 3 h d'entartrage. Ainsi, plus la valeur du courant résiduel est élevée, plus le taux de blocage est faible et, par conséquent, plus la valeur de la capacité haute fréquence sera importante. Avec ce paramètre, on classe les eaux comme suit : Saidane < F2 < El Mansoura < Om Essomaa compacité croissante «; C HF croissant La capacité haute fréquence apparaît comme le meilleur critère pour classer les eaux en fonction de la compacité des dépôts de tartre auxquels elles donnent naissance. Une méthode de lutte contre l'entartrage consiste à ajouter à l'eau un inhibiteur qui s'adsorbe sur les cristaux de carbonate de calcium et les empêche de s'agglomérer entre eux ainsi que de s'incruster sur les surfaces solides. Ces inhibiteurs agissent par effet de seuil c'està-dire qu'ils sont efficaces à des teneurs, en général, très faibles (de l'ordre du mg-L - 1). Nous avons recherché si un inhibiteur commercial, le PERMATREAT 191 (HOUSEMAN Ltd), qui est le sel de sodium de l'acide aminotris(méthylènephosphonique) : ^ CH 2 COO ", Na + était efficace pour les eaux géothermales. Les diagrammes d'impédance ont été tracés avec l'eau du forage F2 (qui alimente l'usine d'osmose inverse de Gabès). Les diagrammes d'impédance obtenus avec cette eau additionnée de concentrations croissantes de PERMATREAT 191 sont représentés figure 4 : le diamètre de la boucle représentative du transfert de charge diminue lorsque la concentration du PERMATREAT 191 augmente. Nous avons représenté figure 5 les diagrammes d'impédance expérimentaux et issus de l'ajustement de paramètre pour une concentration en inhibiteur de 1,2 mg-L - 1. La variation de la résistance haute fréquence en fonction de la concentration du PERMATREAT 191 est représentée figure 6. Pour une concentration de l,2mg-L - 1, la boucle obtenue est quasiment identique à celle obtenue lorsque l'électrode est nue. Cette teneur de 1,2 mg-L _I est la concentration efficace en inhibiteur pour l'eau F2; elle supprime totalement la formation de tartre sur l'électrode. L'impédancemétrie permet d'apprécier l'importance et la texture des dépôts de carbonate de calcium générés à partir d'eaux variées. Plus le dépôt est abondant et de structure compacte et plus la capacité haute fréquence est faible. La corrélation avec la résistance haute fréquence est également intéressante, mais elle recoupe un peu moi ns bien que la capacité haute fréquence les observations effectuées sur le terrain. L'impédancemétrie est, ainsi, une méthode appropriée pour prévoir la dureté des tartres déposés dans des conduites parcourues par des eaux variées. Elle permet également de mettre en évidence l'action des inhibiteurs d'entartrage et de déterminer leur concentration efficace .
L'impédancemétric permet de caractériser la compacité des dépôts de carbonate de calcium formés électrochimiquement par entartrage accéléré en mettant en œuvre la chronoampérométrie. La capacité de double couche apparaît comme étant le paramètre le mieux corrélé avec les observations faites sur le terrain. La mesure de la résistance haute fréquence permet de déterminer la concentration efficace d'un inhibiteur d'entartrage, le PERMATREAT 191.
chimie_99-0232102_tei_elsevier_99-0232102_CRAS-IIc-Chim.tei.xml
termith-318-chimie
Lors d'une synthèse à grande échelle d'indolizidines polyhydroxylées, nous avons été amenés à synthétiser l'ester méthylique de l'acide 6,7-didéoxy-α- d - manno octopyranosiduronique. La méthode de synthèse la plus moderne des acides 6,7-didéoxy-glycopyranosiduronique B (schéma 1) fait intervenir une première étape d'oxydation de Swern de la fonction hydroxyle primaire du sucre A, suivie immédiatement d'une réaction d'oléfination d'Horner–Emmons; enfin, une hydrogénation permet d'obtenir le sucre souhaité B; la chaı̂ne carbonée du sucre a ainsi été rallongée de deux unités. Cette séquence efficace a été récemment utilisée sur des dérivés du ribose [1 ], du glucose, du galactose et du mannose [2 ]. Cette élongation [3] pourrait également être effectuée par une méthode plus ancienne, qui ferait intervenir, après iodation du sucre A, une condensation malonique, suivie d'une réaction de décarbméthoxylation de Krapcho [4 ]. La condensation malonique, dans des conditions classiques (EtO – /EtOH ou NaH/THF), a été peu efficace dans le cas de nos hexopyranosides, sans doute à cause du caractère iso - butylique du C-6 de l'électrophile. La réaction de Krapcho a été utilisée sur des dérivés d'alditol [5 ], mais il semble que la réputation des sucres (aldosides) de ne pouvoir résister à des températures élevées (150–175°C) ait limité son utilisation. Cependant, pour réaliser cette transformation sur une grande échelle (1 mole) la seconde méthode nous a paru plus adaptée (réactifs meilleurs marchés et plus faciles à manipuler, synthèse plus courte). Dans un premier temps, nous avons montré qu'il était possible d'obtenir 3 en deux étapes à partir de 1 (schéma 2). L'iodure 1, mis à réagir avec 3 équivalents d'anion préformé du diméthyl malonate, conduit à 2, qui est isolé avec un bon rendement, à condition d'effectuer la réaction à 100°C pendant 2 h dans le DMF. La décarbméthoxylation de 2 dans le DMSO à 160°C avec un excès de NaCl et d'eau conduit à 3 avec un bon rendement, le rendement global des 2 étapes étant de 68 %. Pour que cette méthode soit concurrentielle d'un point de vue synthétique, il fallait pouvoir réaliser ces deux étapes séquentiellement, mais par un procédé one pot, sans isoler 2. Ceci a été possible après une mise au point des conditions opératoires. La première étape est réalisée dans les mêmes conditions (i), mais dans du DMSO à 100°C; à ce stade, après disparition de 1 [6 ], l'excès d'anion du diméthyl malonate est détruit par ajout d'acide acétique. Après addition d'eau, de NaCl et chauffage à 160°C pendant 3 h (ii), la ccm montre qu'un seul produit a été formé, très proprement et sans dégradation notable du sucre. Le rendement en 3 isolé pur, calculé à partir de 1, est de 85 %. Pour montrer la généralité de cette suite de deux réactions one pot, nous l'avons appliquée à des dérivés 6-iodo du glucose 4 et 5-iodo du ribose 6, les rendements étant toujours très bons (schéma 3). Des dérivés du benzyl mannoside diversement substitués en - 2, - 3, ou - 4 ont été également étudiés. Avec 10, qui possède des protections sensibles aux acides, le rendement reste excellent. Avec 8, qui possède une protection sous forme de benzoate, le rendement est un peu moins bon, mais très acceptable. Pour 12, le rendement est mauvais, le suivi par ccm de la deuxième étape montrant l'apparition de plusieurs produits avant la disparition totale du dérivé diméthyl sucremalonate intermédiaire. Le produit 13, contenant quelques impuretés, a cependant pu être isolé avec environ 14 % de rendement, et identifié avec certitude après saponification en 14. D'autres produits ont été également isolés, mais sans pouvoir être identifiés. Si le mélange réactionnel est traité à la fin de la première étape, le dérivé diméthyl malonate du sucre est isolé avec 62 % de rendement. Les conditions opératoires de la réaction de Krapcho ne sont donc pas compatibles avec les trois fonctions benzoates de 13 (ou de son précurseur diméthyl sucremalonate), alors qu'elles sont compatibles avec les fonctions 4- O - benzoates de 5 et de 9. Les réactions de 11 et 13 dans du méthanol en présence de quantités catalytiques respectivement d'acide p - toluènesulfonique (50°C, 12 h) ou de méthylate de sodium (reflux, 2 h), conduisent au benzyl 6,7-didéoxy-α- d - manno octopyranosiduronate de méthyle (14). Cette méthode pour allonger de deux carbones le squelette d'un sucre fait appel à deux réactions connues et anciennes. Cependant, par ce procédé one pot, des esters d'acides didéoxyuroniques comme 5, 7, 9 et 11, isolés purs, ont pu être obtenus facilement en moins d'une journée à partir des iodures stables correspondants, avec de bons rendements. La présence de trois fonctions benzoates sur 12 est un facteur limitant pour cette réaction. Les protections sous forme d'éthers benzyliques ou méthoxyméthyliques sont compatibles avec cette voie de synthèse des acides didéoxyuroniques. Les conditions opératoires qui ont été mises au point constituent un bon compromis entre la réactivité et la stabilité des aldosides à haute température, en présence d'un très bon nucléophile, comme l'anion Cl – dans le DMSO à 160°C. Le DMSO distillé sur CaH 2 est conservé et transvasé sous argon; le diméthyl malonate du commerce est conservé sur tamis 4 Å. Les séparations sont effectuées sur silice, sous légère pression d'air. Les analyses par chromatographie sur couche mince (ccm) sont effectuées sur silice déposée sur aluminium; la révélation se fait par trempage dans de l'éther sulfurique à 10 %, puis chauffage à 300°C, la présence éventuelle de diméthyl malonate résiduel étant contrôlée par la révélation des premières fractions par un mélange KMnO 4 /Na 2 CO 3 /eau et léger chauffage. Les spectres RMN sont enregistrés à 200 MHz dans CDCl 3, δ est donné en ppm et J en hertz. Les iodures 4, 8 et 12 sont synthétisés à partir des tosylates correspondants (NaI, CH 3 CN à reflux) [7] et sont utilisés sans purification sur silice. Les dérivés 6- O - tosyl précurseurs de ces iodures sont synthétisés par des méthodes conventionnelles et très classiques de la chimie des sucres [8 ]. La synthèse de 6 a déjà été décrite [9 ]. Lors de la synthèse de 10, la protection du benzyl 6- O - tosyl-α- d - mannopyranoside sous forme de triéther MOM est effectuée avec le diméthoxyméthane, en appliquant une méthode déjà mise au point au laboratoire [10 ]. Sous atmosphère d'argon, une solution de diméthyl malonate (6,1 g, 46 mmol) dans du DMSO (25 mL) est refroidie à 0°C, puis on ajoute NaH (1,4 g, 34,5 mmol en dispersion à 60 % dans l'huile) à la spatule; à la fin du dégagement gazeux, le récipient est progressivement réchauffé à température ambiante et secoué précautionneusement à la main jusqu' à ce que la solution soit homogène. Cette solution est versée d'un coup sur une solution agitée du iodure 6 (3,6 g, 11,5 mmol) dans du DMSO (10 mL). La solution sous argon est plongée dans un bain à 100°C et agitée pendant 2 h (disparition de 6 en ccm). Au mélange refroidi à température ambiante, on ajoute du DMSO ordinaire (25 mL), AcOH (1,46 g, 20 mmol), NaCl (10 g) et de l'eau (40 gouttes). Le mélange, fortement agité, est plongé dans un bain à 160°C, jusqu' à disparition totale du dérivé malonate intermédiaire (R f malo=0,43, pentane/AcOEt 4/1) au profit de 7 (R f =0,63). Le mélange refroidi est versé sur de la glace pilée saturée en NaCl. Après cinq extractions à l'éther, séchage sur Na 2 SO 4 et évaporation, une purification sur silice (5 à 15 % AcOEt dans le pentane) permet d'obtenir 7 (2,51 g, 9,64 mmol, 84 %), sous la forme d'une huile claire. RMN : 1 H δ 4,90 (s, 1H); 4,55 (d, J =6,1, 1H); 4,48 (dd, J= 6,1, J= 0,7, 1H); 4,1 (td, J= 7,7, J= 0,7, 1H); 3,62 (s, 3H); 3,29 (s, 3H); 2,42 (m, 2H); 1,85 (q app,, J ≈8,0, 2H); 1,41 (s,3H); 1,25 (s, 3H); 13 C δ 173,3; 112,1; 109,6; 86,0; 85,3; 83,9; 54,9; 51,5; 30,6; 30,0; 26,3; 24,8. Analyse calculée pour C 12 H 20 O 6, M= 260,29 (%) : C 55,37, H 7,74. Trouvé : C 55,35, H 7,75. Les mêmes conditions sont appliquées à l'iodure 4 dérivé du glucose (1,26 g, 2,14 mmol) l'intermédiaire a un R f malo = 0,7, on obtient 5 (0,984 g, 1,84 mmol, 86 %, R f = 0,8) après purification (5 à 30 % AcOEt dans le pentane). RMN : 1 H δ 7,98 (dd, J= 8,1, J= 0,9, 2H); 7,4–7,6 (m, 9H); 7,07 (s, 4H); 5,04 (t, J= 9,4, 1H); 4,5–4,8 (m, 5H); 4,00 (t, J= 9,4, 1H); 3,5–3,9 (m, 2H); 3,59 (s, 3H); 3,38 (s, 3H); 2,02–2,44 (m, 2H); 1,7–2,0 (m, 2H); 13 C δ : 173,4; 165,4; 137,7; 137,8; 133,1; 133,0; 129,9; 129,7; 129,6; 128,3; 128,2; 128,0; 127,8; 127,2; 97,9; 79,5; 78,7; 75,1; 73,8; 73,2; 67,7; 55,0; 51,3; 29,4; 26,2. Analyse calculée pour C 31 H 34 O 8, M= 534,65 (%) : C 69,65, H 6,41. Trouvé : C 69,60, H 6,43. Mêmes conditions, mais sur l'iodure 8 cristallisé (0,53 g, 1 mmol), l'intermédiaire a un R f malo = 0,5, pentane/AcOEt 6/1. On obtient 9 (0,34 g, 0,72 mmol, 72 %, R f = 0,7) après purification (5 à 10 % AcOEt dans le pentane). RMN : 1 H δ 8,06 (d, J= 6,8, 2H); 7,3–7,5 (m, 3H); 7,35 (s, 5H); 5,20 (dd, J= 10,0, J= 7,8, 1H); 5,17 (s, 1H); 4,75 (d, J= 11,7, 1H); 4,52 (d, J= 11,7); 4,39 (dd, J= 7,8, J= 5,4); 4,25 (d, J= 5,4, 1H); 3,94 (td, J= 10,0, J= 3,2, 1H); 3,62 (s, 3H); 2,4-2,7 (m, 2H); 1,9–2,1 (m, 2H); 1,62 (s, 3H); 1,35 (s, 3H); 13 C δ 173,3; 165,5; 136,5; 133,0; 129,6; 129,4; 128,3; 128,2; 127,9; 127,9; 109,7; 95,8; 75,7; 75,6; 73,2; 69,0; 66,6; 51,4; 29,3; 27,4; 26,1; 26,0. Analyse calculée pour C 26 H 30 O 8 M= 4  705  242 (%) : C 66,37, H 6,43. Trouvé : C 66,35, H 6,44. Mêmes conditions, mais sur l'iodure 10 (0,51 g, 1 mmol); R f malo = 0,66, pentane/AcOEt 2/1; on obtient 11 (0,40 g, 0,87 mmol, 87 %, R f = 0,69) après purification (3 à 35 % AcOEt dans le pentane). Il est difficile de distinguer 11 du malonate intermédiaire par ccm, leurs R f étant très proches (après révélation, l'intermédiaire est coloré en jaune et 11 en brun) mais on peut considérer que, après 3 h à 160°C la réaction est terminée. Il faut noter qu'un chauffage à 170°C pendant 2 h dégrade presque entièrement le sucre; du mélange charbonneux on ne peut alors isoler 11 qu'avec 27 % de rendement seulement. RMN : 1 H δ 7.3 (s, 5H); 4,5–5,0 (m, 8H); 4,40 (d, J= 11,5, 1H); 3,6–3,9 (m, 4H); 3,62 (s, 3H); 3,40 (s, 3H); 3,37 (s, 3H); 3,33 (s, 3H); 3,30–3,41 (m, 2H); 2,15–2,65 (m, 2H); 13 C δ 173,9; 137,2; 128,4; 127,9; 127,8; 98,3; 97,8; 97,0; 96,1; 77,9; 76,4; 75,4; 70,3; 69,0; 56,4; 55,7; 55,5; 51,5; 29,9; 26,3. Analyse calculée pour C 22 H 34 O 10 M= 458,51 (%) : C 57,63, H 7,47. Trouvé : C 57,58, H 7,45. Mêmes conditions sur 12 (5 g, 7,1 mmol); on obtient 13 (0,64 g, 1 mmol, 14 %) et plusieurs autres produits, dont un majoritaire non identifié, même après saponification par le méthylate de sodium dans MeOH. RMN : 1 H (contient de nombreuses impuretés) δ 7,7–8,0 (m, 6H); 7,2–7,6 (m, 14H); 5,65–6,0 (m, 3H); 5,05 (s, 1H); 4,80 (d, J= 11,7, 1H); 4,60 (d, J= 11,7, 1H); 4,20 (td, J= 11,5, J= 4,4, 1H); 3,64 (s, 3H); 2,3–2,9 (m, 2H); 1,8–2,2 (m, 2H). Le tribenzoate impur isolé 13 (0,48 g, ≈0,75 mmol) est mis au reflux pendant 2 h d'une solution de MeONa à 0,03 % dans MeOH (5 mL). La solution est neutralisée par addition d'une résine acide sulfonique (purolite C150); après filtration, une purification sur silice (20 à 100 % AcOEt dans le pentane) permet d'obtenir 14 (0,090 g, 0,3 mmol, ≈37 %) RMN : 1 H δ 7,45 (s, 5H); 4,93 (s, 1H); 4,75 (d, J= 11,7, 1H); 4,50 (d, J= 11,7, 1H); 4,40–4,80 (m, 2H); 4,25–4,35 (m, 1H); 4,0 (s large, 1H); 3,90 (s large, 1H); 3,74 (s, 3H); 3,60–3,75 (m, 2H); 2,50–2,70 (m, 2H); 2,25–2,50 (m, 1H); 1,80–2,05 (m, 1H); 13 C δ 174,6; 137,1; 128,4; 127,9; 127,8; 98,8; 71,6; 71,0; 70,8; 70,7; 68,8; 51,6; 29,9; 26,5. Analyse calculée pour C 16 H 22 O 7, M= 326,35 (%) : C 58,89, H 6,79. Trouvé : C 59,01, H 6,70. Une solution de 11 (0,11 g, 0,24 mmol) et de p - TsOH (0,005 g, 0,03 mmol) dans du MeOH humide (10 mL+3 gouttes H 2 O) est porté à 50°C pendant 12 h (disparition de 11 en ccm); on ajoute alors 0,01 g de Na 2 CO 3 et le solvant est évaporé; le tout est placé en tête d'une colonne de silice et élué avec AcOEt : on obtient 14 (0,055 g, 0,17 mmol, 70 %) dont les spectres RMN sont identiques au produit de saponification de 9 .
Dans le DMSO à 100 °C, la réaction de l'anion du diméthyl malonate en excès avec des iodures primaires dérivés du glucose, du mannose ou du ribose conduit au produit attendu de condensation malonique, qui n'est pas isolé. La réaction de décarbméthoxylation est effectuée dans le même ballon par addition d'eau, de NaCl et chauffage à 160 °C les rendements en produits isolés sont bons. Ceci constitue une méthode simple et efficace pour allonger la chaîne carbonée d'un sucre de deux unités.
chimie_00-0454797_tei_elsevier_00-0454797_CRAS-IIc-Chim.tei.xml
termith-319-chimie
Depuis une trentaine d'années, la polymérisation photoamorcée fait l'objet de nombreuses études et applications au niveau industriel, notamment dans le domaine des couches fines (photoresists, encres, adhésifs, revêtements. ..) [1 ]. La photopolymérisation cationique a connu un essor plus tardif que le processus radicalaire, grâce au développement de photoamorceurs efficaces tels que les sels d'onium, plus particulièrement les sels d'aryl-iodonium et - sulfonium [2] [3 ]. Ces photoamorceurs, sous l'effet d'une irradiation ultraviolette, libèrent des acides de Brônsted qui permettent l'amorçage de réactions de polymérisation de monomères tels que les époxy ou les vinyl-éthers, monomères les plus couramment utilisés [4] [5] [6] [7 ]. De nombreuses études ont été effectuées sur l'étude de la photolyse de ces sels [8—11 ], les plus récentes étant celles de Dektar et Hacker sur les sels de triarylsulfonium [12 ]. Dans cette étude, les auteurs identifient les produits de la photolyse et leurs proportions par GLC (Gas liquid chromatography) capillaire, HPLC (High performance liquid chromatography) et spectrophotométrie à l'aide d'indicateurs, puis en déduisent un mécanisme. La figure 1 décrit le mécanisme de photolyse du sel de triphénylsulfonium. Par absorption d'un photon, le triphénylsulfonium passe dans un état excité. Il subit alors de façon prédominante une coupure hétérolytique pour donner la paire cation phényle—diphénylsulfure-(2). Cette paire peut conduire à la paire radical phényle-cation radical diphénylsulfure par transfert électronique. Des réactions de recombinaisons se produisent entre les cations phényle et les diphénylsulfures, ou les radicaux phényle et les cations radicaux diphénylsulfure, pour conduire aux (phenylthio)diphényles 1, 2, et 3 et à de l'acide. Ces réactions se produisent en cage. Les réactions (6)—(10) entre les espèces canoniques et le solvant se produisent « hors cage » et libèrent également des acides de Bronsted. Les auteurs [12] précisent que l'extrapolation d'une réactivité similaire entre les sels de triphénylsulfonium et les sels de (4-phényl-thio)diphénylsulfonium n'est pas justifiée, la photolyse de ces derniers procédant par l'état triplet. Quoiqu'il en soit, les acides de Bronsted sont libérés par réaction des intermédiaires radicalaires et cationiques avec le solvant, ou par réarrangements. Le processus de photolyse est donc assez complexe, et il est également très rapide. La visualisation de ce phénomène de photolyse, ainsi que l'évaluation des cinétiques de photofragmentation et de photolibération d'acide résultant, nécessitent l'utilisation de techniques d'analyse en temps réel. Les sels de sulfonium que nous avons étudiés sont présentés dans le tableau I. Le Cyracure® UVI 6974, qui est un mélange de sels doubles et simples de triarylsulfonium, est utilisé industriellement. Il est fabriqué sous licence General Electric et commercialisé par Union Carbide. Ce sel est étudié également avec un autre anion : le tétrakispenta(fluorophényl)borate (TTAS). Cet anion a été développé par Rhône-Poulenc spécialement pour la photoréticulation de résines silicones fonctionnalisées [13 ]. De même, les substituants butoxy et silanyle portés par les groupements phényle des sels de triaryl-sulfonium SLM433-113 et - 115 sont destinés à augmenter leur solubilité dans les huiles silicones. Le spectrophotomètre utilisé, de type Waters 990, employé normalement comme détecteur de HPLC, est équipé d'une lampe au deutérium de 25 W et d'une barrette de 512 photodiodes. La technique RTUV consiste à exposer un produit photosensible à une irradiation ultraviolette dans une enceinte close, et à enregistrer de façon instantanée l'évolution de son image spectrale en fonction du temps, et ce, dans une plage de longueur d'onde donnée entre 190 et 800 nm. Les solutions de photoamorceurs, à 10~ 5 M dans le méthanol ou l'isopropanol, sont injectées et, quand l'absorbance reste constante, la cellule est fermée et la variation du spectre en fonction du temps est enregistrée. On obtient deux types de courbes, l'absorbance en fonction de la longueur d'onde et l'absorbance en fonction du temps pour une longueur d'onde donnée [14 ], Le dispositif permettant les mesures de pH en temps réel est composé d'une unité d'insolation EFOS Ultracure 100 ss Plus, équipée d'une lampe à vapeur de mercure haute pression de 100 W, d'un pHmètre Mettler Toledo MP 225, muni d'une électrode combinée de pH Mettler Toledo LE 413. Le faisceau lumineux émis par l'unité d'insolation est guidé au-dessus de la solution de photoamorceur à l'aide d'une fibre optique. L'intensité lumineuse dispensée au niveau de la solution est mesurée avec précision grâce à un radiomètre; elle est réglée en modifiant la hauteur entre l'extrémité de la fibre et la surface à insoler. L'intensité est fixée à 6 rnW cm - 2. La variation de pH provoquée par l'insolation est mesurée par le pHmètre et enregistrée sur ordinateur toutes les 2 s (figure 2). Les solutions de photoamorceurs sont à 5.10"4 M dans le methanol ou dans l'isopropanol. L'acide formé par insolation des solutions de photoamorceurs par le dispositif précédent est dosé par titrage potentiométrique par une solution méthanolique 0,01 N d'hydroxyde de tétraméthylammonium. Le potentiomètre est un Mettler DL20, équipé d'une électrode de pH combinée Mettler Toledo Inlab® 420. La spectroscopic UV permet d'obtenir le spectre d'absorption des différents photoamorceurs. Connaissant la concentration initiale en photoamorceur, et en déterminant l'absorbance initiale, la loi de Beer-Lambert, A =Z.c.l [c étant la concentration molaire, en mol L _1, / la longueur de la cellule en cm), permet d'accéder au coefficient d'extinction molaire £ (en mol - 1 L cm - 1). La variation du coefficient d'extinction molaire en fonction de la longueur d'onde {figure 3) montre que les maximums d'absorption se situent entre 206 et 212 nm. Les mélanges de sels de triarylsulfonium présentent dans cette zone une absorption plus importante, et un épaulement, plus important pour le Cyracure® UVI 6974, à 300 nm. L'épaulement des sels substitués SLM443 se situe entre 260 et 290 nm. Ces données sont importantes pour évaluer l'efficacité du photoamorceur en fonction de la lampe utilisée pour réaliser la photolyse et obtenir une photo réaction. Ainsi, la lampe à vapeur de mercure que nous utilisons pour l'insolation des photoamorceurs possède un spectre d'émission situé entre 250 et 400 nm, avec un pic important à 300 nm, et au-delà. C'est donc plus particulièrement à cette longueur d'onde que nous nous intéressons pour la comparaison des photoamorceurs. En se plaçant à une longueur d'onde donnée, et en considérant les portions de la courbe où la variation d'absorbance en fonction du temps est linéaire, la courbe ln (A/A0) =fit), d'après la relation d'ordre 1 : A = A 0. exp{-kt) où A est l'absorbance au temps t, A 0 l'absorbance initiale, et k le coefficient de vitesse de photofragmentation (s - 1), permet d'accéder au coefficient de vitesse de photofragmentation qui correspond à la pente de la droite, au signe près (figure 4). Théoriquement, il faudrait se placer à une longueur d'onde où seul le photoamorceur absorbe tel que le pic maximal, mais le but de cette étude est d'évaluer l'efficacité des sels de triarylsulfonium dans la zone d'émission de la lampe à vapeur de mercure que nous utilisons, et qui n'absorbe qu' à partir de 250 nm. L'image spectrale enregistrée correspond à la superposition des absorptions des photoproduits qui apparaissent et du photoamorceur qui disparaît. Cela constitue la limite de cette technique, qui permet cependant d'obtenir des valeurs comparatives généralement en accord avec les autres résultats. En choisissant de s'intéresser au premiers instants de la photolyse - environ 30 s — pour évaluer la cinétique, on peut espérer s'affranchir de l'absorbance des photoproduits. Les valeurs des coefficients de vitesse de photolyse à 300 nm, rassemblées dans le tableau II, mettent en évidence la grande photoréactivité du Cyracure® UVI 6974 par rapport aux autres sels de sulfonium testés. Un ordre de réactivité en terme de rapidité de photolyse à 300 nm peut être énoncé : les triarylsulfoniums classiques sont plus rapides et plus efficaces que les triarylsulfoniums substitués. Curieusement, on note que l'anion tétrakis(pentafluorophényle )borate donne une réactivité moins grande que l'antimonate, alors que l'on ne devrait pas noter de différence. Dans le but de quantifier et visualiser le phénomène de photolyse, nous nous sommes intéressés à la variation de pH engendrée par l'insolation de différents photoamorceurs en solution. Des solutions méthanoliques de photoamorceurs sont donc soumises à des irradiations ultraviolettes de durée variable. La variation de pH qui en résulte a été suivie pour les différents photoamorceurs (figure 5). Ainsi, pour le Cyracure® UVI 6974, la chute de pH est très importante et très rapide, quel que soit le temps d'insolation. Après 10 s d'insolation, le pH a diminué de plus de cinq unités. On notera que le pH continue de décroître dans l'obscurité après une courte irradiation de 5 s. En revanche, pour le sel de sylanyltriarylsulfonium SLM443115, la chute de pH est très progressive. Après 10 s d'insolation, le pH a diminué au mieux d'une unité. Les substituants du phényle permettent certainement d'augmenter la solubilité des sels SLM443 dans les silicones, mais ils ralentissent le processus de photolyse et réduisent considérablement l'efficacité de ces photoamorceurs dans ces conditions d'insolation. Ces résultats sont en accord avec l'ordre d'efficacité établi lors de l'étude cinétique par spectroscopic RTUV. Afin de chiffrer l'efficacité relative des photoamorceurs, les solutions de photoamorceurs précédemment insolées sont dosées par titrages potentiométriques. Les courbes de concentration en acide libéré en fonction du temps d'insolation peuvent ainsi être tracées pour les différents photoamorceurs {figure 6). La libération d'acide varie de façon linéaire en fonction du temps d'insolation, jusqu' à atteindre une sorte de palier en ce qui concerne les sels classiques de triarylsulfonium. En effet, la conversion en acide pour le sel de tétrakistriarylsulfonium TTAS est de 86,8 %, soit assez proche de la conversion totale (tableau III). La conversion incomplète peut s'expliquer par un effet de filtre des photoproduits en solution [12 ], Cette courbe montre clairement que les mélanges de sels de triarylsulfonium classiques libèrent une grande quantité d'acide, et plus rapidement que les silanylsulfoniums. La pente de la partie linéaire de ces courbes permet d'accéder aux vitesses de la photolibération d'acide, dont les valeurs ont été rassemblées dans le tableau III. On peut voir que la libération d'acide est plus de dix fois plus rapide pour le Cyracure® UVI 6974 que pour les sels de sylanyltriarylsulfonium. Les mélanges de sels de (phénylthio)diarylsulfonium permettent d'atteindre des conversions nettement plus importantes et de façon très rapide. L'association des techniques présentées, faciles à mettre en oeuvre, permet d'évaluer et de chiffrer l'efficacité des photoamorceurs en fonction des conditions d'insolation et ainsi d'optimiser les formulations photochimiques cationiques en déterminant l'association lampe— photoamorceur. Nos résultats sont en accord, d'une technique à l'autre, et montrent la supériorité des mélanges de sels de (phénylthio)diarylsulfonium, notamment du Cyracure® UVI 6974. Ils confirment par ailleurs le peu d'influence de l'anion dans les réactions de photolyse des sels de sulfonium conduisant à la production d'acide fort .
Les sels d'arylonium ont permis l'essor de la photopolymérisation cationique. De nombreuses études portent sur la photolyse de sels de triarylsulfonium. Ce travail traite de la cinétique de photofragmentation de ces sels, étudiée par RTUV (Real time ultraviolet), de la visualisation du phénomène de photolyse grâce à des mesures de pH en temps réel et de la cinétique de photolibération d'acide par titrages potentiométriques.
chimie_98-0258336_tei_elsevier_98-0258336_CRAS-IIc-Chim.tei.xml
termith-320-chimie
Les gaz de queue des centrales thermiques et des usines d'acide nitrique contiennent des oxydes d'azote (NO^, NO principalement) qu'il convient d'éliminer. Le procédé de choix est la réduction catalytique sélective (SCR) par NH3 sur divers catalyseurs, dont des Cu/zéolithe. Le principal sous-produit, dont l'origine n'est pas totalement élucidée, est N20. En SCR de NO par N H 3 en présence d'oxygène sur Cu-NaY, nous avons montré qu' à un faible taux d'échange en Cu de 25 %, le catalyseur est totalement sélectif en N2 dans le domaine de température 298-773 K [1 ], Pour des taux d'échange en Cu supérieurs à 50 %, les catalyseurs demeurent sélectifs en N 2 jusqu' à 573 K; enfin, pour une teneur correspondant à un taux d'échange théorique de 195 % des composés fortement suréchangés, le catalyseur n'est plus sélectif en azote. Le seul produit secondaire qui se forme alors est N 2 0. Selon les conditions, N20 peut être formé à partir de NO ou de NH3 seuls, ou bien de la réaction entre ces deux molécules. Selon les conditions, il a été montré que N 2 0 résultait (i) de la dimérisation de N O sur CuY [2 ], (ii) de la décomposition d'un nitrate d'ammonium complexé sur oxyde de cuivre [3] ou (iii) de la réaction entre une molécule de NO et une espèce N adsorbée sur Mo03/Si02 [4 ]. Généralement en oxydation de N H 3 sur métaux de transition, N 2 est formé à basse température (oxydation ménagée), tandis qu' à des températures plus élevées, les oxydes d'azotes apparaissent (oxydation totale) [5 ]. Le but de ce travail est d'étudier l'influence du taux d'échange en Cu, de catalyseurs Cu(x) - NaY (x étant le taux d'échange théorique en Cu), dans l'oxydation de NH3, avec une attention particulière pour la formation de N20. Cu(25)-NaY (2,9 % Cu, 5,8 % Na), Cu(76) - NaY (7,2 % Cu, 2,0 % Na) et Cu(195)-NaY (17,7 % Cu, 6,1 % Na) ont été préparés par échange, et par imprégnation pour le dernier cité. Cu(25) -Y et Cu(76)-NaY sont obtenus en versant 2 g de Na -Y (Süd Chemie, Si/Al = 2,5, SBET = 700 m2 g"1) dans une solution 0,01 M de nitrate de cuivre (pH = 5). L'ensemble est agité à température ambiante pendant 24 h. La phase solide est ensuite lavée, séchée à 3 5 3 K et calcinée pendant une nuit à 723 K. Cu(195)-NaY est préparé en imprégnant 2 g de NaY par 5 mL d'une solution aqueuse de nitrate de cuivre. Le solide est ensuite séché à 353 K et calciné pendant une nuit à 723 K. Les essais catalytiques ont été effectués en réacteur continu et en température programmée (5 K min-1) entre 298 et 773 K, sous pression atmosphérique avec les mélanges réactionnels : NH3/02/He : 0,20:3,00:96,80 (%vol.) et N0/NH3/02/He : 0,20:0,20:3,00 : 96,60 (%vol.). La vitesse spatiale des gaz est de 250 000 h-1. L'analyse de l'effluent en sortie du réacteur est effectuée en ligne par spectrométrie de masse. Les courbes de conversion de l'ammoniac au cours de son oxydation sur les différents catalyseurs sont reportées sur la figure 1. Sur Cu(195)-NaY, l'oxydation de N H; commence dès 450 K et l'azote est majoritairement formé. Le rendement en N2 passe par un maximum d'environ 50 % vers 660 K. N O apparaît à partir de 610 K, lorsque la conversion de NH3 en N2 dépasse40%.LerendementenN20reste faible et augmente graduellement avec la température. L'oxydation deNH3 sur Cu(76)-NaY commence à plus haute température que sur Cu(195)-NaY, mais augmente plus rapidement avec la température. Ces deux catalyseurs présentent des conversions comparables à partir de 610 K. Le produit majoritairement formé est N2, quelle que soit la température. Avec Cu(76)-NaY, NO n'a jamais été détecté dans les effluents dans le domaine de température étudié. Le rapport de sélectivité N 2 / N 2 0 se situe entre 2,5 et 4,0, et le rendement en N 0 2 atteint 25 % à conversion totale en N H 3. Cu(25)-NaY présente une conversion beaucoup plus faible en oxydation de l'ammoniac et la réaction ne devient sensible qu' à partir de 610 K. NH3 est sélectivement transformé en N2 entre 610 et 700K. Entre 700 et 800K, la conversion de N H 3 en N O devient significative. Étant donné que ce catalyseur renferme 2,5 fois moins de cuivre que Cu(76)-NaY, la réaction d'oxydation de N H 3 a été aussi réalisée avecuneWH (vitessespatiale)de100000h-1. Malgré un temps de contact plus long, les conversions observées restent toujours plus faibles que celles obtenues avec Cu(76)-NaY. Les conversions en NH3, lors de l'oxydation deNH3 et de la SCR de NO par NH3 effectuées dans les mêmes conditions sur les différents catalyseurs, sont rapportées sur lafigure2. Les profils de conversion de NH3 enoxydation de NH3 et en SCR de NO sont similaires sur Cu(195)-NaY. Sur Cu(76)-NaY, N H 3 est converti dès 400 K en SCR de NO, mais à partir de 600 K, la même conversion en NH3 est observée pour les deux réactions. Sur Cu(25) - NaY, quelle que soit la température, la conversion en N H 3 est toujours très supérieure en SCR de NO qu'en oxydation de NH3. Lafigure3 rapporte les quantités de N 2 0 formées pendant l'oxydation de NH3 et la SCR de NO par NH3. En SCR de NO, une très grande quantité de N 2 0 est formée sur Cu(195)-NaY autour de 575 K, puis décroît. En revanche, en oxydation de NH 3, la formation de N 2 0 est bien plus faible et augmente graduellement avec la température. Sur Cu(76)-NaY, deux formations de N 2 0 apparaissent en SCR de NO. La première apparaît dans le même domaine de température que celui observé en SCR de NO sur Cu(195)-NaY. La deuxième formation intervient à plus haute température et son profil se superpose à celui observé en oxydation de NH 3. Sur Cu(25)-NaY, aucune formation de N 2 0 n'est observée même pour un temps de contact plus élevé. Les caractérisations de ces catalyseurs [1] ont montré que : (i) Cu(195)—NaY contient essentiellement des agrégats d'oxyde de cuivre (> 90 %), (ii) Cu(76)-NaY est constitué principalement d'espèces Cu 2+ isolées (traces de CuO) et (iii) Cu(25)-NaY ne contient que des espèces Cu 2+ isolées. De plus, sur Cu(195)-NaY, l'adsorption d'ammoniac à 298 K est négligeable, tandis que pour les deux autres solides, il a été mis en évidence la formation de complexes Cu(NH 3) 3 2+ [1 ], Sur Cu(76)-NaY, en SCR de NO par NH 3, deux vagues de formation de N 2 0 ont été observées. En oxydation de NH 3, N 2 est toujours le produit principalement formé conformément à la bibliographie [5] [6 ], Etant donné la similarité des allures des profils de formation de N 2 0 observés pour Cu(195)-NaY et Cu(76)-NaY, ainsi que la très grande différence de formation de N 2 0 entre la SCR de NO et l'oxydation de NH 3 sur Cu(195)-NaY, la formation de N 2 0 à basse température provient sûrement de la réaction entre NO et NH 3 sur oxyde de cuivre. Cette formation de N 2 Ô en SCR de NO peut se dérouler selon le mécanisme proposé par Centi et Perathoner [3] sur CuO supporté : NO NO NH 4 NO I H + I Cu-O Cu-O - Cu-O NH, N0 3 - NH 4 ' Cu-o N 2 0 + H 2 0 (1) Par ailleurs, la superposition parfaite des profils de formation de N 2 0 à haute température en SCR de NO par NH 3 (NH 3 + 0 2 + NO) et en oxydation de NH 3 (NH 3 + Ô 2) sur Cu(76)-NaY montre que dans ces deux réactions, c'est l'oxydation de NH 3 qui est déterminante. Deux voies réactionnelles formelles peuvent être proposées pour l'oxydation de NH 3 par 0 2 en N 2 0 : — une réaction entre NH 3 et NO formé comme intermédiaire : NH 3 Q2. NO N 2 0 (2) - le couplage oxydant de deux molécules de 2 NH 3 ° 2. N 2 0 (3) NH 3 : où un complexe de nitrate d'ammonium se décompose en N 2 0 et H2O. NO n'a pas été observé dans l'oxydation de NH 3 sur Cu(76)-NaY; cela implique que dans le schéma réactionnel 1 (équation 2), c'est l'oxydation de NH 3 en NO qui est l'étape lente. Dans ce cas, la formation de N 2 0 devrait être beaucoup plus rapide en SCR de NO par NH 3, car d'ordre 1 par rapport à NO [7] [8 ]. Cela n'étant pas le cas, le couplage oxydant de NH 3 (équation 3) est la voie la plus probable pour la formation de N 2 0. Les sites actifs sont les ions Cu 2+ isolés; en effet Cu(195)—NaY ne contenant quasiment pas de telles espèces, ne catalyse pas la formation de N 2 0 au-delà de 700 K. Par ailleurs, Cu(25)-NaY ne contenant que des ions Cu isolés, ne catalyse également pas la formation de N a O. Les deux catalyseurs Cu(25)—NaY et Cu(76)-NaY se différencient par leur teneur en Cu. Les ions Cu 2+ devraient être statistiquement plus proches dans Cu(76)-NaY, car ce catalyseur possède un taux d'échange plus élevé en cuivre que Cu(25)— NaY. Cette plus grande proximité des ions Cu 2+ isolés dans Cu(76)—NaY peut être à l'origine de la formation de N 2 0 à haute température. Par ailleurs, de cette proximité peuvent résulter des espèces cuivre sous forme de dimères ([ CuOCu] 2+) où l'oxygène est un oxygène extra-réseau. De telles espèces ont été identifiées dans les zéolithes échangées au cuivre et proposées comme étant les espèces actives en décomposition de NO et en SCR de NO par les hydrocarbures [9] [10 ]. Par rapport à Cu(25)— NaY, Cu(76)-NaY renferme probablement beaucoup plus de dimères [CuOCu] 2+. Il serait donc alors possible d'expliquer la formation de N 2 0 par la combinaison de deux espèces N adsorbés et un oxygène adsorbé sur les dimères [CuOCu] 2+, mécanisme de formation directe évoqué par de Boer et al. [4] sur Mo0 3 /Si0 2 .
Entre 300 et 800 K, N2 est toujours le produit majoritairement formé en oxydation de NH3 sur des catalyseurs à base de zéolithe faujasite NaY et de cuivre (Cu(x)-NaY, x étant le taux d'échange théorique). Les vitesses de conversion de NH3 en réduction catalytique sélective (SCR) de NO par NH3 (NH3 + O2 + NO), et en oxydation de NH3 (NH3 + O2) sont similaires sur Cu(195)-NaY. Elles diffèrent sur Cu(76)-NaY à basse température (< 610 K) mais en revanche, sur Cu(25)-NaY, la vitesse de conversion de NH3 en SCR est toujours très supérieure à celle de l'oxydation. En SCR de NO sur Cu(76)-NaY, deux vagues de formation de N2Q sont observées vers 500 K et au-delà de 600 K, tandis que sur Cu(25)-NaY, aucune trace de N2O n'est détectée. La formation de N2O à basse température est attribuée à la décomposition de nitrate d'ammonium formé sur des agrégats d'oxyde de cuivre. La formation de N2O à plus haute température résulterait de l'oxydation de NH3 et serait reliée à la présence d'ions cuivre isolés proches voisins, ou de dimères [CuOCu]2+.
chimie_98-0258764_tei_elsevier_98-0258764_CRAS-IIc-Chim.tei.xml
termith-321-chimie
Les scorpions possèdent de façon constitutive des peptides antimicrobiens particulièrement efficaces, qui agissent en cas d'agressions de microorganismes pathogènes (bactéries ou champignons). Parmi ces molécules, l'androctonine est un peptide de 25 résidus, à deux ponts disulfure, extrait de l'hémolymphe du scorpion Androctonus australis et possédant un large spectre d'activité. En effet, elle affecte aussi bien les bactéries à Gram positif ou à Gram négatif que les champignons 〚1〛. L'étude des interactions de l'androctonine avec les membranes bactériennes a montré que l'androctonine provoque la perméabilisation de la membrane cytoplasmique des bactéries, sans mettre en jeu de récepteur stéréospécifique 〚2〛. Le processus de désintégration de la membrane s'effectuerait plutôt par un mécanisme de type carpet-like, 〚3〛 avec micellisation finale de la membrane, et non par la formation de canaux 〚2〛. La structure tridimensionnelle en solution aqueuse de l'androctonine native a été déterminée par RMN et modélisation moléculaire (code PDB 1CZ6) 〚4〛. Le peptide est composé de deux brins antiparallèles, formant une épingle à cheveux stabilisée par deux ponts disulfure. Les premières étapes de l'interaction du peptide avec la membrane ont été étudiées via une courte simulation de dynamique moléculaire d'un monomère d'androctonine à la surface hydratée d'une monocouche de DMPG (dimyristylphosphatidylglycerol). Ainsi, on observe un réarrangement des chaînes latérales du peptide et l'ouverture du feuillet. La molécule s'aplatit sur la membrane afin d'optimiser les interactions entre les résidus cationiques et les têtes polaires anioniques des phospholipides 〚4〛. Ces résultats viennent appuyer l'hypothèse du mécanisme de type carpet-like et montrent que la structure en feuillet β antiparallèle n'est pas indispensable à l'interaction entre le peptide et la membrane cytoplasmique. Afin de préciser le rôle des ponts disulfure de l'androctonine dans le maintien de la structure en épingle à cheveux et d'approfondir les relations structure/activité pour ce peptide, nous avons effectué l'étude structurale de trois mutants synthétiques, dans lesquels les ponts disulfure ont été supprimés par mutation sélective des cystéines en alanines. La synthèse chimique et les tests antimicrobiens des mutants sur les bactéries Micrococcus luteus, Escherichia coli D31 et sur le champignon Neurospora crassa ont été effectués en suivant le protocole mis au point pour l'androctonine native 〚1〛. Les spectres 1 H 2D RMN COSY, TOCSY et NOESY des trois mutants ont été enregistrés sur un spectromètre Varian Inova 600 et analysés à l'aide du logiciel XEASY 〚5〛. L'activité des mutants à un pont est réduite par rapport à la molécule native sur la bactérie à Gram positif M. Luteus et sur le champignon N. Crassa. Le peptide linéaire conserve, lui aussi, une certaine activité, malgré la suppression des deux ponts. Le repliement en épingle à cheveux ne semble donc pas crucial pour l'activité sur M. Luteus et N. Crassa. En revanche, si sur la bactérie à Gram négatif E. Coli, l'activité des mutants à un seul pont est également réduite par rapport à celle de l'androctonine native, le peptide linéaire devient, quant à lui, totalement inactif. La structure semble donc avoir un effet direct pour l'activité sur E. Coli. Dans un premier temps, les déplacements chimiques des trois molécules ont été analysés après attribution dans le logiciel XEASY et comparés à ceux de l'androctonine native. (1) Les plus grandes variations de déplacements chimiques des protons Hα par rapport aux valeurs des conformations aléatoires 〚6〛 sont observées pour l'androctonine. Aucun des trois mutants ne semble aussi structuré que la molécule native. Ces variations sont observées surtout pour les résidus impliqués dans le feuillet (figure 1). Toutefois, certains résidus du feuillet ne subissent pas un déplacement vers les hauts champs, caractéristique d'une structuration en feuillet β, en raison des effets de cycle des trois tyrosines présentes dans la molécule (Y17, Y18 et Y25), qui perturbent les résidus voisins. (2) Les déplacements chimiques de l'androctonine privée des deux ponts sont caractéristiques d'une conformation aléatoire. De plus, aucun nOe à longue distance n'a pu être observé pour ce mutant (trois nOes à moyenne distance seulement). Celui -ci est donc totalement désordonné dans nos conditions expérimentales. (3) Les mutants à un pont disulfure apparaissent comme des intermédiaires structuraux entre l'androctonine native au feuillet très rigide et le mutant linéaire totalement déstructuré. L'analyse des déplacements chimiques montre qu'ils maintiennent une certaine structuration à proximité du pont qu'ils ont conservé : (a) les déplacements chimiques des résidus 10, 11, 15 et 16 du mutant C4A/C20A (ayant conservé le pont 10–16) sont plus proches de l'androctonine native que ceux du mutant C10A/C16A; (b) les déplacements chimiques des résidus 17, 18, 19, 20 du mutant C10A/C16A (ayant conservé le pont 4–20) sont plus proches de l'androctonine native que ceux du mutant C4A/C20A. Dans un second temps, pour effectuer l'analyse des corrélations nOes à moyenne et longue distance qui donnent des éléments qualitatifs du repliement tridimensionnel, les spectres NOESY de chaque mutant ont été attribués dans le logiciel XEASY. Pour le mutant C4A/C20A, la majorité des contraintes longue distance porte sur les protons des chaînes latérales des résidus Q6, K8, C10, C16, Y17 et Y18. Aucun nOe interbrin caractéristique d'un feuillet n'a été observé. Aucun nOe longue distance ne porte sur les parties N - (résidus 1 à 5) et C - (résidus 19 à 25) terminales. Sans le pont 4–20, les parties N et C terminales ne sont plus maintenues et le feuillet s'ouvre. Un repliement antiparallèle est conservé localement à proximité du pont 10-16 restant (figure 2). Pour le mutant C10A/C16A, la majorité des contraintes à longue distance porte sur les protons des chaînes latérales de Q6, I9, Y17 et Y18. Comme pour le premier mutant, aucun nOe interbrin caractéristique d'un feuillet n'a été détecté. Le pont 4–20 bloque les parties N et C terminales et conserve ainsi à la molécule un repliement antiparallèle, mais la structuration en feuillet n'est pas maintenue en l'absence du pont 10–16 (figure 2). Le petit nombre de nOe dans la boucle centrale reflète vraisemblablement une grande variabilité de cette zone. Le rôle « rigidifiant » du pont 10–16 a été perdu. Même si le feuillet n'est pas formé, la conservation du repliement antiparallèle permettrait de maintenir la répartition globale des chaînes latérales les unes par rapport aux autres. Les profils des potentiels d'hydrophobie et électrostatiques seraient, en partie, conservés pour les mutants à un pont, ce qui expliquerait qu'ils conservent une activité, même atténuée, sur les bactéries E. Coli, alors que l'androctonine linéaire perd toute activité. Les différences d'activité observées pour les trois mutants et l'androctonine native sur E. Coli pourraient être liées à leur capacité à interagir avec la membrane externe, majoritairement composée en surface de lipopolysaccharides (LPS), et à la traverser. En effet, il a été proposé que les tachyplésines, peptides antimicrobiens de limules de structure semblable à l'androctonine, se fixent sur les LPS 〚7〛, ce qui pourrait être également valable pour l'androctonine. Le repliement antiparallèle de l'androctonine serait un élément important de l'interaction avec les têtes anioniques des LPS, en particulier la conservation des pôles positifs présents aux extrémités de la molécule. Ces pôles seraient conservés (au moins partiellement) sur les mutants à un pont, mais pas sur le mutant linéaire désordonné qui, de ce fait, ne parviendrait pas à franchir la membrane externe. On ne peut toutefois pas exclure que l'androctonine linéaire soit l'objet d'une dégradation prématurée par les protéases, que l'absence totale de pont faciliterait. La première étape du processus antibactérien avant l'interaction avec la membrane cytoplasmique serait une déstabilisation de la membrane externe par déplacement des ions divalents qui la maintiennent et la traversée de cette membrane. Nous avons montré que les ponts disulfure sont indispensables au maintien du feuillet β de l'androctonine. L'absence d'un pont conduit à une molécule partiellement déstructurée, mais qui conserve une conformation en épingle à cheveux lâche. En revanche, la molécule sans pont est complètement déstructurée. La structuration de l'androctonine, qui n'est pas indispensable pour l'activité contre la bactérie à Gram positif M. Luteus, est un facteur conditionnant l'activité contre la bactérie à Gram négatif E. Coli, possédant une membrane externe composée en particulier de LPS. Nos résultats montrent l'importance de la structuration en épingle à cheveux de l'androctonine pour qu'elle puisse interagir de façon optimale avec cette membrane. Il serait maintenant important d'élargir les tests d'activité à d'autres bactéries à Gram négatif ainsi qu' à des souches de E. Coli, où les LPS sont altérés .
L'androctonine est un peptide antibactérien de 25 résidus extrait de l'hémolymphe du scorpion Androctonus australis. Afin de mettre en évidence les déterminants structuraux nécessaires pour le maintien du repliement en épingle à cheveux et pour l'interaction avec la membrane bactérienne, nous avons analysé les déplacements chimiques et les nOes de trois mutants synthétiques de l'androctonine, dans lesquels les ponts disulfure ont été sélectivement supprimés.
chimie_02-0311652_tei_elsevier_02-0311652_CRAS-IIc-Chim.tei.xml
termith-322-chimie
L'étude du comportement anodique des métaux est un vaste domaine d'un grand intérêt pour les études de corrosion, comme l'a souligné Rangarajan et coll. (1). Cet auteur a rassemblé un grand nombre d'exemples de courants périodiques apparaissant lors d'un balayage anodique des potentiels, en milieu aqueux. Ce phénomène est observé avec différents métaux tels que le zinc (2), l'or (3), le fer (4), et le nickel (5). Sauf pour le zinc qui présente des oscillations en milieu alcalin, tous les autres exemples ont été décrits en milieu acide (1, 3-5). D'autres études dans les acides chlorhydrique et sulfurique ne citent pas de telles oscillations mais soulignent le rôle des ions chlorure dans l'accélération du processus de corrosion (6-9). Un comportement identique a été signalé dans des mélanges méthanol - acide chlorhydrique (10) ou en milieu neutre (11). Dans ce dernier cas un film protecteur d'oxyde peut apparaître, mais la présence d'ions chlorure, bromure et fluorure a une grande influence sur la vitesse de destruction du film. Plusieurs tentatives pour donner une explication théorique satisfaisante au comportement du nickel ont été proposées récemment par Saraby-Reintjes (11), mais les modèles requièrent la connaissance de plusieurs constantes du système et de ce fait se révèlent difficiles à appliquer. Il apparaît aussi que la corrosion par piqûre du nickel est influencée par la taille des grains comme l'ont souligné Cid et Petit (12), qui ont traité thermiquement du nickel polycristallin pour accroître la taille des grains. Ainsi lacorrosion se produit en général d'abord aux joints de grains et se trouve très ralentie après un tel traitement. Dans le présent article on décrit les oscillations du courant qui peuvent être observées quand un fil de nickel est immergé dans une solution d'ions chlorure dans laquelle la concentration en ion iodure est croissante, et que le potentiel appliqué est rendu progressivement anodique. Les balayages de potentiel ont été appliqués avec un polarographe Tacussel (France), type PRG5, associé à un enregistreur EPL2 de même marque. Les vitesses usuelles ont été 1 ou 2 mV/s. Une cellule a trois électrodes a été employée, avec une électrode de référence au calomel, saturée. L'électrode auxiliaire était un fil de platine et l'électrode de travail un fil de nickel de 0,5 mm de diamètre de pureté 99,99 % Aldrich (U.S.A.). La longueur immergée était de 5 mm dans tous les essais et la surface de l'électrode de 7,85 mm 2. Les réactifs ont été choisis de qualité analytique. Le pH des solutions a été a vérifié et trouvé situé entre 6 et 7, exception faite pour NH 4 C1 1 M (tableau 2), pour lequel il était de 5. L'eau était déionisée puis distillée. L'oxygène n'était pas chassé par l'azote, et les essais ont été effectués à 20 ± 0,1°C. Le potentiel de départ a été fixé à - 0,1 V/ecs, une valeur à laquelle aucune réaction électrochimique ne se produit. La vitesse maximum de balayage n'a jamais excédé 2 mV/s pour s'approcher des conditions d'un état quasi-stationnaire lors de la dissolution. Les courbes intensité-potentiel tracées dans des solutions de concentration croissante en KC1 montrent que le nickel se dissout progressivement plus rapidement. On observe toujours un premier pic proche de 0,0 V/ecs, dont l'importance est en relation avec la concentration des ions chlorure, et si celle -ci est faible le pic n'est pas observable (figure 1). Il semble que ce pic peu important correspond à la formation d'une couche d'hydroxyde de nickel Ni(OH) 2 en surface. Le second pic très intense correspond à la dissolution totale du nickel (figure 1). En solution non agitée on observe sous le fil de nickel la formation d'une colonne liquide verticale de densité supérieure à celle de la solution. Cette observation visuelle est d'autant plus nette que la dissolution est importante. La faible stabilité des ions complexes du nickel en présence d'ions chlorure et iodure incline a penser que le nickel est simplement sous forme d'aquocomplexes. Les ions Ni 2+ formés descendent par gravité au fond de la cellule, où ils réagissent avec les ions hydroxyles apparus à l'électrode auxiliaire qui est alors cathodique. L'hydroxyde de nickel apparaît progressivement mais le pH au voisinnage du fil de nickel ne varie pas si la cellule est de dimension suffisante (environ 100 mL d'électrolyte support), et si l'électrode auxiliaire n'est pas trop proche. La correction de chute ohmique ne s'impose pas ici compte tenu de la conductivité élévée de l'électrolyte et de la faible vitesse de balayage. Une concentration de 1 M en KC1 a été retenue pour l'étude de l'influence des ions iodure. Un essai préliminaire dans Kl 0,024 M, soit 4 g/L, a montré que le nickel ne se dissout que très lentement. L'addition de quantités croissantes de Kl dans KC1 1 M révèle une grande différence par rapport aux tracés précédents dans KC1 seul (figure 2). En premier on n'observe plus le pic de faible intensité, à 0,0 V/ecs, mais on remarque que la dissolution débute assez brutalement vers +0,15 V/ecs. Puis la courbe intensité-potentiel devient quasi-rectiligne et de pente positive. La figure 3 montre l'évolution progressive des courbes. Il faut noter l'apparition d'oscillations de façon assez brutale au sommet de la partie rectiligne. Le potentiel auquel se produisent ces oscillations est d'autant moins anodique que la concentration en ions iodure s'accroit. Sur la figure 3 les oscillations sont schématisées pour simplifier le dessin. En fait leur fréquence fait que l'enregistrement apparaît comme une zone teintée et il faut augmenter nettement la vitesse d'enregistrement pour les discerner. Durant les oscillations le courant moyen décroit et un second pic se forme d'importance croissante avec l'augmentation de la concentration en ion iodure. Parallèlement on constate que la zone d'oscillations diminue pour pratiquement disparaître si [I -] > 0,12 M environ. Les deux pics sont alors toujours observables et la dissolution est totale. Durant les oscillations on observe que lorsque le courant décroît le fil est de couleur métallique et lorsqu'il croît la couleur devient noire. Des examens sur plaque de nickel de 0,5 cm 2 de surface ont confirmé cette observation. La dissolution du fil reste progressive et de symétrie radiale. On note l'apparition d'iode sous la forme I 3 ~ lors des oscillations et pas avant dans la partie rectiligne croissante du courant. De nouveau la densité plus élevée de la colonne liquide sous le fil de nickel permet l'accumulation d'iode au fond de la cellule. Toutefois les quantités d'iode formé restent très faibles, ce qui indique qu'il ne s'agit ici que d'une réaction secondaire minoritaire. Pour observer plus précisément les oscillations on a balayé en potentiel jusqu' à la zone où elles se produisent, puis enregistré à grande vitesse en maintenant le potentiel fixe. En fait la valeur moyenne du courant reste élevée (figure 3). On constate sur la figure 3 que ces oscillations sont assez régulières à court terme : 10-20 oscillations, mais elles évoluent un peu au cours du temps. Parfois une oscillation irrégulière apparaît. La forme du courant dépend du potentiel appliqué et de la concentration en iodure. On a même constaté entre des trains d'oscillations des périodes de quelques secondes durant lesquelles le courant reste constant (exemple à +0,86 V/ecs, figure 3.) L'étude par fluorescence X d'une plaque de nickel de 5 mm de coté, soumise à des balayages de potentiels arrétés à +0,45 et +0,55 V/ecs dans KC11 M et Kl 0,024 M montre que Ni(OH) 2 est présent (raie à 0,2340 nm). Le nickel seul donne deux raies à 0,2020 et 0,1750 nm. Si on se réfère à la courbe 2, figure 3, on constate que 0,45 V/ecs est situé avant les oscillations tandis que +0,55 V/ecs est au début de celles -ci. Ceci montre que les ions iodure attaquent essentiellement le nickel métal. Comme l'alternance de couleur, métallique et noire, traduit lors des oscillations le passage d'un état poli à un état granulaire avec de très fines particules (type nickel de Raney), on est conduit à penser que ce sont les joints de grains qui sont préférentiellement attaqués. Lors de changements alternés de la couleur de la surface il a été observé, par examen à la loupe, que l'iode se forme quand la surface du nickel a l'aspect métallique, ce qui provoque des variations de teinte de la colonne liquide sous l'électrode. Ces observations suggèrent un double mécanisme pour la dissolution du nickel lorsqu'il est porté à un potentiel suffisamment négatif pour que deux réactions se produisent. Dans la partie montante de la courbe i-E et jusqu'au début des oscillations il se produit la réaction simple : Compte tenu de la valeur du produit de solubilité de Ni(OH) 2 qui est de l'ordre de 10 " 14 et du fait que le milieu KC1 + Kl peut être considéré neutre, la formation de l'hydroxyde en surface s'explique par le fait que c'est en surface que la concentration instantannée de Ni 2+ est la plus forte. Quand la zone des oscillations débute, une deuxième réaction concurrence la première : Cependant la faible quantité d'iode observée suggère qu'il y a réaction chimique selon : Cette réaction se produit préférentiellement aux joints de grains que l'on peut considérer comme plus fragiles que les microcristaux. Ceci est en accord avec les remarques de Cid et Petit (12) qui indiquaient que le recuit du nickel diminuait la corrosion par piqûre. Comme il s'agit d'un phénomène qui se produit à l'interface métal-solution, on peut penser que l'addition de composés organiques, tels que les agents tensioactifs, peut modifier ou supprimer les oscillations en limitant l'apparition d'iode, ou en uniformisant l'attaque du nickel. Comme le montre le tableau 1 plusieurs composés à la concentration de 1 g/L ont été essayés. Il s'avère que seuls le SOBS, ou p-octylbenzenesulfonate de sodium, et l'amidon provoquaient une disparition des oscillations. Le SOBS est très actif car dés 0,001 M (figure 4) il fait disparaître les fluctuations de courant tandis que l'amidon a un rôle progressif entre 1 et 40 g/L. Tous les agents tensioactifs n'ont pas été testés sur une large gamme de concentration et on s'est limité à ceux qui donnaient le résultat le plus net à 1 g/L. Les sels d'ammonium quaternaire qui sont chargés positivement ne peuvent s'adsorber à ces potentiels et sont donc sans influence. On peut également signaler que l'addition de faibles quantités de thiourée supprime les oscillations et décale la courbe vers les potentiels cathodiques, c'est à dire rend plus aisée la dissolution du nickel et parait inhiber l'action des ions iodure (figure 4). Enfin on a recherché d'autres milieux salins dans lesquels les oscillations pouvaient apparaître (tableau 2). Deux remarques peuvent être faites. La première est que seuls les milieux riches en ions chlorure ou bromure permettent les oscillations à la condition d' être associés aux ions iodure. La seconde est que la présence d'ions iodure n'est pas une condition suffisante puisque les milieux sulfate et acétate n'ont pas permis d'observer la moindre oscillation. L'insolubilité de certains sels ne peut être évoquée puisqu'avec les ions chlorure, iodure, acétate et sulfate, le nickel donne des composés très solubles, et le fluorure moins soluble (4 g/L) ne peut intervenir dans un blocage partiel de la dissolution, qui reste totale dans toutes les expériences. En conclusion, l'étude de l'oxydation anodique du nickel en présence d'ions chlorure et iodure a révélé un comportement particulier du métal, et les oscillations du courant ont été attribuées à des réactions parallèles avec formation intermédiaire d'iode, dont la réactivité se manifeste par une attaque du métal dans ses zones les moins résistantes .
Etude réalisée par voltamétrie à faible balayage (<2 mV/s). On observe que la dissolution du nickel est liée à la concentration en chlorure et que l'addition d'iodure modifie la forme des courbes. Influence de la concentration en iodure sur les oscillations de courant observées. Discussion de l'effet produit par l'addition d'agents de surface
chimie_89-0333831_tei_11.v88-246.tei.xml
termith-323-chimie
La fraction asphalténique d'un brut pétrolier est un mélange extrêmement complexe, dont la structure est très mal définie (macromolécules avec des cycles aromatiques, naphténiques et hétéroatomiques condensés, substitués par des chaînes alkyles et des hétéroatomes). La définition des asphaltènes n'est en effet fondée que sur un critère de solubilité. Une forte teneur en asphaltènes (pouvant aller jusqu ' à 30 % du pétrole brut) est à gine de nombreux problèmes rencontrés lors de l'exploitation de l'industrie du pétrole. En outre, dans le domaine de la protection de l'environnement, on constate que lors d'un accident pétrolier, les asphaltènes représentent la fraction majeure qui subsiste après quelques mois d'exposition aux agents naturels de dégradation. Le rôle de la photo-oxydation, qui est l'un de ces agents, n'a été que peu étudié [1 ]. Le but de ce travail est l'étude de l'effet de la photo-oxydation jusqu ' à 11 mois sur l'évolution d'asphaltènes de dix bruts pétroliers, d'origines géographiques et géochimiques diverses (BAL 150, BAM 580, Bach Ho, Ekofisk, Handil, Koweït, Oman, Rospo Mare, Shengli et Zarzaïtine). Des asphaltènes de pétroles d'origines diverses ont été étudiés (tableau !). Les précipitations des asphaltènes ont été effectuées selon la norme AFNOR NFT 60-115 [2 ]. Dans un ballon de 250 mL, 5 g de brut pétrolier et 200 mL de w-heptane sont mis sous agitation, puis portés à reflux (90 °C) pendant 2 h 30 min. Après 12 h de repos, la solution est filtrée sur filtre en microfibres de verre (Whatman GF/A de 0,45 pm de porosité). Le précipité restant sur les parois du ballon est entraîné avec l'heptane chaud, le solide sur filtre est rincé abondamment avec l'heptane, puis dissous dans le dichlorométhane. La solution de dichlorométhane est concentrée à l'évaporateur rotatif et ensuite séchée sous azote, jusqu' à l'obtention d'un solide noir de masse constante. Les asphaltènes ont été irradiés à l'air libre et à température ambiante durant 5 et 11 mois, au moyen de deux tubes fluorescents Osram L80/ 79R (300-400 nm) et L58W/10 Daylight (400-700 nm) couvrant l'ensemble du spectre UV et visible (30 Ein-m~ 2 - J~ ') et disposés à 40 cm au-dessus des échantillons. Les spectres IRTF sont acquis selon la technique de la lame sèche. Chaque fraction est reprise par du dichlorométhane, afin d'obtenir une solution de concentration comprise entre 25 et 50 mg-mL - 1. Une quantité de 25 pL de cette solution est déposée sur une lame de KBr et le solvant est évaporé sous azote. Ces proportions sont rigoureusement respectées pour une bonne reproductibilité des spectres. Les spectres IRTF sont enregistrés au moyen d'un spectromètre Nicolet 20SXB avec une résolution de 2 cm - 1 et après 128 accumulations. Après chaque acquisition, il convient de s'assurer de l'absence totale de bandes IR dues au dichlorométhane. Les spectres IRTF des différents asphaltènes présentent tous des bandes d'absorption dont les attributions sont maintenant couramment admises [3—5 ]. Les groupements alkyle donnent lieu à des absorptions entre 3000 et 2800 cm " 1 (vibrations de valence), à 1454 et 1380 cnrT 1 (vibrations de déformation) et à 720 cm - 1 (rocking des groupements méthylène, dans le cas d'un enchaînement au moins égal à 4 CH 2). Les liaisons CH aromatiques conduisent à un épaulement entre 3100 et 3000 cm - 1 (vibration de valence) et à trois bandes comprises entre 900 et 730 cm - 1 (déformations hors du plan), dont les positions sont sensibles à la substitution du cycle. Leurs attributions, généralement faites en terme de sites adjacents non substitués [3] [4] [5] sont : 748 cm - 1 (4 ou 5 CH adjacents), 812 cm " 1 (2 CH adjacents) et 866 cm - 1 (1 CH isolé). L'attribution de la bande vers 1600 cm " 1 a fait l'objet de nombreuses controverses [4, 6, 7 et références citées ]. Il est maintenant admis que cette bande est due aux vibrations de valence des liaisons CC aromatiques, et que son intensité est considérablement exhaltée lors de la présence de groupements polaires sur les cycles aromatiques (phénols) [8 ]. La bande observée à 1032 cm " 1 est reliable aux groupements sulfoxyde [9 ], et le massif entre 3500 et 3100 cm " 1 aux groupements hydroxyle. Entre 1800 et 1600 cm"1 apparaissent différentes absorptions, plus ou moins bien résolues, qui résultent de fonctions carbonyle, et dépendent de l'état d'oxydation de chaque asphaltène. Les spectres IRTF des asphaltènes étudiés se répartissent en trois groupes, compte tenu de leur allure entre 1800 et 1600 cm " 1 {figure 1). Les spectres des asphaltènes de BAL 150, Handil et Ekofisk présentent une seule bande à 1695 cm " 1, qui peut être reliée à des groupements carbonyle conjugués avec des noyaux aromatiques de type arylalkylcétone ou naphténoarylcétone. Les spectres des asphaltènes Oman, Koweït, BAM, Rospo Mare et Shengli se caractérisent par deux épaulements, l'un à 1695 cm " 1 et l'autre vers 1650 cm " 1. Cette dernière absorption résulte vraisemblablement de motifs carbonyle encore plus conjugués de type diarylcétone [10 ]. Les asphaltènes de Bach Ho et Zarzaïtine donnent lieu à des spectres présentant, outre la bande à 1695 cm " 1, une absorption à 1742 cm " 1 due à la présence de groupements ester [10 ]. L'utilisation d'indices structuraux, obtenus au moyen de rapports d'aire de bandes IR, s'est avérée particulièrement efficace dans le cas d'études concernant les charbons [11] et les bitumes [5 ]. Nous avons intégré, entre 1800 et 650 cm " 1, certaines régions spectrales {figure 2) et défini des indices : oxydation (Aj/AT), aromaticité (A 2 /AT), sulfoxyde (A 5 /AT), aliphaticité (A 3 + A 4 /AT), ramification (A 4 /A 3 + A 4), CH aromatiques (A 6 /AT), longueur de chaîne et substitution 1 (A 7 /A 6), 2 (A 8 /A 6) et 3 (A y /A 6). Les valeurs de ces indices sont données dans le tableau II et permettent de dégager plusieurs observations. - D'après l'indice d'oxydation, l'asphaltène Zarzaïtine apparaît le plus oxydé (indice égal à 58 pour une valeur moyenne de 20 pour l'ensemble des autres asphaltènes). - L'asphaltène BAL 150 apparaît très riche en groupements sulfoxyde (indice égal à 20 comparativement aux asphaltènes Bach Ho et Ekofisk dont les indices sont respectivement égaux à 5 et 4). - Les asphaltènes Bach Ho et Handil sont les plus « aliphatiques » (indice d'aliphadcité respectivement égaux à 181 et 172, pour une valeur moyenne de 96 pour l'ensemble des autres asphaltènes), contrairement aux asphaltènes BAM et Ekofisk (indices respectivement égaux à 75 et 76). - Les asphaltènes Bach Ho et Zarzaïtine, riches en groupements aliphatiques, possèdent, en outre, un taux de ramification important, ce qui n'est pas le cas pour l'asphaltène Handil. — Ces deux mêmes asphaltènes possèdent logiquement les taux d'aromaticité les plus faibles (indices d'aromaticité égaux à 30 et 40, pour une valeur moyenne de 67 pour l'ensemble des autres asphaltènes). L'indice d'aromaticité est à considérer avec précaution, car l'intensité de la bande à 1600 cm " 1 dépend non seulement du taux de cycles aromatiques, mais aussi de la présence de groupements polaires fixés sur les cycles. - Les indices de « longueur de chaînes » (aire de la bande à 720 cm " /A, + A 4) n'ont pu être déterminés que dans le cas des asphaltènes ayant, dans leur spectre IRTF, une bande à 720 cm " 1 bien individualisée. Cela n'a été possible que dans le cas des asphaltènes les plus « aliphatiques », possédant un indice d'aliphaticité supérieur à 107. - Les indices de condensation et de substitution sont intéressants lorsqu'on peut les calculer tous les quatre de façon précise. Une valeur élevée de l'indice CH aromatique (aire CH aromatique/aire totale) indique la présence de cycles aromatiques peu substitués. On peut remarquer que les asphaltènes BAM, Ekofisk et Rospo Mare, qui ont des indices CH aromatique élevés (respectivement égaux à 115, 106 et 137), possèdent conjointement des indices d'aliphaticité relativement faibles (respectivement 75, 76 et 82) et des indices de substitution 3 plus élevés (respectivement 392, 371 et 313) que les indices de substitution 1 et 2. Cela est en faveur de structures aromatiques peu substituées avec des motifs à quatre ou cinq atomes d'hydrogène adjacents. Pour les asphaltènes BAL 150 et Oman, les indices CH aromatique sont relativement faibles (respectivement 99 et 93), les indices d'aliphaticité relativement forts (respectivement 99 et 93), et ce sont les indices de substitution 1 et 2 qui sont plus élevés (respectivement 358, 383 et 306, 288) que les indices de substitution 3 (respectivement 326 et 232). Cela est cohérent avec des structures aromatiques plus substituées avec, principalement, des atomes d'hydrogène isolés ou des motifs à deux atomes d'hydrogène adjacents. Pour l'ensemble des asphaltènes, on note, après exposition à la lumière, un accroissement de l'indice d'oxydation plus ou moins marqué. Ce sont les deux asphaltènes provenant de pétroles « lourds » (contenant les taux d'asphaltènes les plus élevés) qui présentent les variations les plus faibles. Au contraire, les asphaltènes les plus « aliphatiques » conduisent aux variations du taux d'oxydation les plus fortes et, parallèlement, à une importante baisse de l'indice d'aliphaticité. Les autres indices ne subissent pas d'évolution très caractéristique. La spectroscopie IRTF et les indices qui en découlent semblent être bien adaptés pour analyser structuralement les asphaltènes. Ils montrent une légère photo-oxydation des asphaltènes, sans toutefois mettre en évidence de profondes modifications structurales. De même que la biodégradation, la photo-oxydation reste un processus qui n'altère pas énormément les fractions pétrolières les plus lourdes. Pour déterminer plus précisément les effets de la photo-oxydation, un fractionnement des asphaltènes doit être envisagé afin d'obtenir des sous-structures plus facilement analysables. On pourra alors mieux apprécier l'importance du rôle de la lumière sur ces fractions lourdes du pétrole .
Les asphaltènes sont les fractions pétrolières les plus récalcitrantes aux agents naturels de dégradation et le rôle de la photo-oxydation (qui est l'un de ces agents) sur leur devenir est extrêmement mal connu. Nous avons étudié, dans ce travail, les effets de la photo-oxydation (5 et 11 mois) sur l'évolution d'asphaltènes de dix bruts pétroliers, d'origines géographiques et géochimiques différentes. Les spectres IRTF des différents asphaltènes pétroliers présentent les mêmes caractéristiques, sauf dans la région 1800-1600 cm-1, qui dépend de l'état d'oxydation de chaque asphaltène. Pour mieux différencier et caractériser ces asphaltènes, nous avons déterminé différents indices structuraux obtenus par intégration d'aires de bandes IRTF caractéristiques (indices caractéristiques de l'oxydation, de l'aromaticité, de l'aliphaticité, de la ramification, du taux en groupement sulfoxyde, de la longueur de chaînes, de la teneur en CH aromatique et de la condensation). Après photo-oxydation des asphaltènes, seuls les indices d'oxydation et d'aliphaticité montrent des variations significatives.
chimie_99-0176593_tei_elsevier_99-0176593_CRAS-IIc-Chim.tei.xml
termith-324-chimie
Les complexes organométalliques à base de ligands mono -, di-ou polysulfuro qui peuvent présenter une très grande diversité de mode de liaison offrent un intérêt indéniable dans des domaines extrêmement variés, tels que les procédés d'hydrodésulfuration (HDS) [1] et d'hydrogénation d'hydrocarbures insaturés [2 ], la biosynthèse de métalloprotéines [3] ou l'élaboration de matériaux inédits, à la base de complexes hétéropolymétalliques ou d'agrégats [4 ], Pour les métaux de transition de la gauche du tableau périodique, les complexes mono-et dicyclopentadiényles à ligand sulfuro, de par leur plus grande solubilité et leur aptitude à stabiliser certains systèmes possédant des types de coordination inhabituels, ont été largement étudiés au cours des dernières années. Dans ce domaine, notre groupe a rapporté la synthèse de différents édifices soufrés dérivés de métallocènes incorporant un élément du groupe 5, et plus particulièrement à base de tantalocène. Ainsi, le trihydrure Cp 2 TaH 3 1 (avec Cp'= /f-rm-BuC 5 H 4) en présence d'un excès de soufre élémentaire conduit à la formation d'un dérivé disoufré Cp 2 Ta( rj 2 - S 2 )H 2 [5 ], certains aspects de la réactivité (schéma 1) de ce complexe ont pu être étudiés sans permettre, à ce jour, d'apporter d'informations précises sur son mode de formation Dans cette présente note, nous décrivons les résultats que nous avons observés dans la réaction d'insertion d'un atome de soufre dans la liaison Ta-H et qui nous ont permis d'apporter une contribution à l'étude du mécanisme de la formation du complexe 2, ainsi que de synthétiser un nouveau complexe à ligand hydrogénosulfuro Cp2Ïa(CO)(SH) 5. Compte tenu de la très grande vitesse de réaction du soufre sur le trihydrure 1 à température ambiante, nous avons envisagé un suivi par RMN à basse température dans le but de mettre en évidence un intermédiaire dans la formation du complexe 2. Sur la figure 1 sont reproduits les spectres relevés en fonction de la température (entre 253 K et la température ambiante, sur une période de 1 h environ), dans la région des signaux relatifs aux protons cyclopentadiéniques. Dès 253 K, on constate la formation d'un dihydrure de tantalocène Cp 2 Ta(SH)H2 4 qui résulte de l'insertion d'un atome de soufre dans la liaison Ta-H centrale, dihydrure identifié au complexe récemment isolé lors de la réduction de Cp 2 Ta(=S)H en présence d'eau [6 ]. Par élévation de température, on constate la disparition progressive du trihydrure 1 en faveur du complexe 4. Vers 273 K, le dérivé disoufré 2 apparaît en faibles quantités dans un premier temps, puis en totalité après quelques minutes à température ambiante (le complexe 2 manifeste un comportement particulier en RMN 1 H en fonction de la température d'observation : on observe un éclatement des signaux des protons cyclopentadiéniques par refroidissement [7]). Ce résultat permet donc de proposer un mode de formation du complexe 2 en deux étapes successives 1 —> 4 — » 2. Afin de préciser le déroulement de ces deux étapes, nous les avons étudiées séparément de façon à déterminer leur stoechiométrie. Plusieurs expériences ont été réalisées à basse température (environ 275 K) en opposant le trihydrure 1 successivement à 1, 2 puis 3 équiv de soufre. Les pourcentages des différents complexes présents dans le milieu réactionnel ont été déterminés par intégration de leurs signaux en RMN 1 H (tableau I) et ont permis de conclure que la formation du dihydrure 4 nécessite 1 équiv de soufre, alors que celle du dérivé disoufré en consomme globalement trois (schéma 2). Le mécanisme probable de la transformation 4 —> 2, qui consomme, quant à elle, 2 équiv de soufre ferait intervenir les étapes suivantes : insertion d'un deuxième atome de soufre à partir de 4 conduisant au complexe monohydrure 3 après élimination de H 2 S, puis réaction avec le soufre pour donner finalement le dérivé disoufré 2. Bien qu'aucune des expériences conduites précédemment n'a révélé la formation intermédiaire de 3, des vitesses de réaction différentes de 3 ou 4 vis-à-vis du soufre peuvent fournir une interprétation. En effet, l'évolution d'un mélange 3 + 4 (complexes préparés selon [5] et [6] respectivement) en présence de soufre suivi par RMN à basse température montre clairement la transformation très rapide de 3 : dès 263 K, ce complexe a totalement réagit alors que 4 reste inchangé. En conclusion, il serait donc aisé d'envisager une nouvelle voie d'accès au complexe 4 : il suffirait a priori d'opposer le trihydrure 1 à 1 équiv de soufre, à basse température (environ 270 K). Cependant toutes les tentatives que nous avons effectuées ont entraîné la formation inévitable de quantités non négligeables de dérivé disoufré 2 (tableau I) dont l'élimination par les méthodes usuelles n'a pu être malheureusement réalisée. A 0 °C, une solution du complexe monohydrure dans le toluène est soumise à l'action d'un équivalent de soufre; on laisse ensuite le milieu réactionnel revenir à température ambiante. L'évolution de la réaction (schéma 3) est suivie par spectroscopie infrarouge; après disparition du réactif, le solvant est évaporé, puis le brut réactionnel est purifié par chromatographie (gel de silice; éluant : THF), afin d'éviter une décomposition importante du complexe par contact prolongé de la solution en présence de soufre. Un échantillon analytiquement pur peut être obtenu par recristallisation dans un mélange toluène/pentane. La structure du complexe 5 a été établie sur la base de données analytiques et spectroscopiques. Analyse centésimale : C : 46,23 % (th : 47,11 %); H : 5,80 (th : 5,32 %); S : 6,11 % (th : 6,62 %). Spectrométrie de masse (désorption de champ) : [M] + = 484, 2 (C 19 H 27 OSTa : 484, 12). IR (THF) : v co = 1 909 cm " 1. RMN ' H (200 MHz, C 6 D 6 : ¿5,20 (m, 2H, Cp '), 4,82 (m, 2H, Cp '), 4,73 (m, 2H, Cp '), 4,29 (m, 2H, Cp '), 0,98 (s, 18H, tert-Bu), - 2,38 (s, 1H, SH). On assiste donc à un nouvel exemple de réaction d'insertion du soufre dans une liaison Ta-H, permettant ainsi l'accès à un dérivé du tantalocène à ligand hydrosulfure; la littérature mentionne la synthèse d'un dérivé du niobiocène Cp 2 Nb(CO)(SH) obtenu selon un protocole expérimental différent, suite à une réaction de déthiocarbonylation du complexe Cp 2 Nb(CO)( S-CHS) correspondant [8 ], Cette note rassemble donc les premiers résultats obtenus dans le cadre des études que nous développons au laboratoire pour appréhender le mode de réaction du soufre élémentaire sur les complexes hydrures du tantalocène et préciser les mécanismes qui régissent le mode de formation des complexes disoufrés stables. Note remise le 5 juillet 1997, acceptée le 21 juillet 1997 .
La recherche entreprise sur la réactivité des hydrures de tantalocène avec le soufre élémentaire nous amène à la synthèse de complexes monosoufrés par une réaction d'insertion du soufre dans la liaison Ta-H. Des informations sont apportées sur le mécanisme de la formation de complexes à ligand (η2-S2 ) et la synthèse du complexe Cp'2Ta(CO)(SH) est décrite.
chimie_98-0019935_tei_elsevier_98-0019935_CRAS-IIb-Meca.tei.xml
termith-325-chimie
Un intérêt particulier est suscité par l'étude d'oxydes semi-conducteurs possédant la propriété d' être, notamment sous forme de couches minces, transparents dans le visible (grand gap optique, > 2,5 eV), tout en présentant un comportement de type métallique. Ils acquièrent, en effet, une conductivité de type métallique lorsqu'ils sont judicieusement dopés, le dopage n'affectant pas la transparence dans le visible. En outre, le caractère métallique leur confère une réflectivité dans le domaine infrarouge (IR). Ces propriétés permettent d'envisager leur application dans différents domaines, tels que (i) l'optoélectronique (électrodes transparentes pour les afficheurs à cristaux liquides ou pour les cellules solaires), (ii) le bâtiment et l'industrie automobile (films réfléchissants pour les fenêtres, électrodes pour vitrages électrochromes), (iii) l'agriculture (serres), etc. Parmi ces oxydes, l'oxyde d'indium dopé à l'étain, appelé communément ITO (indium–tin oxide) est le matériau le plus connu; ses propriétés remarquables en tant qu'électrode métallique transparente dans le visible et réfléchissante dans l'IR sont souvent citées comme références 〚1, 2〛. C'est ainsi, par exemple, que les films d'ITO d'épaisseur 0,3 μm conservent une transmission dans le visible nettement supérieure à 80 %, malgré une conductivité aussi élevée que 10 4 Ω –1 ·cm –1; en outre, compte tenu des valeurs élevées de la densité électronique dans la bande de conduction (∼10 21 e – ·cm –3) et de la mobilité électronique (∼15 cm 2 V –1 ·s –1), le seuil de réflectivité est situé dans le proche IR, avec une montée abrupte de la mobilité 〚1〛. Malgré l'ensemble de ces données physiques sur ITO et les importantes applications potentielles qui en découlent, trop peu de travaux sur la structure électronique du matériau ont été rapportés. L'objectif de cette étude est d'examiner la structure électronique de l'oxyde pur et dopé par l'étain, au moyen de différentes méthodes de calcul ab initio auto-cohérentes au sein de la théorie de la fonctionnelle de la densité (DFT) 〚3, 4〛 et à l'aide de méthodes non auto-cohérentes (méthode de Hückel étendue) 〚5, 6〛 comme élément de comparaison, dans le but d'attribuer les changements des états électroniques dans les bandes de valence et de conduction associés aux dopage. La structure cubique de In 2 O 3 est celle du minéral bixbyite (Fe,Mn) 2 O 3. Elle peut être décrite comme une fluorine (CaF 2, groupe d'espace Fm 3 m) lacunaire. Avec un empilement d'indium identique à celui du calcium, l'empilement incomplet d'atomes d'oxygène qui occupent les trois quarts des positions anioniques de la fluorine est obtenu en enlevant deux anions dans le cube de coordination du cation. Il en résulte une maille cristallographique plus grande (Z = 16 unités formulaires) par rapport à la fluorine (Z = 4). Le groupe d'espace est alors. Avec deux sites différents occupés par l'indium : In 1 (8b) et In 2 (24d), les distances In–O sont : In 1 –O = 2,19 Å, In 2 –O = 2.12, 2.19 et 2.21 Å. L'oxygène est situé en site 48e dans la notation de Wyckoff 〚7, 8〛. L'examen de la structure électronique du sesquioxyde d'indium In 2 O 3 a été entreprise en trois temps. Nous avons utilisé tout d'abord une méthode de calcul auto-cohérente au sein de la fonctionnelle de la densité (DFT), dite méthode de l'onde sphérique augmentée (ASW) 〚9, 10〛. La structure lacunaire de l'oxyde d'indium implique la représentation de l'espace interstitiel de la structure par des pseudo-atomes en grand nombre. L'utilisation d'une méthode permettant de s'affranchir de cet artefact, tout en restant dans le cadre de calculs ab initio, devait permettre de confirmer et préciser les calculs effectués par la méthode ASW. Cette méthode est celle de l'onde plane augmentée sans approximation de forme pour le potentiel (FLAPW : Full-Potential Linearized Augmented Plane Waves), implémentée dans le code WIEN97 〚11〛. Enfin la méthode – non auto-cohérente – de Hückel étendue (EHTB : Extended Hückel Tight-Binding Method) a été utilisée afin d'examiner essentiellement le dopage de In 2 O 3 par Sn, compte tenu de la lourdeur des calculs ASW/DFT lorsque la symétrie est réduite par l'introduction de l'étain dans la maille. Outre son utilisation de la DFT dans son approximation de la densité électronique locale (LDA) 〚12, 13〛, la méthode ASW est basée sur l'approximation de la sphère atomique (ASA). L'ASA stipule que chaque atome est entouré d'une sphère où une moyenne sphérique est opérée pour la densité et le potentiel; en outre, le volume occupé par les sphères doit être égal au volume de la maille. Il en résulte un problème de représentation de l'espace interstitiel pour les structures dites « ouvertes », comme la fluorine, la bixbyite, le rutile, la perovskite, etc. Afin d'éviter un recouvrement trop important des sphères atomiques, rendant le sens physique des résultats peu probant, des sphères vides (ES : Empty Spheres) sont introduites dans l'espace vide, afin d'y représenter la densité électronique. Les ES sont des pseudo-atomes sans états de cœur et dont les charges proviennent des atomes avoisinants. Par suite, il est important de souligner que le choix des rayons des sphères atomiques et des sphères vides n'est pas unique dans l'ASA; la discussion de tout transfert de charges doit être entreprise avec prudence. Auprès des sites atomiques décrits plus haut, des sphères vides ont été introduites dans l'ASA, conduisant ainsi à 64 espèces atomiques au total. La figure 1a montre les densités d'états (DOS) totales et projetées sur chaque site tenant compte de sa multiplicité dans la structure du sesquioxyde In 2 O 3; la figure 1b donne les courbes de dispersion. Les DOS, décrites dans une petite fenêtre énergétique, qui ne permettent pas de visualiser les états O(2s) ou In(4d) de basse énergie, ont pour objectif de montrer la bande de valence (BV) et la bande de conduction (BC). La bande de valence s'étend sur 6 eV. Les BV et BC sont séparées par un faible gap, dû à une forte dispersion du bas de BC, sur plus de 2 eV. Une meilleure observation de cette dispersion et du bas de la BC est obtenue au travers des courbes de dispersion. Celles -ci sont caractéristiques d'un semi-métal, mais il faut tenir compte ici de la sous-estimation systématique du gap par les méthodes issues de la DFT : comme illustré plus loin par l'utilisation d'une fonctionnelle d'échange-corrélation plus précise (GGA), le bas de la BC doit se situer sans ambiguïté plus haut en énergie, conduisant à une bande interdite significative. La forme de la dispersion et la nature des états de part et d'autre du gap n'étant pas remises en question, la méthode ASW prédit donc un gap direct en Γ. Notons que le gap a une amplitude de 3 eV aux points Z et P et légèrement inférieure à cette valeur pour les points X et N. La forte dispersion en bas de la BC est essentiellement due à des hybridations entre orbitales 2p de l'oxygène et 5s de In 2, cas pour lesquels les distances avec l'oxygène sont les plus courtes. En effet, l'indium subit dans ce site un plus grand transfert d'électrons vers O et les ES que In 1, qui ne possède pas de liaisons aussi courtes avec l'oxygène. La sous-estimation du gap obtenu par les calculs ASW/LDA montre l'intérêt de tester les résultats par une autre méthode ab initio de type DFT, la méthode FLAPW, laquelle ne fait pas appel à l'emploi de sphères vides et inclut d'autres fonctionnelles que la LDA. L'approximation utilisée par cette méthode est celle de sphères atomiques non recouvrantes : c'est l'approximation dite muffin-tin, où les sphères sont séparées ou tangentes. Le cristal est partagé en deux zones : l'une, interatomique, représentée par des ondes planes et l'autre, intra-atomique (fonctions radiales, harmoniques sphériques). Dans la mesure où aucune approximation de forme pour le potentiel n'est imposée, la méthode est dite Full-Potential LAPW. Le code WIEN97 〚11〛 propose, de plus, plusieurs schémas de paramétrisation pour le potentiel d'échange–corrélation : soit différents schémas de type LDA 〚12, 13〛, soit la Generalized Gradient Approximation (GGA) 〚14, 15〛, en principe plus précise que la LDA. La figure 2 montre les DOS totales obtenues au moyen de la méthode FLAPW en utilisant respectivement les deux fonctionnelles LDA (a) et GGA (b). Nous discuterons ici de l'aspect général des différents massifs constituant les densités états et des gaps énergétiques. Comme le montre la figure 2, les états O(2s), en dessous de –15 eV, sont éclatés, en raison des distances In–O différentes; les états In(4d 10), entre –15 et –10 eV, ont l'aspect d'un massif divisé en deux parties : pour la partie plus basse en énergie, une plus forte localisation (forte DOS) est observée pour les états In 1, qui se mélangent moins avec l'oxygène que In 2, dont les états se situent dans la partie plus haute en énergie. Ceci est l'effet de distances In 2 –O plus courtes. Cet aspect est aussi visible dans le haut de la BV (flèche). Les largeurs des différents massifs de la BV, surtout celui qui est situé dans la fenêtre énergétique située entre –6 eV et le haut de la BV, sont semblables dans les deux panneaux (a) et (b), d'une part, et sur la figure 1, montrant les DOS ASW, d'autre part. Une forte similitude entre résultats ASW et FLAPW est également obtenue pour la forte dispersion en bas de la BC. Les calculs FLAPW, dans le cadre de la LDA comme de la GGA, conduisent à un gap fini au niveau de Fermi. L'artefact constitué par le caractère semi-métallique obtenu par la méthode ASW est bien illustré ici : lorsqu'on lève une à une les approximations des méthodes DFT, la bande interdite s'ouvre et le gap s'approche des valeurs expérimentales. Le caractère systématique de la sous-estimation du gap par les méthodes DFT rend cet inconvénient relativement mineur et aisé à corriger qualitativement. Les DOS obtenues par la méthode FLAPW valident celles obtenues par la méthode ASW; le gap obtenu dans le cadre de la GGA est maintenant proche de 3 eV. La méthode EHTB 〚5, 6〛 est une méthode semi-empirique, non auto-cohérente de calcul de la structure électronique. Les éléments de matrice de l'Hamiltonien effectif sont calculés analytiquement à partir des potentiels d'ionisation et des recouvrements associés aux orbitales atomiques. Les orbitales choisies pour In 2 O 3 sont In(5s,5p), O(2s,2p); c'est une base plus limitée que dans ASW, où les orbitales In(4d) ont été prises en compte dans la base de valence. Le tableau regroupe les paramètres utilisés pour le calcul, effectué à l'aide du logiciel CAESAR 〚16〛. Les DOS obtenues par la méthode EHTB pour In 2 O 3 sont données sur la figure 3. La BV, à caractère essentiellement oxygène, montre une forte similarité avec les formes de DOS obtenues par ASW et FLAPW, hormis le pic en bas de BV associé aux orbitales 4d de l'indium, non prises en compte dans le calcul EHTB. Le gap est largement surestimé, comme très généralement dans les études réalisées par cette méthode; les grandeurs énergétiques obtenues auront ainsi un caractère qualitatif, exploitable seulement dans des études comparatives. En revanche, les grandeurs telles que la surface de Fermi, la nature des orbitales cristallines, la liaison chimique, la dispersion, les grandeurs gouvernées par la topologie et la nature des interactions orbitalaires, seront décrites quantitativement par la méthode EHTB 〚17, 18〛. Ainsi, comme pour la DOS de la bande de valence, le même type de dispersion est obtenu en bas de BC par les méthodes EHTB et ASW, ainsi que le montre la figure 4. Le gap est, comme en DFT, de nature directe, au point Γ de la zone de Brillouin. Les similitudes, dans la fenêtre énergétique encadrant le gap, entre DOS et courbes de dispersion obtenues par les méthodes issues de la DFT et la méthode EHTB justifient l'utilisation de cette dernière pour l'étude des mailles complexes décrivant le système In 2 O 3 :Sn. Cette étude a été effectuée à l'aide de la méthode EHTB, afin examiner d'une manière qualitative les effets de la substitution de In par Sn. Il s'agit notamment d'identifier les états en bas de bande de conduction, susceptibles de jouer un rôle lors des transitions optiques. La substitution par Sn a été simulée en remplaçant dans la maille – comprenant 16 motifs In 2 O 3 – un atome d'indium par un atome d'étain, respectivement en sites 8b et 24d. Les deux cas sont notés In 2 O 3 :Sn(8b) et In 2 O 3 :Sn(24d). Les figures 5 et 6 montrent que, dans les deux cas, une bande étroite, à caractère 5s de l'étain, apparaît en bas de la BC, voire nettement dans le gap pour In 2 O 3 :Sn(8b). Cette bande est à demi remplie, conduisant au caractère métallique des composés substitués. Sa position, nettement différente selon le site de substitution, souligne la nécessité de préciser celui -ci expérimentalement. Le haut des bandes à caractère 2p de l'oxygène correspond, comme dans le cas non substitué, au point Γ de la première zone de Brillouin. Pour In 2 O 3 :Sn(24d), la valeur de la bande interdite entre états 2p(O) et 5s(Sn) est similaire au gap du cas non substitué; celle valeur est diminuée d'environ 1 eV dans le cas In 2 O 3 :Sn(8b). Une simulation des effets de dopage pour des taux en étain plus faibles (plus proches des valeurs expérimentales) conduirait simplement à des bandes à caractère 5s(Sn) plus étroites, mais placées aux mêmes niveaux d'énergie que ci-dessus. La structure électronique calculée par la méthode EHTB, avec un niveau de Fermi dans une bande étroite à caractère 5s(Sn), en considérant une concentration réelle faible en dopant – fréquence plasma dans l'infrarouge –, est en accord avec les caractères métallique et transparent dans le visible du composé In 2 O 3 :Sn. Les résultats obtenus par la méthode ASW pour In 2 O 3 non substitué sont validés par les calculs FLAPW, effectués à un degré d'approximation moindre dans le cadre de la DFT. Les calculs EHTB conduisent à une dispersion en bas de la BC et à une DOS dans la région du gap suffisamment proches des résultats DFT pour justifier son utilisation pour l'étude de In 2 O 3 :Sn. Les calculs apportent des renseignements intéressants sur le composé pur : la forte dispersion des bandes concerne les directions partant du centre de la BZ (point Γ). Malgré la faible dispersion en haut de la BV, le gap apparaît comme direct. Des travaux portant sur le spectre d'absorption dans l'ultraviolet calculé pour SnO 2 〚19〛 font apparaître des transitions O(p) → Sn(s). De telles transitions sont susceptibles d'avoir lieu pour In 2 O 3 : O(2p) → In(s) ou encore pour In 2 O 3 :Sn : O(2p) → Sn(s). Il serait utile, par conséquent, de sonder la BC dans ces derniers composés par spectroscopie de photoélectrons X : XPS, UPS, EELS. Cette dernière spectroscopie, à perte d'électrons, est de mise en œuvre relativement aisée, puisque couplée à la microscopie électronique 〚20〛. L'obtention d'échantillons pour de telles analyses est en cours. Nous avons montré aussi que l'introduction de Sn apporte des modifications notables quant aux états se trouvant au bas de la BC, par l'apparition d'une bande à caractère 5s de l'étain, conduisant à un état métallique. L'un des apports de ce travail a été de souligner les limites de chaque méthode utilisée dans la description des propriétés électroniques de l'oxyde pur et dopé Sn. Notamment, l'abaissement de symétrie dans le cas substitué conduit à des problèmes de convergence pour une méthode de calcul moyennement lourde, comme la méthode ASW. Enfin, il sera utile de rechercher des méthodes plus adaptées à rendre compte plus généralement des effets de dopage, c'est-à-dire impliquant des quantités très inférieures à ce que l'on appelle substitution dans le langage du chimiste du solide, tout en restant dans le cadre de la théorie de la fonctionnelle de la densité. Les calculs ont été effectués sur les calculateurs du pôle de calcul scientifique intensif M3PEC (Modélisation microscopique et mésoscopique en physique dans l'environnement et en chimie) de l'université Bordeaux-1 .
Les structures électroniques du sesquioxyde In2O3 et de In2O3:Sn sont examinées dans le cadre de méthodes ab initio auto-cohérentes, basées sur la théorie de la fonctionnelle de la densité, ainsi qu'à l'aide de la méthode non autocohérente de Hückel étendue. Dans le cas non dopé, un gap direct et une forte dispersion en bas de bande de conduction sont obtenus. Dans le cas du composé dopé, une bande étroite, attribuée à l'étain, à demi remplie, apparaît en bas de bande de conduction, résultat en accord avec le caractère métallique et transparent observé expérimentalement.
chimie_01-0324399_tei_elsevier_01-0324399_CRAS-IIc-Chim.tei.xml
termith-326-chimie
L'étude du transport cationique induit par les antibiotiques polyéthers carboxyliques, à travers une membrane liquide épaisse, a été abordée au laboratoire dans le cadre plus général d'une recherche menée sur le mode d'action de ces composés. Un premier travail consacré aux ionophores X.537A, A.23187 et X. 14547A (1), classés comme des transporteurs des ions divalents (2), avait permis de mettre en évidence dans le système triphasique eau/CHCl 3 /eau : (; ') l'existence d'une courbe sigmoïdale de transport reliant le flux ionique Jq a - + au pH du compartiment d'extraction, et (; '; ') le décalage des courbes d'un ionophore à l'autre, attribué aux différences de stabilité des associations formées aux interfaces avec H + et Ca 2+. Récemment, une étude semblable a été abordée d'une manière approfondie pour des polyéthers couronnes de synthèse portant une ou deux fonctions —COOH (3). Des trois ionophores cités, A.23187 (composé 1, fig. 1) est le seul qui transporte préférentiellement les cations divalents et particulièrement Ca 2+ et Mg 2+ présents " in vivo " dans les compartiments cellulaires (4). Il paraissait donc intéressant d'étudier dans le système modèle évoqué la sélectivité de transport de ces deux ions et d'en préciser l'origine. Dans les conditions expérimentales utilisées mettant ou non en compétition les deux ions, on observe que J c. d i+ > J Mj ,?+ quel que soit le pH. J représente le nombre de moles transportées par s et par cm 2. Le même transport préférentiel a été mentionné dans des vésicules de D.M.P.C. (5), des B.L.M. (6), ou dans la membrane mitochondriale (7). Une étude récente fait apparaître une augmentation de cette sélectivité pour un analogue bromé sur le cycle benzénique de A.23187 (8). Par opposition, le présent travail montre qu'une méthylation du groupement —NHCH 3 (composé 2, fig. 1) entraîne une inversion de cette sélectivité. Les valeurs des constantes thermodynamiques de complexation mesurées dans le méthanol ne permettent pas de prévoir les sélectivités observées; la détermination des cinétiques d'échange dans une demi-cellule eau/chloroforme autorise une interprétation des résultats en relation avec la structure des complexes dimériques connus à l'état cristallin. Les variations du flux ionique J en fonction du pH du compartiment d'extraction sont représentées sur la fig. 1. Pour Ca 2+, J est inférieur à 10 " 12 mol s - 1 cm - 2 (limite de sensibilité de la méthode) lorsque pH < 6,6, puis il augmente jusqu' à pH 9 sans atteindre un palier distinct. Pour Mg 2+, on ne décèle aucun transport à pH < 7,4, au-delà duquel le flux reste faible. 11 existe donc un transport préférentiel en faveur de Ca 2+ qui se trouve confirmé si les deux cations sont présents en compétition dans la phase aqueuse d'extraction, la mesure du flux à pH 8,5 montre alors un transport exclusif de Ca 2+ avec une valeur J = 1 x 10 " " mol s " ' cm " 2. Une telle sélectivité n'est pas apparente pour les constantes de formation des complexes 1:1 et 2:1 mesurées dans le méthanol (1) exprimées sous la forme : La différence de flux ionique doit donc se créer au cours des échanges aux interfaces dans le processus global représenté sur la fig. 2 pour un transport par l'intermédiaire d'un complexe 2:1. Pour préciser ce point nous avons utilisé une approche expérimentale en étudiant les cinétiques d'échange dans une demi-cellule eau/CHCl 3, à partir de l'acide libre, pour obtenir une information sur l'entrée de M 2+ dans la phase organique ou, à partir du complexe 2:1, pour la libération du cation dans la phase aqueuse. Ces conditions expérimentales diffèrent donc nécessairement du processus dynamique qui s'établit au cours du transfert triphasique. L'information recueillie sous cette forme permet cependant de proposer une explication à la discrimination Ca 2+ /Mg 2+ qui s'opère. On mesure la cinétique d'entrée de Ca 2+ ou Mg 2+ dans la phase organique contenant l'antibiotique (4 x 1(T 4 M) à partir d'une solution aqueuse 10 " 2 M de ces cations tamponnée à pH 8,5 qui correspond à un maximum d'extraction. La pente des droites représentant la quantité de cation extrait en fonction du temps permet d'accéder aux flux initiaux d'entrée qui sont respectivement : J c j+ = 1,1 x 10 " 10 mol s " 1 cm " 2 y Mg 2 + = 1,2 x 10"'° mol s " ' cm " 2 Ces valeurs ne reflètent aucune différence notable entre les deux cations. La cinétique d'apparition de Ca 2+ ou Mg 2+ dans la phase aqueuse tamponnée à pH 7,0 est mesurée à partir des sels cristallisés de A.23187 dissous dans la phase organique à la concentration 2 X10 " 4 M. Les courbes ainsi obtenues sont représentées sur la fig. 3. La différence entre les vitesses de libération des deux ions est apparente, les flux initiaux sont respectivement : Ces valeurs ne reflètent aucune différence notable entre les deux cations. La cinétique d'apparition de Ca2+ ou Mg2+ dans la phase aqueuse tamponnée à pH 7,0 est mesurée à partir des sels cristallisés de A.23187 dissous dans la phase organique à la concentration 2 X 1 0 " 4 M. Les courbes ainsi obtenues sont représentées sur la fig. 3. La différence entre les vitesses de libération des deux ions est apparente, les flux initiaux sont respectivement : soit un rapport ./ Ca 2+/Ai,r + ~ 13. Le même type de courbe est obtenu dans l'intervalle de pH 7,0-1,0. Les flux initiaux mesurés sont indépendants de [H +] dans la phase aqueuse. Les premières études cinétiques entreprises en phase homogène dans le méthanol ou le mélange méthanol 70/eau 30 (w/w) par des techniques de flux stoppé ou saut de température (9) donnent pour la constante cinétique globale de dissociation du complexe 1:1 qui constitue l'étape limitante (en s " 1) : Ceci conduit les auteurs à admettre que si l'étape limitante dans le transport est la libération du cation, on doit attendre une sélectivité de l'ordre de 8 en faveur de Ca 2+. Les résultats mentionnés dans ce travail qui décrivent une cinétique globale de libération à l'interface eau/CHClj sont en accord avec cette proposition. Les différences de propriétés des ions Ca 2+ et Mg 2 + en biologie ont été fréquemment discutées notamment par Williams (10). Il note que Ca 2+ (1,06 A) s'associe aux ligandes avec un indice de coordination minimum de 6 mais plus fréquemment 7 ou 8 dans une géométrie irrégulière (angles et longueurs de liaison), alors que Mg 2+ (0,78 A) est généralement hexacoordiné dans une géométrie proche de l'octaèdre. Pour l'assemblage moléculaire très particulier que représente le dimère de A.23187 la proposition de Williams est respectée si l'on compare l'heptacoordination irrègulière de Ca 2+ (11) et l'hexacoordination octaédrique de Mg 2+ (12). Cet aspect a été examiné récemment par Gresh et Pullman (13) au moyen de simulations théoriques à partir des données cristallographiques. Ils montrent que la présence d'une molécule d'eau observée dans le cristal du complexe avec Ca 2+ comme 7ème site coordinant (11) est nécessaire pour assurer au complexe une stabilité comparable à celle du complexe avec Mg 2+; la possibilité d'un co-transport de molécules d'eau dans la migration intramembranaire est envisagée par les auteurs. Ces différences structurales observées à l'état cristallin constituent un argument en faveur d'une différenciation entre les vitesses de libération des ions Ca 2+ et Mg 2+ à partir de leurs complexes, si l'on admet des structures comparables en solution. Il serait intéressant de préciser le mécanisme de cette discrimination cinétique. Dans un premier temps nous nous proposons d'étudier la présence éventuelle de molécules d'eau dans l'espèce qui assure le transport; cela nécessite la mise au point d'un processus expérimental approprié. Les deux substituants —NHCH 3 et —COOH (ou —COO ") dans A.23187 (fig. 1, R = H) présentent une chélation intramoléculaire —NH (CH 3) @BULLET @BULLET @BULLET 0=C( @BULLET @BULLET @BULLET) qui les maintient dans le plan du benzoxazole, si l'on se rapporte aux résultats radiocristallographiques donnés sur l'acide libre (14) et les sels complexes (11, 12). L'introduction d'un deuxième groupement méthyle sur —NHCH 3 (15) (fig. 1, R = CH 3) supprime cette possibilité de chélation et entraîne une modification des propriétés d'association avec les cations qui apparaît à l'examen des constantes de formation des complexes 1:1 et 2:1 dans le méthanol (16) (équilibres [l] [3]). où l'on observe une nette déstabilisation des associations formées. Les résultats du transport cationique dans un système eau/CHCl 3 /eau par cet ionophore modifié sont représentés sur la fig. 1. L'ion Mg 2+ est transporté préférentiellement à Ca 2+, le flux maximun atteint étant supérieur à celui de Ca 2+ pour A.23187 bien que la stabilité des complexes soit très inférieure. On avait déjà observé un phénomène semblable pour X.537A Lorsque les deux cations sont présents en compétition dans la phase d'extraction, les flux initiaux mesurés à pH 8,5 sont respectivement La faible modification introduite sur la structure naturelle a donc pour effet d'inverser la sélectivité du transport Ca 2+ /Mg 2+ dans ce système membranaire. Comme précédemment, les flux initiaux correspondant aux phénomènes d'extraction et de libération des cations dans une demi-cellule eau/CHCl 3 ont été mesurés; on obtient les valeurs suivantes : Les flux d'entrée sont plus faibles si l'on se réfère à A.23187. Par ailleurs, tant à l'entrée qu' à la sortie de la phase organique les valeurs des flux sont en faveur de Mg 2+ ce qui peut entraîner un transport global préférentiel de ce cation. Ainsi la transformation de —NHCH 3 en —N(CH 3) 2 suffit pour créer des effets stériques et électroniques autour du —C0 2 H qui modifient la structure des complexes dimériques formés et par voie de conséquence les cinétiques d'échange aux interfaces, confirmant ainsi les observations faites pour A.23187. En conclusion, il est nécessaire d'insister sur le fait que ces résultats ne sont pas nécessairement transposables systématiquement à d'autres phases membranaires, en particulier à la membrane mitochondriale (4) où un bon ionophore des cations divalents doit posséder des constantes d'associations élevées avec ces cations, compte tenu de la compétition avec les sites propres de la mitochondrie; c'est le cas de A.23187, mais c'est un transporteur lent (9). Les premiers résultats obtenus avec N-Me A.23187 qui forme des complexes moins stables montrent effectivement que c'est un ionophore peu efficace dans cet organite. 1 Le transport préférentiel de Ca 2+ /Mg 2t mis en évidence pour A.23187 dans différentes conditions expérimentales (5-7) est très vraisemblablement attribuable à une cinétique de libération différente pour ces deux ions comme dans la membrane liquide chloroformique qui constitue sur ce point un modèle intéressant. produit L'antibiotique A.23187 1 est isolé à partir d'une culture en fermenteur de 20 L de la souche NRRL 3882 (Streptomyces chartreusis) (1). La préparation du dérivé 2 est décrite dans la réf. 15. Les sels de Ca 2+ et Mg 2+ sont préparés et isolés selon la technique de Deber et Pfeiffer (17). Le complexe cristallisé obtenu avec Mg 2+ a servi conjointement pour les déterminations radiocristallographiques (12). Pour la N-méthylcalcimycine 2, les sels de Ca 2+ et Mg 2+ sont préparés in situ en agitant au vortex une solution chloroformique 2 x 10 " 4 M du dérivé et une solution aqueuse tamponnée à pH 10,3 des sels Mg(CI0 4) 2 ou Ca(C10 4) 2 Merck, 10 " 2 M. La formation du complexe 2:1 dans la phase chloroformique est totale, elle est vérifiée sur une quantité aliquote par libération des cations à l'aide d'HCl 0,1 N et mesure de leur concentration par absorption atomique (appareil Perkin-Elmer 420). Les solutions aqueuses sont tamponnées par un mélange tricine-triéthanolamine Merck \0~ 2 M, le pH est ajusté avec une précision de 0,02 unités. Transport triphasique eau/CHCl.,/eau (fig. I) La cellule utilisée et les conditions du transport ont été décrites précédemment (1). La phase chloroformique est préalablement saturée d'eau, elle contient l'ionophore 1 ou 2 à la concentration 4 x 10~ 4 M. La phase aqueuse d'extraction ou d'entrée est une solution 10~ 2 M de Ca(C10 4) 2 ou Mg(C10 4) 2 Merck. On mesure les flux ioniques exprimés en mol s " 1 cm 2 à l'établissement du régime quasi-stationnaire dans la phase aqueuse de libération ou de sortie, maintenue à pH 7,0, pour chaque valeur du pH ' J. Guyot, travaux non publiés.de la phase d'entrée. Pour cela, un échantillon de 1 mL est prélevé dans la phase de sortie à intervalles de temps réguliers et dosé par absorption atomique, la même quantité de phase aqueuse tamponnée est introduite dans la cellule en compensation. Le pH de la phase d'entrée est contrôlée en permanence. Cinétiques de libération eau/CHCIj (fig. 3) Une solution chloroformique (6 mL) préalablement saturée d'eau contenant le complexe de Ca 2+ ou Mg 2+ des composés 1 ou 2 à la concentration 2 x 10 - 4 M et 6 mL d'une solution aqueuse à pH 7,0 (tampon tricine 10 - 2 M) sont mis en contact dans une cellule cyclindrique thermorégulée à 25°C (diamètre intérieur 2 cm, hauteur 6 cm). La phase organique est agitée par un agitateur magnétique tournant à 600 tours/min et la phase aqueuse par une baguette de verre (diamètre 3 mm) terminée par une pale rectangulaire de 6 x 3 mm mue par un moteur électrique synchrone tournant à 600 tours/min. La concentration des cations dans la phase aqueuse est mesurée par absorption atomique. Cinétiques d'extraction eau/CHCIj La même cellule que précédemment est utilisée. Une solution chloroformique (6 mL) de 1 ou 2 à la concentration 2 x 10 - 4 M et 6 mL d'une solution tamponnée à pH 8,5 (triéthanolamine-tricine) de Ca(C10 4) 2 ou Mg(C10 4 )2 10 - 2 M sont mis en contact et agitées comme ci-dessus. La vitesse d'apparition du cation dans la phase organique est mesurée en prélevant 1 mL de celle -ci que l'on traite par 1 mL de HC1 0,1 N pour libérer le cation et le doser. Pour faire des mesures en fonction du temps on opère avec une série de cellules synchronisées. Les valeurs de flux initiaux mentionnés portent sur trois mesures. Ce travail a été effectué dans le cadre de la R.C.P. 80/605 du C.N.R.S .
Le transport préférentiel de Ca2+/Mg2+ par A.23187 est mis en évidence dans une cellule eau/CHCl3/eau. Par des mesures de flux d'extraction et de flux de libération dans une demi-cellule eau/CHCl3, on montre que la sélectivité du transport est liée à une cinétique de libération nettement différente pour les deux ions, qui pourrait s'expliquer par la structure des complexes dimériques formés, si on se réfère aux études cristallographiques correspondantes. La méthylation du groupement −NHCH3 entraîne une inversion de la sélectivité de transport
chimie_86-0329986_tei_56.v85-570.tei.xml
termith-327-chimie
L'activité biologique des fibres d'amiante chrysotile est bien connue, et l'existence d'un effet synergique entre les fibres et les agents toxiques et (ou) cancérogènes a été démontrée par de nombreux chercheurs (1-3). Parmi les facteurs responsables de l'activité biologique des fibres d'amiante chrysotile, la réactivité de la surface des fibres a été particulièrement soulignée. Plusieurs chercheurs ont entrepris leurs recherches dans le but de changer la composition chimique de la surface des fibres d'amiante (4, 5). Parmi ces procédés, la phosphorylation des fibres, proposée et mise au point par Lalancette et Dunnigan (6), a connu beaucoup de succès. L'activité biologique de lamiante phosphaté est en effet diminuée de façon remarquable (7) et la réaction gaz-solide « POCl 3 vapeurs - amiante » permet la formation de polyphosphates qui encapsulent et obstruent les pores de ce minerai (8 et 9). Ménard et al. (10) ont également démontré que l'adsorption des hydrocarbures aromatiques polycycliques, en milieu liquide, sur l'amiante phosphaté est nettement diminuée. cette étude, nous présentons les mesures d'adsorption de différents hydrocarbures, avec groupements fonctionnels variables, sur l'amiante phosphaté, en utilisant la chromatographie en phase gazeuse. Ces résultats sont comparés avec ceux des fibres d'amiante brutes et chauffées à 700°C. Nous avons aussi comparé les isothermes d'adsorption obtenus de l'amiante et de l'amiante modifié avec les isothermes de fibres synthétiques proposées comme substituts (par exemple Kevlar et carbone) (11) ainsi qu'avec un gel de silice utilisé comme support chromatographique de référence. Nous avons utilisé un chromatographe à gaz muni d'un détecteur à ionisation de flamme de la compagnie Perkin Elmer modèle 3920B pour mesurer les isothermes d'adsorption, en utilisant l'hélium comme gaz vecteur et nous avons éliminé les traces d'eau et le gaz carbonique avec un tamis moléculaire 13X. Pour les injections, nous avons utilisé deux seringues Hamilton de 1 |XL et de IOJJLL. Le volume mort de la colonne est mesuré par injection de méthane. Les tracés chromatographiques sont enregistrése via un intégrateur Hewlett Packard modèle 3390A. Les isothermes d'adsorption sont mesurés à l'aide d'une série d'injections de benzène variant entre 0.1 et 5 (xL, utilisant la méthode du maximum du pic. Les enthalpies isostériques d'adsorption sont obtenues en appliquant l'équation de Clausius-Clapeyron (12, 13) pour une série des isothermes obtenus à des températures variables. Description des supports utilisés 1. L'amiante BC4-T provenant de la mine « British Canadian », a étédéfibrilé mécaniquement à l'aide d'un appareil B.O.P. (Bail Opener Penmen) et séché à 400°C. 2. L'amiante phosphaté a été préparé suivant les procédé de Lalancette et Dunnigan (6). Il faut noter que ces fibres ont été calcinées à 350°C après la réaction. 3. L'amiante traité thermiquement a été préparé par le chauffage de l'amiante à 700°C pendant 24 h. 4. Les fibres de carbone, Thornell grade VMAIIA. Ces fibres ont été broyées au mortier puis séchées à 400°C. 5. Les fibres de Kevlar, Dupont grade 6F-218, ont été séchées à 200°C, une température modéree pour éviter la décomposition thermique de ces fibres. 6. Le gel de silice, Merck, type 60, grade ART 9385, a été séchée à 300°C. La taille des particules se situe entre 40 et 63 n.m. Les traitements thermiques des supports entre 200 et 400°C éliminent les impuretés, comme l'eau sous forme moléculaire, éventuellement présentes sur la surface ou dans les pores des supports utilisés. FIG. 1. Isotherme d'adsorption du benzène à 180°C exprimée avec la masse d'absorbant utilisée sur divers supports; (1) amiante BC4-T, (2) amiante phosphaté, (3) amiante chauffé à 700°C, (4) fibre de carbone, (5) fibre Kevlar et (5) gel de silice. Isothermes d'adsorption du benzène Les figures 1 et 2 représentent les isothermes d'adsorption du benzène sur les différents supports utilisés. Sur la figure 1, la quantité adsorbée n est exprimée par unité de poids de support utilisé, en fonction de la pression partielle de benzène en kPa. La quantité adsorbée peut être également exprimée par unité de surface de l'adsorbant (figure 2), en faisant intervenir les valeurs de surface spécifique mentionnées au tableau 1; cette représentation permet une meilleure interprétation de la réactivité de la surface ou des sites de surface. Nous pouvons observer sur la figure 2a que les fibres de carbone, qui sont actives biologiquement (14), possèdent la plus grande affinité pour le benzène. L'adsorption du benzène sur les fibres de chrysotile brutes BC4-T est située en deuxième rang après les fibres de carbone; cependant, les deux supports de l'amiante phosphaté et chauffé n'adsorbent que très peu de benzène et leurs isothermes d'adsorption sont situés dans le bas de l'échelle comme le Kevlar et la silice. La figure 2b montre une expansion sur l'axe y (ordonnée) pour mieux distinguer les isothermes d'adsorption des produits très peu adsorbants; ce graphique nous montre aussi la linéarité de l'isotherme d'adsorption de la silice. Pour obtenir la figure 3, nous avons appliqué le modèle de Langmuir (15) aux isothermes non - linéaires. Les tracés de p / T (ou r est la quantité adsorbée par unité de surface) en fonction de p montrent une adsorption en deux étapes mise en évidence par l ' obtention de deux lignes brisées pour tous les adsorbants fibreux utilisés. Un isotherme de Langmuir typique ne donnerait qu ' une seule droite. Un comportement similaire avait été observé par Contour et al. (16) dans le cas de l ' adsorption de la diéthylaniline sur les fibres d ' amiante chrysotile lors d ' une étude par chromatographie en phase gazeuse. Dans un premier temps, l ' adsorption se produit sur la surface externe des fibres. Un phénomène de condensation capillaire à l ' intérieur des pores est reponsable de la deuxième étape de l ' adsorption. Ce phénomène est souvent rencontré pour les adsorbants qui possèdent une large distribution de taille et de forme des pores. L'isotherme d'adsorption de la silice étant linéaire (figures 1 et 2b), nous n'avons pas pu appliquer le modèle de Langmuir pour ce produit (14). FIG. 2. Isotherme d ' absorption du benzène à 180°C exprimée an excès de surface; (1) amiante BC4 - T et (4) fibre de carbone, (b) Isotherme d ' absorption du benzène à 180°C exprimée en excès de surface, avec expansion en ordonnée; (2) amiante phosphaté, (3) amiante chauffé à 700°C, (5) fibre Kevlar et (6) gel de silice. FIG. 3. Modèles théoretiques de Langmuir pour l ' adsorption du benzène sur divers adsorbants; (1) amiante BC4 - T (180°C), (2) amiante phosphaté (120°C), (3) amiante chauffé à 700°C (120°C), (4) fibre de carbone (180°C) et (5) fibre Kevlar (180°C). TABLEAU 2. Enthalpies isostériques moyennes d ' adsorption du benzène sur l ' amiante et l ' amiante modifié - A H T Adsorbant (kJ / mol) (°C) L'affinité de l'amiante chrysotile brut et modifié vis-à-vis les différents solutés Dans un premier temps, les enthalpies isostériques moyennes d ' adsorption (12) du benzène pour les trois échantillons de l ' amiante BC4T brut, phosphaté et chauffé à 700°C, sont mesurées (tableau 2). Durant les expériences, nous avons constaté que nos mesures sont limitées en ce qui concerne les échelles de température utilisées pour chaque support. Nous avons constaté que pour l ' amiante BC4 - T brut, le temps de retention mesurable se situe durant l ' expérience entre 180 et 240°C, pour l ' amiante phosphaté entre 90 et 140°C et pour l ' amiante traité thermiquement entre 120 et 180°C. Le tableau 2 présente les isostériques moyennes d ' adsorption du benzène sur les trois types d ' amiante avant et après modification. Néanmoins les enthalpies isostériques moyennes mesurées à la température moyenne pour chaque support, montrent une diminution de l ' affinité de l ' amiante après modification, surtout après traitement thermique à 700°C. Ceci provient probablement de la modification structurale intervenant à cette température (transformation chrysotile — » forstérite). Le tableau 3 illustre les volumes de rétention spécifiques mesurés sur l ' amiante et l ' amiante modifié, pour différents solutés ayant des groupements fonctionnels variables. Nous pouvons constater que les volumes de retention spécifiques mesurés étant faibles pour le n - hexane et cyclohexane, nous n ' avons pas pu observer une différence marquée entre les trois adsorbants. Cependant dans le cas du benzène et du toluène, une diminution marquée des volumes de rétention est observée. Pour les solutés ayant des groupements fonctionnels azotés et oxygénés, nous avons observé une adsorption significative pour les trois adsorbants de façon que dans plusieurs cas le pic chromatographique n ' est même pas élué. Ce dernier peut être interprété comme une interaction très forte entre les trois supports et les groupements azotés et oxygénés des solutés et (ou) une chimisorption. La diminution des volumes de rétention de l ' amiante modifié (phosphaté et chauffé) vis - à - vis de benzène et toluène met en évidence l ' intervention des groupements hydroxyles dans des liaisons hydrogènes par l ' intermédiaire des électrons TT de ces molécules. Il faut noter que dans le cas de l ' amiante phosphaté, les groupements hydroxyles sont déjà engagés dans une intéraction entre POCl 3 et l ' amiante et que la surface de l ' amiante est encapsulée par les produits phosphatés formés. L ' amiante chauffé à 700°C est presque complètement déhydroxylé et les groupements OH de la surface ont été expulsés sous forme d ' eau à l ' extérieur de la structure. L ' interaction faible et la diminution légère de volumes de rétention dans le cas de dichlorométhane peut être reliée à la polarité de cette molécule. Pour le n - hexane et le cyclohexane l ' absence des groupements fonctionnels et d ' électrons TT conduit à une affinité et une adsorption très faible entre ces solutés et les supports étudiés. Les tracés des isothermes par chromatographie en phase gazeuse du benzène sur l ' amiante brut et modifié montrent la grande affinité de l ' amiante non traité pour le benzène et la probabilité de la formation des liaisons hydrogènes par l ' intermédiaire des électrons TT et les groupements hydroxyles. Nous avons aussi observé que les fibres de carbone actives biologiquement, adsorbent une quantité significative de benzène. La comparaison des enthalpies isostériques moyennes d ' adsorption du benzène sur l ' amiante avant et après modification montre l ' affinité accrue des fibres brutes pour le benzène et une diminution d ' adsorption après modification surtout pour les fibres chauffées à 700°C. La comparaison du pouvoir adsorbant des trois supports de l ' amiante et l ' amiante modifié vis - à - vis différents solutés organiques montre la possibilité de chimisorption par l ' intermédiaire des groupements fonctionnels azotés ou oxygénés ainsi que la formation des liaisons hydrogènes entre les hydroxyles de l ' amiante et les électrons TT de ces molécules comme nous avons expliqué dans le cas de benzène. Les auteurs remercient pour leur appui financier le Conseil national de recherches en sciences naturelles et en génie du Canada, l'Institut de l'amiante et l'Institut en santé et sécurité au travail .
Etude, des tracés des isothermes d'adsorption du benzène sur les fibres d'amiantes brutes et modifiées par traitement thermique et chimique, ainsi que sur des fibres proposées comme substitut à l'amiante (Kevlar, Carbone). Comparaison de leur pouvoir adsorbant et de la possibilité de chimisorption
chimie_88-0408004_tei_18.v88-258.tei.xml
termith-328-chimie
Les amines secondaires optiquement pures sont d'une grande importance dans le domaine de la synthèse organique [1 ]. En effet, elles peuvent être utilisées, soit comme agents de résolution [2,3 ], soit comme intermédiaires pour la préparation de substances biologiquement actives [4,5] ou comme auxiliaires chiraux pour la synthèse asymétrique [6,7 ]. Au cours de ce travail, nous avons effectué la synthèse d'une série d'amines secondaires optiquement pures à partir des imines correspondantes. Rappelons qu'on accède généralement aux imines par condensation des amines primaires avec des aldéhydes ou des cétones; les études cinétiques sont en accord avec un mécanisme en deux étapes [8] (schéma 1). L'équilibre est déplacé dans le sens de la formation de l'imine par élimination de l'eau, qui se forme, soit par distillation azéotropique [9,10 ], soit en utilisant des dessiccants tels que le sulfate de magnésium anhydre, les tamis moléculaires (4 Å) [11,12 ], le tétrachlorure de titane en présence de triéthylamine [5 ], le chlorure de zinc [13 ], des catalyseurs complexes [14 ], etc. Toutes ces condensations ont été réalisées dans un solvant organique, alors que d'autres condensations sur support solide (alumine) en milieu sec ont été décrites dans la littérature [15 ]. Bien que les méthodes signalées précédemment aient permis d'obtenir des imines avec de bons rendements chimiques, elles présentent néanmoins certains inconvénients, dus notamment : –à l'utilisation de solvants toxiques (benzène, toluène…); –aux temps de réaction trop longs, généralement compris entre 24h et une semaine [10]; –aux étapes multiples de lavage et de filtration. Afin d'écourter les temps des réactions et d'opérer dans de meilleures conditions, nous avons opté pour l'utilisation des micro-ondes comme source d'énergie. En effet, cette technique est largement appliquée dans le domaine de la chimie organique, en synthèse inorganique, en géochimie et en pharmacie (marquage des produits) [16 ], etc. Ce mode de chauffage peut être appliqué, soit à des réactions lentes à niveau thermique élevé, soit pour déplacer un équilibre chimique par évaporation des substances polaires et volatiles, ce qui est le cas de notre travail (schéma 2). À titre d'exemple, nous citons deux cas caractéristiques de synthèse d'imines (schémas 3 et 4) : Dans le cas du deuxième exemple, nous n'avons pas observé de racémisation, même partielle, du centre asymétrique de départ, ceci en comparant le pouvoir rotatoire spécifique de l'imine préparée en utilisant la technique micro-ondes avec celui de l'imine préparée selon la méthode classique. Au cours de ce travail, nous avons préparé les imines suivantes (figure 1). Les rendements correspondants sont consignés dans le tableau I. Nous avons préparé quatre amines secondaires énantiomériquement pures en réduisant les N - arylidène-1-cyclohexyléthylamines correspondantes optiquement pures (R) ou (S) préparées ci-dessus par NaBH 4 dans le méthanol (schéma 5). La réduction des N - α - méthylarylidène-1-cyclohexyléthylamines énantiomériquement pures conduit aux amines secondaires correspondantes, selon le schéma réactionnel suivant (schéma 6). Les rendements sont consignés dans le tableau II. Les amines secondaires formées renferment chacune deux carbones asymétriques : un carbone, de configuration connue, existant préalablement dans l'imine de départ, et un nouveau centre, créé au cours de la réaction. Par conséquent, on a formation de deux diastéréoisomères dans des proportions variables. La diastéréosélectivité observée au cours de ces réactions est probablement due au fait que le centre de chiralité initialement présent dans la molécule d'imine est relativement proche du site réactionnel. L'examen de la littérature [17,18] montre que l'attaque nucléophile s'effectue préférentiellement du côté le moins encombré. En appliquant la règle de Cram [19 ], nous avons constaté que lorsque la configuration absolue de l'imine de départ est (R), le diastéréoisomère majoritaire aura la configuration (R, R) [11 ]. Nous avons tenté avec succès la séparation des amines diastéréoisomères par chromatographie en phase gazeuse (CPG) couplée à la spectrométrie de masse (voir partie expérimentale). Nous remarquons chaque fois la présence de deux pics distincts, correspondant aux deux diastéréoisomères. Le spectre de masse du diastéréoisomère premier élué confirme bien la structure. Il est identique à celui du second diastéréoisomère (deuxième élué). Nous remarquons dans tous les cas que le diastéréoisomère majoritaire est élué en deuxième position en CPG (figure2). Les résultats de la séparation sont reportés dans le tableau III. Toutes les amines secondaires chirales mises en œuvre donnent d'excellentes résolutions (Rs), ce qui montre que ces amines peuvent être utilisées comme agents de dérivatisation chiraux, comme ce fut le cas pour la 1-phényléthylamine pour la détermination des puretés optiques, ainsi que pour la détermination des configurations absolues des acides, des acides aminés, etc. Optimisation de la synthèse diastéréosélective Comme suite logique des travaux réalisés dans notre laboratoire [20 ], qui montrent l'influence des conditions expérimentales sur la variation de l'excès diastéréoisomérique, nous avons fait varier les conditions expérimentales (solvant, température et agent de réduction), afin de trouver les conditions expérimentales qui conduisent à l'excès diastéréoisomérique le plus élevé (tableau IV). Influence du solvant En utilisant le méthanol à la place de l'éthanol, tout en conservant la même température et le même agent de réduction, on remarque que l'excès diastéréoisomérique passe de 21,2 % à 46,6 %. C'est pour cela qu'on a utilisé le méthanol comme solvant dans la suite du travail. Influence de la température Lorsqu'on abaisse la température de +20°C à −70°C, l'excès diastéréoisomérique passe de 46,6 à 48 %. Cette variation est peu significative. Influence de l'agent réducteur L'utilisation du cyanoborohydrure de sodium (NaBH 3 CN) comme agent de réduction augmente la diastéréosélectivité de la réaction; on passe de 46 à 52,6 %. Ceci est dû probablement à l'encombrement stérique du radical cyano durant le processus de réduction. Au cours de ce travail, nous avons utilisé le chauffage par micro-ondes comme source d'énergie pour préparer une série d'imine et des imines optiquement pures. Cette technique a permis d'accéder aux composés désirés, avec des rendements comparables à ceux des méthodes classiques, mais en des temps beaucoup plus courts. La réduction de ces imines a permis de préparer avec de bons rendements chimiques les amines secondaires correspondantes, optiquement pures. Les amines secondaires obtenues sont des produits nouveaux, qui vont être valorisées comme agents de résolution ou comme auxiliaires chiraux pour la synthèse asymétrique. Nous avons réalisé une optimisation des conditions expérimentales (température, solvant et agent de réduction), afin d'aboutir aux meilleurs rendements. Les points de fusion ont été déterminés sur un appareil Büchi et n'ont pas été corrigés. Les spectres de masse ont été réalisés en impact électronique, sur un appareil Hewlett Packard 5792, couplé à un chromatographe en phase gazeuse HP-5890A, constitué d'une colonne capillaire de longueur 25m, remplie d'une phase stationnaire : 5 % diphényl/95 % diméthylpolysiloxane. T injecteur =250°C; T détecteur =280°C; 120°C (2min) → (5°C·min –1) → 260°C (15min). Le four micro-onde utilisé est un four domestique Rowenta MW76, de puissance restituée 750W. Les spectres de résonance magnétique nucléaire ont été réalisés en solution dans le chloroforme deutérié (CDCl 3), soit sur un appareil Bruker Spectroscopin AC 250 (250MHz), soit sur un appareil Hitachi Perkin Elmer R 24 B (60MHz). Le standard interne utilisé est le tétraméthylsilane (TMS) et les déplacements chimiques δ (ppm) sont positifs vers les champs bas par rapport au TMS. Les spectres infrarouges ont été réalisés à l'aide d'un appareil Perkin Elmer 197 et d'un appareil Biorad à transformée de Fourier FTS 6000. Dans un réacteur cylindrique en Pyrex adapté au réacteur micro-ondes, on introduit 20mmol d'aldéhyde fraı̂chement purifié avec 25mmol d'amine sans solvant. Le mélange réactionnel est homogénéisé, puis irradié sous micro-ondes, avec agitation mécanique durant le temps requis (2 à 3 min). On place dans un ballon monocol 20mmol de la cétone et 25mmol de (R)-1-cyclohexyléthylamine, ainsi que 0,5mmol d'acide p - toluènesulfonique. On ajoute ensuite 100mL de toluène, puis on adapte sur ce ballon l'appareil de Deanstark et un réfrigérant. On chauffe au reflux (pendant 5 à 8h), jusqu' à ce que la quantité théorique d'eau soit recueillie dans le piège (ou jusqu' à disparition des réactifs par CCM). On laisse refroidir, puis on chasse le toluène à l'évaporateur rotatif. 1°) N - benzylidène-1-naphtylamine : Ia 1. Rdt : 90 %; cristaux marrons; P f =73–74°C; (hexane/acétate d'éthyle 80/20); RMN 1 H (CDCl 3) : δ (ppm)=8,43 (s, 1H, CHN); 6,9–8,36 (m, 12H, aromatiques); IR (cm –1) : ν CN =1626; ν CC arom =1576. 2°) N - 2-nitrobenzylidène-1-naphtylamine : Ia 2. Rdt : 73 %; cristaux jaunes; P f =100°C (éthanol); RMN 1 H (CDCl 3) : δ (ppm)=8,84 (s, 1H, CHN); 7,05–8,69 (m, 11H aromatiques); IR (cm –1) : ν CN =1630; ν CC arom =1 595. 3°) N - 3-nitrobenzylidène-1-naphtylamine : Ia 3. Rdt : 77 %; cristaux jaunes; P f =115°C (éthanol); RMN 1 H (CDCl 3) : δ (ppm)=8,62 (s, 1H, CHN); 7,03–8,53 (m, 11H aromatiques); IR (cm –1) : ν CN =1630; ν CC arom =1580. 4°) N - 4-nitrobenzylidène-1-naphtylamine : Ia 4. Rdt : 86 %; cristaux jaunes; P f =160°C (éthanol); RMN 1 H (CDCl 3) : δ (ppm)=8,53 (s, 1H, CHN); 7,01–8,54 (m, 11H aromatiques); IR (cm –1) : ν CN =1535; ν CC arom =1605. 5°) N - 4-chlorobenzylidène-1-naphtylamine : Ia 5. Rdt : 88 %; cristaux jaunes; P f =105°C (éthanol); RMN 1 H (CDCl 3) : δ (ppm)=8,46 (s, 1H, CHN); 6,9–8,33 (m, 11H aromatiques); IR (cm –1) : ν CN =1640; ν CC arom =1600. SM : C 17 H 12 NCl; PM=265; obs m / z =265 (M + =100 %); m / z =127 (M + C 7 H 5 NCl=72 %). 6°) N - benzylidènephénylamine : Ib 1. Rdt : 82 %; cristaux blancs; P f =51–52°C (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=8,42 (s, 1H, CHN); 7,13–7,96 (m, 12H aromatiques); IR (cm –1) : ν CN =1630; ν CC arom =1585. 7°) N - 2-nitrobenzylidènephénylamine : Ib 2. Rdt : 84 %; cristaux jaunes; P f =45°C (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=8,9 (s, 1H, CHN); 7,16–8,36 (m, 9H aromatiques); IR (cm –1) : ν CN =1630; ν CC arom =1610. 8°) N - 3-nitrobenzylidènephénylamine : Ib 3. Rdt : 75 %; cristaux jaunes; P f =82°C (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=8,66 (s, 1H, CHN); 7,06–8,36 (m, 9H aromatiques); IR (cm –1) : ν CN =1630; ν CCarom =1580; SM : C 13 H 10 N 2 O 2; PM=226; obs 226 (M + =15,53 %); m / z =77 (M + C 7 H 5 N 2 O 2 : 100 %). 9°) N - 4-nitrobenzylidènephénylamine : Ib 4. Rdt : 83 %; cristaux jaunes; P f =88°C (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=8,5 (s, 1H, CHN); 7,06–7,53 (m, 9H aromatiques); IR (cm –1) : ν CN =1635; ν CCarom =1590; SM : C 13 H 10 N 2 O 2; PM=226; obs 226 (M + =100 %); m / z =77( M + =C 7 H 5 N 2 O 2; 59 %). 10°) N - 4-chlorobenzylidènephénylamine : Ib 5. Rdt : 79 %; cristaux jaunes; P f =59°C (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=8,28 (s, 1H, CHN); 6,85–7,77 (m, 9H aromatiques); IR (cm –1) : ν CN =1630; ν CC arom =1585. 11°) N - α-méthylbenzylidènephenylamine : Ib 6. Rdt : 64 %; cristaux jaunes; P f =40°C (pentane); RMN 1 H (CDCl 3) : δ (ppm)=2,2 (s, 3H, CH 3); 6,9–7,3 (m, 5H); 7,42–8,1 (m, 5H); IR (cm –1) : ν CN =1635; ν CC arom =1600. 12°) N - α-méthyl-3-nitrobenzylidènephenylamine : Ib 7. Rdt : 70 %; cristaux jaunes; P f =88°C (éther de pétrole/acétate d'éthyle; 90/10); RMN 1 H (CDCl 3) : δ (ppm) : 2,3 (s, 3H, CH 3); 6,75–8,8 (m, 10H); RMN 13 C (CDCl 3) : δ (ppm)=(17,34, CH 3); (119,2; 122,2; 123,8; 124,9; 129,12; 129,41; 133; 141,1; 148,47; C arom); (150,83; CN); (163,23; CNO 2) IR (cm –1) : ν CN =1640; ν CC arom =1610. 13°) N - α-méthyl-4-nitrobenzylidènephenylamine : Ib 8. Rdt : 66 %; cristaux jaunes; P f =91–92°C (éther de pétrole/acétate d'éthyle; 80/20); RMN 1 H (CDCl 3) : δ (ppm)=2,66 (s, 3H, CH 3); 6,73–7,4 (m, 5H); 8–8,36 (m, 5H); IR (cm –1) : ν CN =1640; ν CC arom =1610. 14°) (R) - N - 3-nitrobenzylidène-1-cyclohexyléthylamine : Ic 1. Rdt : 60 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=8,32 (s, 1H, CHN); 7,82–8,28 (m, 4H aromatiques); 1,05–2,2 (m, 15H); IR (cm –1) : ν CN =1650; ν CCarom =1615; [α] D =+91° (C=1; CHCl 3). 15°) (R) - N - 4-nitrobenzylidène-1-cyclohexyléthylamine : Ic 2. Rdt : 64 %; cristaux jaunes; P f =35–37°C (éthanol/eau; 80/20); RMN 1 H (CDCl 3) : δ (ppm)=8,25 (s, 1H, CHN); 7,8–8,23 (m, 4H); 0,9–2,1 (m, 15H); IR (cm –1) : ν CN =1650; ν CC arom =1610; [α] D =−46°, (C=1; CHCl 3). 16°) (S) - N - 4-nitrobenzylidène-1-cyclohexyléthylamine : Ic 3. Rdt : 67 %; cristaux jaunes; P f =35–37°C (éthanol/eau; 80/20); RMN 1 H (CDCl 3) : δ (ppm)=8,25 (s, 1H, CHN); 7,8–8,23 (m, 4H); 0,9–2,1 (m, 15H); IR (cm –1) : ν CN =1650; ν CC arom =1610; SM : C 15 H 20 N 2 O 2; PM=260; obs 260 (M + =3,12 %); m / z =177 (M + C 6 H 11 =100 %); [α] D =+43°(C=1; CHCl 3). 17°) (S) - N - 3-nitrobenzylidène-1-cyclohexyléthylamine : Ic 8. Rdt : 61 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=8,32 (s, 1H, CHN); 7,82–8,28 (m, 4H arom); 1,05–2,2 (m, 15H); IR (cm –1) : ν CN =1650; ν CC arom =1615; [α] D =−82° (C=1; CHCl 3). 18°) (S) - N - α-méthyl-2-nitrobenzylidène-1-cyclohexyléthylamine : Ic 4. Rdt : 55 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=2,36 (s, 3H, CH 3); 7,1–7,9 (m, 4H arom); 0,8–2,3 (m, 15H cyclohexyle); IR (cm -1) : ν CN =1645; ν CC arom =1610. 19°) (R) - N - α-méthyl-3-nitrobenzylidène-1-cyclohexylethylamine : Ic 5. Rdt : 58 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=2,48 (s, 3H, CH 3); 7,21–8,1 (m, 4H arom); 0,7–2,1 (m, 15H cyclohexyle); IR (cm –1) : ν CN =1640; ν CC arom =1610. 20°) (S) - N - α-méthyl-3-nitrobenzylidène-1-cyclohexylethylamine : Ic 6. Rdt : 56 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm) 2,48 (s, 3H, CH 3); 7,21–8,1 (m, 4H arom); 0,7–2,1 (m, 15H cyclohexyle); IR (cm –1) : ν CN =1640; ν CC arom =1610. 21°) (R) - N - α-4-nitrobenzylidène-1-cyclohexylethylamine : Ic 7. Rdt : 62 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm) 2,65 (s, 3H, CH 3); 7,33–8,2 (m, 4H arom); 0,7–2,5 (m, 15H cyclohexyle); IR (cm –1) : ν CN =1640; ν CC arom =1610. Dans un ballon de 250mL, on introduit 10mmol d'imine et 50mL de méthanol anhydre. On laisse refroidir, puis on ajoute 20mmol de borohydrure de sodium. Après deux heures d'agitation, on ajoute 100mL d'une solution saturée de NaCl et on extrait deux fois avec 20mL de dichlorométhane. La phase organique est séchée sur du sulfate de magnésium anhydre. Après filtration, le solvant est chassé à l'évaporateur rotatif et le résidu obtenu est chromatographié sur colonne [SiO 2 /hexane–acétate d'éthyle (80:20) ]. 1°) N - benzyl-1-naphtylamine : Aa 1. Rdt : 82 %; aiguilles grises; P f =64–65°C; (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm) 3,9 (s, 1H); 4,41 (s, 2H); 6,5–7,83 (m, 12H); IR (cm –1) : ν NH =3431; ν CN =1407. 2°) N - 2-nitrobenzyl-1-naphtylamine : Aa 2. Rdt : 61 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm) 4,03 (s, 1H); 4,52 (s, 2H); 6,56–7,9 (m, 11H); IR (cm –1) : ν NH =3  445; ν CN =1340. 3°) N - 3-nitrobenzyl-1-naphtylamine : Aa 3. Rdt : 63 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm) : 4,11 (s, 1H); 4,48 (s, 2H); 6,53–7,88 (m, 11H); IR (cm –1) : ν NH =3450; ν CN =1340. 4°) N - 4-nitrobenzyl-1-naphtylamine : Aa 4. Rdt : 70 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm) 4,1 (s, 1H); 4,47 (s, 2H); 6,51–7,86 (m, 11H); IR (cm –1) : ν NH =3450; ν CN =1345. 5°) N - 4-chlorobenzyl-1-naphtylamine : Aa 5. Rdt : 83 %; cristaux gris; P f =49°C; (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=3,89 (s, 1H); 4,39 (s, 2H); 6,5–7,78 (m,11H); IR (cm –1) : ν NH =3460; ν CN =1340. 6°) N - benzylphénylamine : Ab 1. Rdt : 82 %; cristaux blancs; P f =37–38°C; (méthanol); RMN 1 H (CDCl 3) : δ (ppm) 3,93 (s, 1H); 4,26 (s, 2H); 6,56–7,33 (m, 10H); IR (cm –1) : ν NH =3405; ν CN =1320. 7°) N - 2-nitrobenzylphénylamine : Ab 2. Rdt : 80 %; cristaux orangés; P f =36°C; (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=4,43 (s, 1H); 4,6 (s, 2H); 6,53–8,06 (m, 9H); IR (cm –1) : ν NH =3435; ν CN =1360; SM : C 13 H 12 N 2 O 2; PM=228; obs 228 (M + =38,8 %); m / z= 180 (M + NO 2; 100 %); m / z =77 (M + C 7 N 2 O 2 H 7 =80,5 %). 8°) N - 3-nitrobenzylphénylamine : Ab 3. Rdt : 84 %; cristaux orangés; P f =82°C; (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=4,26 (s, 1H); 4,45 (s, 2H); 6,6–8,24 (m, 9H); IR (cm –1) : ν NH =3420; ν CN =1350; SM : C 13 H 12 N 2 O 2; PM=228; obs 228 (M + =88,34 %); m / z =106 (M + C 6 H 4 NO 2 =100 %). 9°) N - 4-nitrobenzylphénylamine : Ab 4. Rdt : 83 %; cristaux orangés; P f =86°C; (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=4,23 (s, 1H); 4,46 (s, 2H); 6,56–8,21 (m, 9H); IR (cm –1) : ν NH =3380; ν CN =1345. 10°) N - 4-chlorobenzylphénylamine : Ab 5. Rdt : 60 %; cristaux jaunes; P f =52°C; (éther de pétrole); RMN 1 H (CDCl 3) : δ (ppm)=3,9 (s, 1H); 4,1(s, 2H); 6,88–7,55 (m, 9H); IR (cm –1) : ν NH =3410; ν CN =1340. 11°) N - α-phenéthylphénylamine : Ab 6. Rdt : 61 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=3,96 (s, 1H); 4,23–4,29 (q, 1H); 1,3–1,42 (d, 3H); 6,41–7,37 (m, 10H); IR (cm –1) : ν NH =3380; ν CN =1320. 12°) N - α-(3-nitrophenéthyl)-phénylamine : Ab 7. Rdt : 63 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=4,1 (s, 1H); 4,45–4,8 (q, 1H); 1,3–1,42 (d, 3H); 6,41–7,37 (m, 9H); IR (cm –1) : ν NH =3420; ν CN =1335. 13°) N - α-(4-nitrophenéthyl)-phénylamine : Ab 8. Rdt : 65 %; huile jaune; RMN 1 H (CDCl 3); δ (ppm)=4,06 (s, 1H); 4,36–4,7 (q, 1H); 1,43–1,5 (d, 3H); 6,33–8,16 (m, 9H); IR (cm –1) : ν NH =3420; ν CN =1330; SM : C 14 H 14 N 2 O 2; PM : 242, obs 242 (M + =37,86 %); m / z =227 (M + CH 3 =100 %). 14°) (R) - N - 3-nitrobenzyl-1-cyclohexyléthylamine : Ac 1. Rdt : 61 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=3,9 (s, 1H); 4,1(s, 2H); 0,9–2,2 (m, 15 H); 7,3–8,3 (m, 4H aromatiques); IR (cm –1) : ν NH =3450; ν CN =1370. 15°) (R) - N - 4-nitrobenzyl-1-cyclohexyléthylamine : Ac 2. Rdt : 63 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=3,6 (s, 1H); 3,88 (s, 1H); 0,8–2,5 (m, 15H); 7,4–8,18 (m, 4H aromatiques); IR (cm –1) : ν NH =3440; ν CN =1380; SM : C 15 H 22 N 2 O 2; PM=262; obs 262 (M + =0,1 %) m / z =179(M + C 6 H 11 : 100 %). 16°) (S) - N - 4-nitrobenzyl-1-cyclohexyléthylamine : Ac 3. Rdt : 60 %; huile jaune. RMN 1 H (CDCl 3) : δ (ppm)=3,6 (s, 1H); 3,88 (s, 2H); 0,8–2,5 (m, 15H); 7,4–8,18 (m, 4H arom); IR (cm –1) : ν NH =3440; ν CN =1380; SM : C 15 H 22 N 2 O 2; PM=262; obs 262 (M + =0,1 %); m / z =179 (M + C 6 H 11 =100 %). 17°) (S) - N - α-(2-nitrophenéthyl)-1-cyclohexyléthylamine : Ac 4. Rdt : 58 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm)=4,2–4,7 (m, 3H); 0,8–2,2 (m, 18H); 7,2–8,1 (m, 4H arom); IR (cm –1) : ν NH =3460; ν CN =1400; SM : C 16 H 24 N 2 O 2; PM=276; obs 276 (M + =0,05 %); m / z =193 (M + C 6 H 11 =100 %). 18°) (R) - N - α-(3-nitrophenéthyl)-1-cyclohexyléthylamine : Ac 5. Rdt : 68 %; huile jaune; RMN 1 H (CDCl 3) : δ (ppm) : 4–4,6 (m, 3H); 0,7–2,1 (m, 18H); 7,1–7,95 (m, 4H arom); IR (cm –1) : ν NH =3470; ν CN =1390; SM : C 16 H 24 N 2 O 2; PM=276, obs 276 (M + =0,05 %); m / z =193 (M + C 6 H 11 =100 %). 19°) (S) - N - α-(3-nitrophenéthyl)-1-cyclohexyléthylamine : Ac 6. Rdt : 70 %; huile jaune; RMN 1 H (CDCl 3); δ (ppm) : 4–4,6 (m, 3H); 0,7–2,1 (m, 18H); 7,1–7,95 (m, 4H arom); IR (cm –1) : ν NH =3470; ν CN =1390; SM : C 16 H 24 N 2 O 2; PM=276, obs 276 (M + =0,05 %); m / z= 193 (M + C 6 H 11 =100 %). 20°) (S) - N - α-(4-nitrophenéthyl)-1-cyclohexyléthylamine : Ac 7. Rdt : 77 %; huile jaune; RMN 1 H (CDCl 3); δ (ppm)=3,3–4,2 (m, 3H); 0,8–2,6 (m, 18H); 7,4–8,2 (m, 4H arom); IR (cm –1) : ν NH =3460; ν CN =1380; SM : C 16 H 24 N 2 O 2; PM=276; obs 276 (M + =0,05 %); m / z =193 (M + C 6 H 11 =100 %). 21°) (S) - N - 3-nitrobenzyl-1-cyclohexyléthylamine : Ac 8. Rdt : 63 %; huile jaune; RMN 1 H (CDCl 3); δ (ppm)=3,9 (s, 1H); 4,1 (s, 2H); 0,9–2,2 (m, 15 H); 7,3–8,3 (m, 4H arom); IR (cm –1) : ν NH =3450; ν CN =1370 .
Au cours de ce travail, nous avons réalisé la synthèse d'une série d'imines en utilisant le chauffage par micro-ondes. Nous avons observé que la réduction diastéréosélective des imines qui dérivent de la (R)-1-cyclohexyléthylamine dépend de la nature du solvant, de la température, de l'agent de réduction et de la configuration absolue de l'imine de départ.
chimie_00-0255331_tei_elsevier_00-0255331_CRAS-IIc-Chim.tei.xml
termith-329-chimie
Nous nous intéressons depuis quelques années à la réaction du nucléophile azoture avec divers cations hétérocycliques aromatiques de type pyrylium. Les recherches ont ainsi été menées tant en raison de l'intérêt théorique de la réaction (1,2) que des possibilités qu'elle offre sur le plan de la synthèse de composés hétérocycliques à sept chaînons (1, 3 à 9). (cf. schéma 1). Les cations oxazinium-1,3 1 ou azapyrylium-1,3 sont comme les cations pyrylium déficients en électrons, et comme tels réagissent avec de nombreux nucléophiles (10 à 13). A l'issue de ces réactions des oxaziniums-1,3, trois types d'oxazines : les 6//-oxazines 2, les 4//-oxazines 3, les 2i/-oxazines 4 sont envisageables a priori en raison de la différenciation des pôles 2 et 6 en a de l'oxygène (cf. schéma 2). Cependant, il ressort des travaux de R. R. Schmidt et coll. d'une part (10 et réf. citées) et de I. Shibuyaet coll. d'autre part (11 à 13) que l'attaque d'une grande variété de nucléophiles sur le cation triphényl-2,4,6 oxazinium-1,3 la conduit exclusivement ou en prépondérance à des composés de type 6//-oxazine-1,3, c'est à dire de type 2 ou à des produits résultant de leur réarrangement (cf. schéma 2). Le comportement du couple cation 1/azoture n'avait pas encore été abordé. Compte tenu des résultats obtenus précédemment par nous mêmes en série pyrylium (1, 3 et 8) et par Schmidt et coll. (10) avec d'autres nucléophiles en série oxazinium-1,3, on pouvait attendre : soit une " non attaque " au sens covalent du terme avec formation d'un complexe de type donneur-accepteur comme observé dans le cas du couple triphényl^2,4,6 pyrylium/N 3 " (1,3,8); soit une attaque de N 3 ~ sur le pôle C6 du cation 1. Au quel cas, l'évolution de l'azide covalent 2a (Nu = N 3) permettrait éventuellement l'accession à des homologues " aza " d'oxazépines-1,3, (cf. schéma 1) en l'occurence des oxadiazépines (14). Nous présentons ici les premiers résultats concernant le comportement de triaryl-2,4,6 oxaziniums-1,3 1 vis à vis du nucléophile azoture. L'action de l'azoture de sodium sur une solution de perchlorate de triphényl-2,4,6 oxazinium-1,3 la (10) dans l'acétonitrile anhydre se manifeste tout d'abord par une exaltation de coloration malheureusement trop brève pour être analysée par exemple par spectroscopic uv-visible, suivie d'une décoloration progressive du mélange réactionnel. 11 s'agit donc d'une réaction d'attaque de N 3 ~, mais la possibilité de formation transitoire ou simultanée d'un complexe donneur-accepteur, comme le laisse supposer l'exaltation de coloration n'est pas exclue. Au bout de quelques heures on isole un composé unique : le [diphényl-1,3 oxo-3 propène-1-yl (£)]-1 phényl-5 tétrazole que l'on dénommera désormais tétrazole 5a (Rdt 92 %) (cf. schéma 2). Ce composé C 2 2Hi 6 N 4 0 résulte de l'incorporation de trois atomes d'azote au squel lette du cation la. Toutefois les structures des produits primaires envisageables : 2a, 3a ou 4a (Nu = N 3, cf. schéma 2) sont à écarter en raison de l'absence de la bande d'absorption azido vers 2100 cm " ' dans le spectre infrarouge (15). Après examen de ses propriétés chimiques 1 et spectroscopiques, nous avons attribué à ce composé la structure 5a associant les deux motifs : phényl-5 tétrazole et trans chalcone (cf. schéma 2). Les arguments d'ordre spectroscopique sont les suivants : la présence du motif trans chalcone est établie par les analogies observées entre les spectres d'absorption uv-visible, infrarouge, de rmn ' H et de rmn I3 C du composé 5a et ceux de la trans benzalacétophénone 6 (cf. partie expérimentale); le motif tétrazole est décelé en spectroscopie infra-rouge par l'observation d'un ensemble de bandes caractéristiques dans la région des empreintes (17, 18). En spectroscopie de masse, l'observation des ions moléculaires n'est pas possible par la technique de l'impact électronique I.E. à 70 eV ni même à plus basse énergie. L'ion de masse la plus élevée est alors celui résultant de la perte de N 2. Dans le cas du tétrazole 5a, une fragmentation M^ — N/ est également notée, elle conduit au cation oxazinium (M + 310, Masse Exacte). Pour les autres tétrazoles, les même hypothèses de fragmentations semblent 1 L'étude détaillée du comportement thermique et photochimique des tétrazoles fait l'objet d'un article à part soumis pour publication au Can. J. Chem. (16). raisonnables, d'autant que des observations similaires ont été faites dans le cas d'aryl et d'alkyl tétrazoles (19, 20). Le recours à l'ionisation chimique (IC) permet d'observer les ions quasi moléculaires (cf. partie expérimentale). La formation de ce tétrazole pose deux questions : celle du mécanisme d'isomérisation de l'azido-2 2/i-oxazine-1,3 4a dont il dérive manifestement - et celle de savoir si cette oxazine 4a est bien le produit cinétique de l'attaque de N,~ sur l'oxazinium-l,3 la. 1. Filiation oxazine 4a — » tétrazole 5a Nous proposons, pour rationaliser l'obtention du tétrazole 5a, deux tautoméries cycle-chaîne impliquant l'imino-azide 7a (1, 3, 8, 21, 22) (cf. schéma 2) jusqu'ici rencontrées séparément pour des systèmes voisins. (/) La tautomérie 4a ^ la s'apparente aux classiques équilibres diènone ^ a pyranne (cf. schéma 1) qui ont pu être notés lors de l'étude de l'action de nucléophiles (23) et en particulier de l'ion azoture (1, 3, 8) sur les cations pyrylium. (cf. schéma 1). (ii) La tautomérie la ^ 5a est un équilibre du type iminoazide-tétrazole dont on connaît de nombreux exemples (21, 22). L'obtention des tétrazoles 5a constitue une dérivation au schéma réactionnel initialement envisagé : puisqu'elle inhibe la formation des hétérocycles heptaatomiques. Toutefois le mécanisme que nous proposons (cf. schéma 2) pour leur obtention laisse entrevoir des possiblilités de retour vers l'iminoazide ou l'azido-2 2//-oxazine-1,3 qui sont les formes intéressantes du schéma réactionnel général. A ce titre, a été entreprise une étude des différents facteurs intervenant sur les deux tautoméries impliquées dans la formation des tétrazoles (16). 2. Mode d'action de Nf sur les oxaziniums-1,3 1 Afin de savoir si l'azido-2 2//-oxazine-1,3 4a est ou non le produit cinétique de l'attaque de N, sur l'oxazinium la, nous avons tenté de répondre en procédant à diverses démarches. (a) Action de NaNj sur la à basse température On ne décèle dans ces conditions aucune modification de la réaction : ni diminution notable du rendement en 5a, ni formation de nouveaux composés. Ce résultat signifie que l'oxazine 4a est probablement le produit cinétique de l'attaque. (b) Action de NaN, à basse température et en présence de triphényl phosphine Nous avons tenté d'intercepter à froid le précurseur du tétrazole 5a en procédant à l'attaque de l'oxazinium la par N 3 ~ en présence de P(<j>) 3. La triphénylphosphine est en effet connue pour capter les azides organiques en conduisant à des adduits 1:1 ou bien encore aux phosphoimines correspondantes par perte d'azote moléculaire (24). Dans ces conditions, le cours " normal " de la réaction est modifié, une interception se produit effectivement puisqu'on observe : une diminution du rendement en tétrazole Sa de 92 à 47 % (l'interception n'est que partielle), et la formation d'un composé phosphoré noté C.P. correspondant d'après l'analyse centésimale à la perte d'une molécule d'azote et à la fixation de P(<t>) 3 en partant d'une azidooxazine 2, 3, ou 4 ou de tout autre azide isomère (cf. schéma 3). L'analyse centésimale n'a pu être réalisée que sur le composé C.P. brut car les essais de purification (recristallisation, chromatographie sur couche mince) conduisent immanquablement à une décomposition plus ou moins prononcée en mélange de (<|>) 3 PO et de triphényl 2,4,6-pyrimidine 8 (25) (cf. schéma 3). La fragilité de ce composé C.P. n'a pas facilité la détermination de sa structure. Cependant, aussi bien sa décomposition que diverses données spectroscopiques (comme : absence de carbonyle en infra-rouge, certaines fragmentations en spectrométrie de masse, présence dans le spectre de rmn 31 P d'un signal compatible avec un phosphore engagé dans un cycle (26)) nous conduisent à admettre pour ce composé C.P. une structure d'hétérocycle phosphoré. Dans le schéma 3 est représentée l'hypothèse la plus vraisemblable selon laquelle le précurseur intercepté à froid serait effectivement l'azido-2 2//-oxazine-l ,3 4a. Le produit de l'interception serait alors l'adduit RN 3 P(<t>) 3 9a sous forme ouverte ou cyclique dont le réarrangement direct ou par l'intermédiaire de la phosphoimine 10a (forme ouverte ou cyclique) conduirait au composé C.P. de structure lia ou 12a. Ces résultats confirment l'intervention d'un azide intermédiaire dans la formation du tétrazole 5a (cf. schéma 2) et s'accordent avec l'hypothèse de l'azido-2 2//-oxazine-1,3 4 comme produit cinétique de l'attaque de N 3 ~. Ils permettent d'écarter l'hypothèse d'un mécanisme concerté de l'attaque de N 3 ~ sur le pôle C2 de l'hétérocycle avec simultanéité de l'ouverture de cet hétérocycle et de la formation du cycle tétrazolique. (c) Effets de la substitution du pôle C2 sur la réactivité de Nf vis à vis des oxaziniums-1,3 1 Nous avons synthétisé de nouveaux oxaziniums-1,3 présentant en C2 un groupement aryle C 6 H 4 p-R 2 - soit électrodonneur et désactivant (1 b, R 2 = OCH ;,) - soit électroattracteur (le, R 2 = N0 2), (cf. tableau 1). De façon tout à fait qualitative, on constate que l'oxazinium anisylé 1 b est moins réactif vis à vis de N-T que les sels la et le. Le recours à le spectroscopie uv-visible comme moyen de comparaison des vitesses d'attaque des trois sels la à le n'a pas permis un classement plus précis de leurs réactivités. En effet, à de telles concentrations, intervient de façon non négligeable la réaction concurrente d'hydrolyse des sels, en particulier dans le cas de l'oxazinium nitré le, qui conduit aux " pseudo-bases " correspondantes : les (î benzamido-irans-benzalacétophénones 13 (cf. partie expérimentale). En revanche, le recours à des réactions compétitives d'attaque de N-T sur des mélanges de sels d'oxazinium 1 fournit le classement indicatif suivant (basé sur une analyse des mélanges réactionnels par rmn ' H, cf. partie expérimentale) : le (R 2 = N0 2), la (R 2 = H) > Ib (R 2 = OCH,). Cette séquence suggère l'hypothèse selon laquelle la réactivité de l'ion azoture vis à vis des oxaziniums serait tributaire dans une mesure restant à déterminer, de la charge du pôle C 2. En effet, l'examen a priori de la substitution R 2 sur les carbones hétérocycliques montre que l'effet mésomère du groupe nitro n'affecte pratiquement pas les pôles d'attaque, cependant que celui du groupe méthoxyle est désactivant. Il est évident que cette constatation ne constitue qu'une indication grossière de l'influence de la substitution et que bien sûr l'ensemble des effets électroniques doit être pris en compte. Dans un premier temps, nous avons fait appel au déplacement chimique L1 C pour situer, de façon approchée, la densité électronique des différents pôles des cations oxazinium, sous réserve de la validité d'une telle relation pour ces cations (27). Néanmoins, nous avons montré que pour des cations hétérocycliques voisins : pyryliums et thiopyryliums, existait une relation linéaire ô l3 C et charge TT.H.M.O (1, 8). En ce qui concerne les oxaziniums-1,3 1, les données de la rmn l3 C (cf. tableau 1) semblent confirmer l'hypothèse d'une influence importante du facteur densité de charge des pôles éventuels d'attaque sur la réactivité de l'ion N,~. On observe en effet que le pôle C2 est le plus déblindé (voire le plus chargé) et qu'un certain parallélisme existe entre le ô l3 C du pôle C2 et la réactivité du cation correspondant vis à vis de N-T (cette dernière croissant du sel 1 b au sel le). Cette hypothèse amène à considérer comme moins favorable une attaque sur le pôle C4 qui s'avère être le moins déblindé voire le moins chargé des pôles d'attaque. En revanche, dans le cas de l'oxazinium nitré le, elle conduit à envisager la simultanéité d'une attaque de N-T sur les pôles C2 et C6 qui porteraient selon la rmn l3 C des charges voisines. Un composé supplémentaire a d'ailleurs été isolé en procédant à l'attaque du sel le à basse température. Son trop faible rendement n'a toutefois pas permis d'en préciser la structure ni, bien sûr, l'origine (attaque en C2 ou C6). Un traitement théorique de la réactivité du système oxazinium-1,3/N.r analogue à celui déjà effectué dans le cas de système pyrylium/N 3 ~ (1,2) est actuellement entrepris. Tout d'abord il devrait permettre de vérifier la validité des hypothèses émises, comme celle d'une relation linéaire 6 i;i C/densité de charges des pôles éventuels d'attaque des oxaziniums et celle d'une réactivité des cations 1 fortement tributaire des charges, selon laquelle les azido-2 oxazines-1,3 seraient les produits cinétique de l'attaque. Enfin, il devrait renseigner sur l'éventualité d'un complexe donneur-accepteur du type de ceux observés (1,8) dans le cas de pyryliums peu encombrés, que nous avions envisagée pour interpréter l'exaltation de coloration observée au début de la réaction entre N-T et l'oxazinium 1 a. Les spectres d'absorption ultraviolet-visible et infrarouge ont été respectivement enregistrés sur des appareils Hewlett Packard 8450 ou Philips SP8-250 et Philips SP3-200. Les spectres de rmn ' H et rmn 13 C ont été enregistrés sur appareils Varian EM360 ou Bruker WP80 et sur appareils Bruker SY80 et WM250. Quant aux spectres de masse, ils ont été effectués par Mesdemoiselles J. Mercier et C. Lange que nous remercions, respectivement - au Centre de Mesures Physiques de Paris sur un spectromètre AE1 MS50 - au laboratoire sur un spectrographe quadrupolaire NERMAG R10-10C. Les analyses élémentaires ont été effectuées par le Centre de Microanalyse du C.N.R.S. ou au Laboratoire de Microanalyse de l'Université Pierre et Marie Curie. Les points de fusion non corrigés ont été déterminés de façon instantanée au banc de Kôfler. La structure des oxaziniums-1,3 1 repose tant sur leurs propriétés spectroscopiques que sur celles de leurs précurseurs, les 4W-oxazines-l ,3 3 (Nu = H), et celles de leurs produits d'hydrolyse, les |3-benzamido-frans-benzalacétophénones 13. Une étude spectroscopique de ces trois classes de composés a donc été menée en recourant notamment à la rmn I3 C. (a) Propriétés des 4H-oxazines-1,3 3 (Nu = H) Les oxazines 3a et 3b étaient déjà connues (10, 28) ainsi que l'oxazine 14 (29) qui a servi de modèle pour les attributions de déplacements en rmn L1 C. L'oxazine nitrée 3C nouvelle a été préparée selon Schmidt (10) : (60 %); Fi 134°C (éther); ir cm 1 (KBr) : 1690, 1640, 1605, 1580, 1520, 1500, 1455 et 1350; UV X, ,, ,,, nm (e " lu J, (éther) : 214 (4,32), 272 (4,32); rmn ' H (CDCI,) ô ppm/TMS : 5,75 (syst. AB, 2H, J = 3 Hz). Anal. calc. pour C 22 H 16 N 2 0, : C 74,14, H 4,53, N 7,86; tr. : C 74,04, H 4,70, N 8,01. Spectre de masse : cf. tableau 2; rmn L1 C des oxazines : cf. tableau 3. (b) Obtention et propriétés des trtaryl-2,4,6 oxaziniums-!,3 1 Seul l'oxazinium la était connu (10). Les oxaziniums 1 b et le ont été obtenus selon la même méthode (10) par oxydation des 4W-oxazines-1,3 3 correspondantes. Perchlorate de diphényl-4,6 paraméthoxyphénvl-2 oxazinium-1,3 1 b : (60 %); Fi 265-267°C (CH.,CN, éther); ir cm " (5,38), 436 (5,03); rmn l3 C : cf. tableau 4. Anal. calc. pour C 21 H IK N,0 (, Cl : C 62,80, H 4,13, N 3,18, Cl 8,06; tr. : C 62,49, H 4,23, N 3,30, Cl 7,83. Perchlorate de diphényl-4,6 paranitrophénxl-2 oxazinium-1,3 le : (85 %); Fi 275-280°C (CH,CN, éther); ir cm " " 1 (KBr) : 1625, 1590, 1520, 1350, 1100; uv-visible (CH,CN) X nm nm (log e lnax) : 274 (4,36), 352 (4,41), 404 (4,44); rmn l3 C : cf. tableau 4. Analyse : composé ne pouvant être isolé pur, cf. analyse centésimale de son produit d'hydrolyse la pseudobase 13c. Pour les attributions des signaux ô l3 C des oxaziniums-1,3 1 nous nous sommes basés sur la comparaison de l'oxazinium triphénylc la avec le pyrylium correspondant pour lequel 8C4 < 8C2 et 8C6 (1,8). Nous avons supposé que pour les oxaziniums-l ,3 le même ordre était conservé et que le carbone C2 était le plus déblindé en raison de sa situation entre deux hétéroatomes. Ceci a été confirmé en procédant à l'enregistrement du spectre de la sans découplage des protons. On observe alors que le carbone le plus déblindé est le moins couplé (il s'agit de C2 qui apparaît sous forme de triplet), cependant que le signal suivant apparaît sous forme d'un quadruplet (C6 subit un couplage avec H2 ' " et H6 ' " et un couplage supplémentaire voisin avec H5). Pour les oxaziniums-2,4,6 triarylés la séquence des pôles éventuels d'attaque apparaît donc comme 8C2 > 8C6 > 8C4. On constate que ces positions sont plus déblindées que celles des pyryliums (8. 32). (c) $-Benzamido trans-benzalacétophénones 13 : pseudo bases des oxaziniums 1 L'hydrolyse en milieu acétonitrile aqueux des oxaziniums la à le conduit aux pseudo bases 13a à 13c (33). Ces composés sont de configuration Z et présentent une liaison hydrogène intramoléculaire entre le carbonyle et le groupe amidique. Ceci se manifeste - en infra-rouge : bande de NH associé vers 3200 cm " ' et bande de C=0 conjugué et associé vers 1620-1625 cm " 1 - et en rmn ' H : présence d'un signal très déblindé vers 13 ppm. $-p-Méthoxvbenzamido-trdns-benzalacétophénone /3b (70 %); Fi 90-92°C (CH 3 CN, éther); ir cm " 1 (KBr) : 3200, 2840, 1690, 1620, 1590, 1575; uv-visible (éther) nm (log e ", ") : 213 (4,43), 283 (4,46) 344 (4,48); rmn ' H (CDCl,) ô ppm/TMS : 13,4 (s, 1H, éch. D 2 0), 6,5 (s, IH), 3,9 (s, IH); rmn l3 C : cf. tableau 5). Anal. calc. pour C^H^NiOv C 77,29, H 5,36, N 3,92; tr. : C 77.04, H 5,51, N 4,02; masse m/e : M + 357 (3), 252 (75), 207 (5), 135 (40), 92 (20), 77 (100). fi-p-Nitrobenzamido-lrans-benzalacétophénone 13 c : (80 %); Fi 192-I94°C (CH,CN, éther); ir cm " 1 (KBr) : 3200, 1690, 1625, 1590, 1350; rmn ' H (CDCl,) 8 ppm/TMS : 13,4 (s, IH, éch. D 2 0), 6,5 (s, IH); rmn l3 C : cf. tableau 5. Anal. calc. pour C 22 H l( ,N 2 0 4 : C 77,29, H 5,36, N 3,92; tr. : C 77,04, H 5.51, N 4,02; masse m/e : M + 372 (1), 261 (21), 267 (100), 237 (20), 105 (40), 77 (60). A. Obtention des tétrazoles 5 1. Action de NaN.i à température ambiante A une mmol de perchlorate de triaryl-2,4,6 oxazinium-l ,3 la à le en solution dans 10 cm 3 d'acétonitrile sec est ajouté un excès de NaN., (2 à 3 fois la quantité stoechiométrique). Le mélange réactionnel est agité à la température ambiante sous atmosphère inerte et à l'obscurité pendant 2 h. Il est repris à l'eau, extrait à l'cther. La phase éthérée est séchée sur MgS0 4 puis évaporée à température ambiante sous vide.Les tétrazoles Sa à 5c sont obtenus avec les rendements respectifs de 92 %, 90 % et 75 %. Dans le cas de l'oxazinium le, on isole également 5 % de pseudobase 13e ainsi qu'un composé supplémentaire non identifié lorsqu'on opère à froid (environ 5 mg). 2. Action de NaN.< à basse température A une solution de 100 mg (0,22 mmol) de sel 1 a dans 5 cm'de CH.iCN sec sont ajoutés à froid (environ - 40°C) 35 mg de NaN ,. Au bout de 48 h l'analyse par chromatographic sur couche mince de silice (ccm) n'indique qu'un seul produit. Le traitement habituel conduit à 84 mg (97 %) de tétrazole 5a. 3. Action de NaN.< à basse température et en présence de P(Ph),, A une solution de 100 mg (0,24 mmol) de sel 1 a dans 5 cm 1 de CH,CN sec sont ajoutés à froid (9 = - 40°C) 100 mg de P(Ph), et 45 mg de NaNj. Au bout de 48 h, le solvant est chassé et le résidu analysé par chromatographie préparative sur couche mince de silice, on isole dans l'ordre d'élution (cyclohexane/acétate d'éthyle 8:2) : P(4>) 3 en excès, le composé C.P. (100 mg) légèrement contaminé par P(4>),, la triphényl-2,4,6 pyrimidine 8 (2,5 mg, 3,5 %) identifiée à un échantillon authentique (10), le tétrazole 5A (40 mg, 48 %), la pseudobase 13 « (22 mg, 28 %) et P(<t>).,0 (3 mg, 3 %) isolé par lavage à l'éther des 60 mg constituant le dépôt de ccm. Composé phosphore C.P. : lia ou 12a : Fi ~ 190°C; ir (KBr) pas de carbonyle; rmn ' H pas de signal caractéristique en dehors des H arom. Anal. calc. pour C 4ll H,,OPN 2 (P(<t>),0 + 8) : C 81,73, H 5,45, N 4,60; tr. : C 81,89, H 5,32, N 4,77. Spectroscopie de masse : impact électronique : on n'observe pas l'ion moléculaire M* 586 mais on retrouve l'intégralité des spectres de P(Ph).,0 et de la pyrimidine 8; rmn " P (101,25 MHz) S ppm/H,P0 4 : 28,3 (P^O); - 6,4 (C.P.). 4. Classement de la réaetivité des oxaziniums-/,3 la à c Nous avons réalisé deux mélanges dans l'acétonitrile de sels ayant l'oxazinium anisylé 1 b en commun (cf. schéma 4). Sur chacun de ces mélanges il est procédé à l'action de NaN, pendant un court laps de temps (temps inférieur au temps nécessaire à la réaction totale du plus réactif). On procède alors à l'hydrolyse des sels n'ayant pas réagi. Les pseudobases 13 sont séparées (ccm) des tétrazoles 5 qui sont alors dosés par rmn ' H en prenant comme référence les intégrations du signal méthoxyle du tétrazole 5b formé. Il apparaît donc que le tétrazole 5b est obtenu en plus faible rendement que les tétrazoles 5a et 5e, ce qui signifie que le sel 1 b réagit plus lentement avec N.,~ que les sels la et le qui ne peuvent toutefois pas être différenciés. (B) Propriétés spectroscopiques des tétrazoles Les données spectroscopiques : uv-visible, infra-rouge et masse sont consignées dans le tableau 6; rmn " C cf. tableau 7. L'interprétation des spectres des tétrazoles est facilitée par leur comparaison à ceux de deux composés modèles : la /ra/z.v-benzalacétophénone 6 et les méthyl-1 aryl-5 tétrazoles 17 (35). L'attribution des signaux voisins de 190 et 155 ppm se fait sans ambiguïté aux carbones notés C6 et C2. L'ordre des 8 " C des carbones quaternaires notés CI ', CI " et C V " pour le composé 5a découle de la comparaison avec les molécules modèles 6 et 17A. Les carbones C4 ' et C4 " du composé 5a présentent des déplacements voisins de ceux des carbones correspondants des modèles 6 et 17O. L'attribution du carbone C4 (8 = 142,7 ppm pour 5a) a été confirmée par l'enregistrement d'un spectre sans découplage des protons. C4 apparaît alors comme le plus couplé des carbones quaternaires : couplages avec H2 ", H6 " et H5 et élargissement dû au voisinage de l'azote. En conclusion, on est amené à considérer le motif tétrazole comme un groupement azoté très particulier : contrairement au motif benzamido, son introduction en position |3 sur la //w;.v-benzalacétophénone n'a pratiquement pas d'influence sur le système ènonique .
La réaction du titre conduit aux β-tétrazolo trans-benzalacétophénones. La formation de ces tétrazoles implique l'intervention des azido-2 oxazines-1,3 correspondantes. Un mécanisme de transposition de ces azides mettant en jeu deux tautoméries cycle-chaîne autour des intermédiaires iminoazides est proposé
chimie_85-0226084_tei_84.v85-015.tei.xml
termith-330-chimie
Plusieurs méthodes de synthèses d'aminoalkyl-1 cyclanols ont été raportées dans la littérature (1, 2), mais ces méthodes mettent enjeu des transformations subséquentes des cyclanones correspondantes nécessitant parfois des réactifs coûteux. Généralement, l'introduction du groupement amino s'effectue par trois voies différentes, selon la longueur de la chaîne aminoalkylée désirée. Par exemple, les ct-aminoalkylcyclanols sont plus facilement accessibles par modification des cyanhydrines (3) ou des énamines (4) que les (3-aminoalkylcyclanols, car ces derniers ne peuvent être formés que par des réactions plus élaborées effectuées sur la chaîne hydrocarbonée (5). Enfin, la synthèse des 7-aminoalkylcyclanols semble être encore plus difficile, car les résultats obtenus, lors des études précédemment réalisées, montrent que les rendements réactionnels sont faibles (6). Nous avons alors pensé que notre méthode, basée sur l'utilisation des ot,w-bis(bromomagnesio)alcanes (7), conduirait aux composés désirés avec des bons rendements. L'examen de l'ensemble des résultats que nous avons obtenus par l'action de ces organodimagnésiens sur les lactones (8) et anhydrides des acides dicarboxyliques (9), nous suggère de ne pas vouloir tenir compte de ceux déjà rapportés dans la littérature (10) en utilisant quelques aminoesters avec ces mêmes réactifs. En effet, les rendements obtenus par ces auteurs sont anormalement trop faibles et il nous est difficile d'attribuer un rôle important à la présence de l'azote ou à la basicité de l'aminé qui auraient influencé grandement le cours de cette réaction. Rappelons que dans une récente publication nous avons démontré que les isoxazolones-5 encombrées fournissent les p-hydroxyoximes a,a-bisubstituées (11) avec de très bons rendements par la réaction du bis(bromomagnésio)-l,4 butane. La question se posa alors à savoir, si les dialkylaminoalkylesters utilisés dans les conditions des réactions d'annélation que nous avons mises au point, fourniraient d'aussi bons résultats ou s'ils présenteraient des particularités distinctes qui diminueraient l'efficacité de notre méthode. Dans ce but, nous avons alors entrepris la présente étude en utilisant systématiquement divers types d'aminoesters (1-10) constituant ainsi une série homogène. Nous avons repris certains a-et p-/V,/V-dialkylaminoalkylesters que ces auteurs avaient utilisés mais aussi des 7-aminoalkylesters afin de démontrer l'influence éventuelle de la position de l'azote et de la basicité de l'aminé sur les réactions de Grignard inter-et intramoléculaires (Schéma 1). La synthèse des a-et (3-aminoesters a été effectuée, d'une part, à partir des halogénoesters par substitution nucléophile (12) et, d'autre part, à partir du propénoate d'éthyle par addition conjuguée d'amines secondaires (13). Le bis(bromomagnesio)-l ,4 butane a été préparé dans le THF en présence d'un excès de tournures de magnésium et ses réactions avec les aminoesters ont fourni les aminoalkyl-1 cyclopentanols 11-20 avec des meilleurs rendements que celles rapportées précédemment (10). Nous constatons que les facteurs ci-haut mentionnés n'ont pas une influence considérable et ainsi nous démontrons que la différence de rendements trouvés ne peut être attribuée qu'aux conditions expérimentales que ces auteurs ont choisies, plutôt qu' à la structure des esters. Ces résultats suggèrent d&apos;effectuer quelques réactions sur des aminoesters encombrés tels que (pyrrolidinyl-l)-2 propanoate d&apos;éthyle (21), méthyl-2 (pyrrolidinyl-l)-2 propanoate d&apos;éthyle (22) et (morpholinyl-4)-2 propanoate d'éthyle (23) afin de cerner les limites de notre méthode, à ce qui a trait l'influence de l'encombrement stérique sur la formation des cyclopentanols. Nous avons alors fait réagir le bis(bromomagnesio)-l,4 butane sur les esters 21, 22 et 23 et avons constaté que les aminocyclopentanols 24, 25, 26 correspondants sont obtenus aussi avec des bons rendements. Nous rappelons que les rendements n'ont pas été optimisés et ont été calculés à partir des composés déjà purifiés (Schéma 2). Il apparaît ainsi que l'encombrement stérique influence peu le cours de la réaction au niveau de la cyclisation. Les réactions compétitives intermoléculaires ou intramoléculaires sont peu favorisées. En effet, nous n'avons pas trouvé en quantité appréciable ni les cétones intermédiaires, provenant de la réaction d'énolisation, ni les aminoalcools secondaires à chaîne ouverte provenant d'une réaction de réduction intramoléculaire. Nous pouvons en déduire que la réaction d&annélation à 1&aide de bis(bromomagnesio)-1,4 butane est générale et applicable aux yV,/V-dialkylalkylaminoesters quelle que soit leur structure. La question se posa encore une fois à savoir si notre méthode est aussi générale pour la formation des cyclohexanols correspondants en utilisant le bis(bromomagnesio)-l,5 pentane, sachant que le cycle à six membres est plus difficile à former par notre méthode (11). Nous avons alors entrepris d'étudier les réactions de cet organodimagnésien avec les aminoesters 1-10 dans les mêmes conditions expérimentales et avons observé que les dialkyl - aminoalkyl-1 cyclohexanols 27-35 sont formés avec des rendements légèrement plus faibles que ceux trouvés lors de la préparation des dialkylaminoalkylcyclopentanols mais de loin supérieurs à ceux trouvés dans la littérature (10) pour l'ensemble des composés (tableau 1). Cette différence est principalement due à l'encombrement stérique au niveau du carbonyle qui se traduit par la formation d'une faible quantité d'alcools secondaires à chaîne ouverte (2-18 %) formés par la réaction de réduction intramoléculaire (Schéma 3). De l'ensemble des résultats obtenus, il ressort que les réactions organodimagnésiennes effectuées dans le tétrahydrofuranne, en utilisant les conditions expérimentales précédemment décrites (3), sont applicables aux a -, [3-et 7-aminoesters. Ce travail démontre que notre méthodologie peut facilement être utilisée pour la synthèse de divers alkyl-1 cyclanols fonctionnalisés. Il nous a semblé intéressant d'étendre les réactions de ces organodimagnésiens bis-primaires aux esters fonctionnalisés sur la chaîne hydrocarbonée par d'autres groupements importants pour leurs applications synthétiques (Schéma 4). Nous avons alors décidé d ' utiliser comme substrats, d ' une part, le phénoxyacétate d ' éthyle (36), le phénylthioacétate d ' éthyle (37), le chloro - 2 propionate d ' éthyle (38), le phénoxy - 2 propanoate d ' éthyle (39) et, d ' autre part, le diéthoxyacétate d ' éthyle (40) et le dithiolane - 1, 3 acétate d ' éthyle (41). Les résultats obtenus consignés au tableau 2 montrent que les cyclanols correspondants 42 - 51 sont formés avec des rendements très satisfaisants. Les organomagnésiens attaquent sélectivement la fonction ester plutôt que les autres fonctions. Les rendements ne sont pas optimisés; nous supposons qu ' à une température plus basse ils peuvent être améliorés, surtout dans les expériences réalisées avec le bis (bromomagnésio) - l, 5 pentane (Schéma 3). Par la présente étude, nous pouvons obtenir plusieurs cycla - nols substitués, à la position 1, par une chaîne fonctionnalisée (Schéma 5). De tels hydroxyaldéhydes, chlorocyclopentanols, sont plus difficilement accessibles par d ' autres méthodes (14, 20). Nous concluons en nous basant sur les résultats des aminoalkylesters que cette méthode est très générale et applica - ble à la synthèse des divers a, p ou 7 - hydroxycétones, hydroxy acides, chloroalkyl - 1 cyclopentanols et hydroxy alkyl - 1 cyclopentanols. En effet la déthioacétalisation de dithialanes - 1, 3 a été réalisée récemment (21). Les spectres ir ont été enregistrés à l ' aide d ' un appareil Beckman IR 4250 (sous forme de films ou en solution dans CC1 4 et CH 2 C1 2), les spectres rmn ' H sur un appareil Bruker 90 MHz et sur un appareil Varian XL - 200 (200 MHz). Les spectres rmn 13 C ont été effectués sur un appareil Bruker WP - 80 (20 MHz). Les spectres de masse ont été effectués sur un appareil Hewlett - Packard 5992 (gs / mg). Les sépara - tions chromatographiques sur colonne sous pression « flash » ont été effectuées sur gel de silice. Les esters 34, 35, 38 sont commercialement accessibles chez Aldrich. Les microanalyses ont été effectuées chez Galbraith Laboratories. Matériel de départ Le tétrahydrofuranne a été distillé sur sodium et gardé sous atmos - phère d ' azote. Les dialkylaminoacétates et dialkylamino - 4 butanoates d ' éthyle ont été préparés par les réactions précédemment décrites basées sur la transformation des halogénoalkylesters par les aminés correspondantes (12a, 15). Les dialkylaminopropénoates d ' éthyle ont été préparés à partir du propénoate d ' éthyle (13). N, N - Dialkylaminoacétates, N, N - dialkylamino - 4 butanoates d ' éthyle et N, N - dialkylamino - 2 propanoate d ' éthyle 1 A une solution de 65 mmol de chloroacétate, bromo - 2 propanoate, bromo - 2 méthyl - 2 propanoate ou bromo - 4 butanoate d ' éthyle dans 25 mL de benzène anhydre, on ajoute goutte à goutte 140 mmol d ' amine dans 25 mL de benzène anhydre. (Pyrrolidinyl - 1) acétate d ' éthyle (1) : Rdt = 79 % (8, 067 g); Eb = 95 - 96°C (20Torr) (litt. (15) Eb 77°C (16Torr)) (1 Torr = 133, 3 Pa). (Pipéridinyl - 1) acétate d ' éthyle (2) : Rdt = 79 % (8, 781 g); Eb = 102 - 104°C (15Torr) (litt. (126) Eb 102 - 103°C (12Torr)). Diéthylaminoacétate d ' éthyle (3) : Rdt = 79 % (7, 847 g); Eb = 78 - 80°C (20Torr). (Morpholinyl - 4) acétate d ' éthyle (4) : Rdt = 90 % (10, 13 8 g); Eb = 102 - 103°C (8Torr) (litt. (126) Eb 112 - 114°C (13 Torr)). (Pyrrolidinyl - 1) - 4 butanoate d ' éthyle (8) : Rdt = 68 % (8, 235 g); Eb = 107 - 109°C (9 Torr). Tous les composés ont donné des spectres satisfaisants. (Pipérydinyl - 1) - 4 butanoate d ' éthyle (9) : Rdt = 88 % (22, 433 g); Eb = 110 - 111°C (15 Torr). (Morpholinyl - 4) - 4 butanoate (10) : Rdt = 89 % (11, 625 g); Eb = 140 - 142°C (15 Torr). (Pyrrolidinyl - 1) - 2 propanoate d ' éthyle (21) : Rdt = 76 % (8, 478 g); Eb = 102 - 103°C (21 Torr) (litt. (13a) 84°C (12 Torr)). Méthyl - 2 (pyrrolidinyl - 1) - 2 propanoate d ' éthyle (22) : Rdt = 70 % (8, 3 g); Eb = 108 - 110°C (22 Torr) (litt. (19) Eb 114°C (26 Torr)). (Morpholinyl - 4) - 2 propanoate d ' éthyle (23) : Rdt = 68 % (8, 232 g); Eb = 123 - 125°C (20 Torr) (litt. (18) Eb 110 - 113°C (15 Torr)). Dialkylaminopropanoates d ' éthyle Dans un ballon de 50 mL, on introduit 10, 012 g (100 mmol) de propénoate d ' éthyle et 100 mmol d ' amine et on chauffe à reflux sous agitation magnétique pendant 3 h. Le produit est purifié par distillation sous pression réduite. (Pyrrolidinyl - 1) - 3 propanoate d ' éthyle (5) : Rdt = 96 % (16, 386 g); Eb = 108 - 109°C (20Torr) (litt. (15) Eb 82°C (8 Torr)). (Pipéridinyl - 1) - 3 propanoate d ' éthyle (6) : Rdt = 89 % (16, 577 g); Eb = 120 - 122°C (20Torr) (litt. (136) Eb 115 - 117°C (17Torr)). (Morpholinyl - 4) - 3 propanoate d ' éthyle (7) : Rdt = 96 % (18, 065 g); Eb = 133 - 134°C (19 Torr) (litt. (13c) Eb 138 - 140°C (25 Torr)). Phénoxyacétate d ' éthyle (36) En utilisant le mode opératoire décrit par Munch - Peterson (16a) on transforme 16, 30 g (133 mmol) de chloroacétate d ' éthyle en présence de 3, 105 g (135 mmol) de sodium et de 12, 545 g (133 mmol) de phénol en phénoxyacétate d ' éthyle; Rdt = 69 % (16, 688 g); Eb = 84°C (0. 05 Torr) (litt. (16) Eb 250 - 251°C). Phénylthioacétate d ' éthyle (37) En utilisant le mode opératoire ci - dessus, nous avons opéré avec 11, 011 g (100 mmol) de thiophénol, 2, 415 g (0, 105 mmol) de sodium et 12, 255 g (100 mmol) de chloroacétate d ' éthyle; Rdt = 90 % (18, 062 g); Eb = 90 - 93°C (0, 05 Torr) (litt. (17) Eb 118°C (3 Torr)). Phénoxy - 2 propanoate d ' éthyle (39) En utilisant le mode opératoire général (16a), on ajoute 12, 545 g (13, 3 mmol) de phénol, 3, 105 g de sodium et 27, 2 g (15 mmol) de bromo - 3 propionate d ' éthyle et on recueille, par distillation, l ' ester 39; Rdt = 68 %; Eb = 86°C (0. 05 Torr). Préparation des organodimagnésiens Dans un tricol de 500 mL, sous atmosphère inerte, muni d ' une agitation magnétique, d ' une ampoule à additionner et d ' un réfrigérant surmonté d ' un tube de garde à CaCl 2, on introduit 1, 07 g de Mg et on chauffe à l ' aide d ' un brûleur à gaz pour chasser l ' humidité et activer le Mg. Après refroidissement de l ' appareillage, on couvre le Mg d ' une quantité de 3 mL de solution de dibromure dilué dans le THF. La réaction démarre rapidement et on poursuit l ' addition de 0, 0253 mol de dibromure dans 50 mL de THF. Après la fin de l ' addition, on laisse agiter durant 4 h à la température ambiante, puis on y ajoute goutte à goutte, à la même température, une solution d ' ester (0, 02 mol). Après hydrolyse, à l ' aide d ' une solution saturée de chlorure d ' ammonium, on obtient le cycloalcanol par extraction à l ' éther et évaporation du solvant sous vide. Préparation des N, N - dialkylaminoalkylcyclopentanols A une solution de bis (bromomagnésio) - l, 4 butane (1, 2 équivalent), on ajoute goutte à goutte un équivalent d ' ester dissous dans 10 équivalents de THF anhydre à 0°C sous atmosphère d ' azote, puis on laisse la réaction se poursuivre durant 1 h à 20 - 25°C. On hydrolyse à froid par une solution saturée de chlorure d ' ammonium. On extrait à l ' éther, on sépare la couche éthérée, on sèche sur sulfate de magnésium et on distille sous pression réduite. (Pyrrolidinyl - 1 jméthyl - 1 cyclopentanol (10) (11) En utilisant 4 g (26 mmol) d ' ester 1 on obtient 3, 2 g de (pyrrolidinyl - l) méthyl - l cyclopentanol par distillation fractionnée; Rdt = 70 %; Eb = 122 - 124°C (20Torr) (litt. (10) Eb70°C (2Torr)); ir v max (film) : 3430, 2957, 2865, 2792 cm " '; rmn ' H (CDC1 3) 8 : 1, 47 - 1, 95 (12H, m, CH 2 cycl.), 2, 60 - 2, 90 (6H, s, CH, - NCH,, - NCH 2), 3, 70 (1H, s, OH) ppm; rmn 13 C 8 : 80, 0 (C - l), 65, 3 (C - l '), 55, 8 (C - 2 ' et C - 5 "), 39. 7 (C - 2 et C - 5), 24, 1 (C - 3, C - 4, C - 3 ', C - 4 ") ppm; sm m / e : 169, 15 (M +, 3, 9), 84, 20 (C 4 H 8 NCH 2, 100 %), 58, 05 (11), 55, 05 (12). (Pipéridinyl - 1) méthyl - l cyclopentanol (10) (12) La réaction a été effectuée en utilisant 3, 363 g (19, 6 mmol) d ' ester. Après distillation, on recueille 2, 5 g (72 %) de (pipéridinyl - 1) méthyl - l cyclopentanol; Eb = 47 - 49°C (24 Torr) (litt. (4) Eb 80°C (2 Torr)); ir v max (CC1 4) : 3415, 2939 cm " 1; rmn ' H (CDC1 3) 8 : 1, 37 - 1, 85 (14H, m, CH 2 cycl.), 2, 36 (2H, s, NCH,), 2, 40 - 2, 65 (4H, m, CH 2 N -), 3, 12 (1H, s, OH) ppm; rmn 13 C (CDC1 3) 8 : 79, 5 (C - l), 67, 5 (C - l '), 56, 3 (C - 2 ", C - 6 "), 39, 8 (C - 2, C - 5), 26, 5 (C - 3 ", C - 5 "), 24, 2 (C - 4 "), 24 (C - 3, C - 4) ppm; sm m / e : 183, 25 (M +, 1, 6), 99, 15 (7), 98, 15 (C 5 H| 0 NCH 2, 100 %), 55, 05 (7). Diéthylaminométhyl - 1 cyclopentanol (10) (13) En utilisant 3, 243 g (20, 4 mmol) de l ' ester 3, après distillation on obtient 2, 350g de cyclopentanol 13; Rdt = 68 %; Eb = 105 - 107°C (20Torr); rmn ' H (CH, C1,) 8 : 1, 03 (6H, t, J = 7 Hz, CH 3), 1, 40 - 1, 83 (8H, m, CH 2 cycl.), 2, 53 (2H, s, NCH 2), 2, 60 (4H, q, J = 7 Hz, CH 2 - CH 3), 2, 70 (1H, s, OH); rmn l3 C (CDC1 3) 8 : 79, 4 (C - l), 62, 6 (C - l '), 48, 5 (CH 3 CH 2), 39, 6 (C - 2, C - 5), 23, 9 (C - 3, C - 4), 12, 2 (CH 3); sm m / e : 171, 20 (M +, 4, 9), 142, 15 (M - C, H S, 12), 86, 15 (C 2 H 5 NCH 2 +, 100 %), 58, 10 (32). (Morpholinyl - 4) méthyl - 1 cyclopentanol (14) En utilisant 2, 882 g (16, 7 mmol) d ' ester 4, après distillation on obtient 2, 258 g de cyclopentanol 14; Rdt = 73 %; Eb = 60 - 62°C (0, 02Torr) (litt. (4) Eb 77°C (3 Torr)); ir v max (CH, C1,) : 3405, 2955, 2850, 2870, 1117 cm " 1; rmn ' H (CDC1 3) 8 : 1, 40 - 1, 95 (8H, m, CH, cycl.), 2, 48 (2H, s, NOLO), 2, 49 - 2, 75 (4H, m, CH, N), 3, 50 (1H, s, OH), 3, 62 - 3, 85 (4H, m, CH 2 CH 2 0) ppm; rmn 13 C (CDC1 3) S : 80, 0 (C - l), 67, 6 (C - l '), 67, 2 (C - 2 ", C - 6 "), 55, 3 (C - 3 ", C - 5 '), 39, 7 (C - 2, C - 5), 23, 9 (C - 3, C - 4) ppm; sm m / e : 185, 20 (M +, 3, 1), 101, 15 (11), 100, 15 (C 4 H 8 ONCH 2 +, 100 %), 56, 16 (11). (Pyrrolidinyl - 1) - 2 éthy¡cyclopentanol (15) En utilisant 1, 748 g (10, 2 mmol) d ' ester 5 on obtient, après distillation, 1, 450 g de cyclopentanol 15; Rdt = 75 %; Eb = 68 - 70°C (0, 03 Torr); F = 67 - 68°C; ir v max (CH 2 C1,) : 3190, 2945, 2870, 2803, 1335, 1133 cm " 1; rmn ' H (CDC1 3) 8 : 1, 57 - 1, 93 (14H, m, CH 2 cycl.), 2, 43 - 2, 93 (6H, m, CH 2 N), 6, 30 (1H) ppm; rmn 13 C (CDC1 3) 8 : 82, 6 (C - l), 54, 1 (C - 2 ", C - 5 "), 53, 9 (C - 2 '), 40, 1 (C - 2, C - 5), 37, 3 (C - l '), 23. 8 (C - 3, C - 4), 23, 6 (C - 3 ", C - 4 ") ppm; sm m / e : 183, 25 (M +, 2, 3), 84, 10 (C 4 H 8 NCH 2 +, 100 %), 71, 10 (12), 70, 00 (9). Anal, calcd. pour CnH 2 iNO : C 72, 08, H 11, 55, N 7, 64; tr. : C72, 14, H 11, 51, N 7, 61. (Pipéridinyl - 1) - 2 éthyl - 1 cyclopentanol (16) En utilisant 1, 81 g (9, 80 mmol) de l ' ester 6 on obtient, après distillation, 76 % (1, 466 g) de (pipéridinyl - 1) - 2 éthyl - 1 cyclopentanol (16); Eb = 62 - 64°C (0, 02 Torr) (litt. (10) Eb 104°C (25 Torr)); F = 38, 5 - 39, 5°C; ir v max (film) : 3206, 2922, 2841, 2798, 1119 cm " 1; rmn ' H (CDC1 3) 8 : 1, 23 - 1, 91 (16H, m, CH, cycl.), 2, 30 - 2, 77 (6H, m, CH 2 N), 6, 63 (1H, s, OH) ppm; rmn 13 C (CDC1 3) 8 : 82, 6 (C - l), 56, 9 (C - 2 '), 54, 7 (C - 2 ", C - 6 "), 40, 1 (C - 2, C - 5), 35, 2 (C - l '), 26, 2 (C - 3 ", C - 5 "), 24, 4 (C - 4 "), 23, 8 (C - 3, C - 4) ppm; sm m / e : 197, 20 (M +, 4), 98, 10 (C 5 H| 0 NCH 2, 100 %), 85, 10 (14), 84, 10 (11). (Morpholinyl - 4) - 2 éthyl - 1 cyclopentanol (17) En utilisant 1, 872 g (10, 00 mmol) d ' ester 7 on obtient, après de distillation, 1, 660 g de cyclopentanol 17; Rdt = 83 %; Eb = 72 - 73°C (0. 02Torr); ir v max (film) : 3295, 2945, 2842, 2809, 1121 cm " 1; rmn ' H (CC1 4) S : 1, 26 - 1, 90 (I0H, m, CH 2 cycl.), 2, 37 - 2, 77 (6H, m, CH, N - 0), 3, 53 - 3, 83 (4H, m), 4, 97 (1H, s, OH) ppm; rmn 13 C (CDC1 3) S : 82, 7 (C - l), 67, 0 (C - 2 ", C - 6 "), 56, 6 (C - 2 '), 53, 8 (C - 3 ", C - 5 "), 40, 1 (C - 2, C - 5), 35, 0 (C - l '), 23, 8 (C - 3, C - 4) ppm; sm m / e : 199, 20 (M - 15), 100, 15 (C 4 H 8 ONCH 2 +, 100 %), 87, 10 (16), 57, 05 (10), 55, 95 (13). Anal. calc. pour C " H 12 N0 2 : C 66, 29, H 10, 62, N 7, 02; tr. : C 66, 32, H 10, 75, N 7, 11. (Pyrrolidinyl - 1) - 3 propyl - 1 cyclopentanol (18) En utilisant 1, 839 g (9, 92 mmol) d ' ester distillation, 1, 611 g de cyclopentanol 18; Rdt = (0, 02 Torr); F = 33, 5 - 35, 0°C; ir v max (film) 2787, 1137 cm " 1; rmn ' H (CDC1 3) 8 : 1, 43 - cycl.), 2, 40 - 2, 73 (6H, s, CH, N), 6, 77 (1H, s (CDC1 3) 8 : 80, 3 (C - l), 57, 1 (C - 3 '), 53, 8 (C - 2 " 40, 3 (C - 2), 24, 7, 24, 3, 23, 5 ppm; sm m / e : 197 (7), 84, 20 (C 4 H 8 NCH, +, 100 %), 70, 10 (7), 55 pour C, 2 H 23 NO : C 73, 05, H 11, 75, N 7, 09; tr. N 6, 98. 8 on obtient, après 82 %; Eb = 78 - 80°C : 3390, 2950, 2867, 1, 97 (16H, m, CH 2 OH) ppm; rmn 13 C C - 5 "), 41, 6 (C - l '),, 25 (M +, 1, 3), 85, 10 05 (11). Anal. calc. : C 72, 98, H 11, 71, (Pipéridinyl - 1) - 3 propyl - 1 cyclopentanol (19) En utilisant 2, 018 g (10, 2 mmol) d ' ester 9 on obtient, après distillation, 1, 811 g de cyclopentanol 19; Rdt = 84 %; Eb = 75 - 77°C (0, 03Torr) (litt. (14a) Eb 107 - 109°C (2Torr)); F = 40 - 41°C; ir v max (film) : 3380, 3110, 2918, 2842, 2787, 2757 cm " 1; rmn ' H (CDC1 3) 8 : 1, 25 - 1, 90 (18H, m, CH, cycl.), 2, 24 - 2, 60 (6H, m, CH 2), 6, 78 (1H, s, OH) ppm; rmn 13 C (CDC1 3) 5 : 80, 3, 59, 9, 54, 5, 41, 9, 40, 3, 25, 6, 24, 4, 24, 3, 22, 8 ppm; sm m / e : 215, 15 (M +, 1, 7), 98, 15 (C 5 H 10 NCH 2 +, 100 %), 84, 15 (8), 55, 10 (9). (Morpholinyl - 4) - 3 propyl - 1 cyclopentanol (10) (20) En utilisant 2, 0240 (10, 1 mmol) d ' ester 10 on obtient, après distillation, 1, 770 g de cyclopentanol 20; Rdt = 82 %; Eb = 92 - 94°C (0, 03 Torr); F = 49, 5 - 50°C; ir v max (film) : 3420, 3150, 2948, 2862, 2844, 2802, 1269, 1132 cm " 1; rmn ' H (CDC1 3) 8 : 1, 30 - 1, 35 (12H, m, CH 2 cycl.), 2, 30 - 2, 67 (6H, m, CH 2 N), 3, 60 - 3, 87 (4H, m, CH, - 0), 5, 50 (1H, s, OH) ppm; rmn 13 C (CDC1 3) ô : 80, 7, 66, 7, 59, 6, 53, 6, 41, 0, 40, 2, 24, 1, 22, 0 ppm; sm m / e : 213, 30 (M +, 2, 0), 100, 20 (C 4 H 8 ONCH 2 +, 100 %), 56, 10 (13), 55, 10 (14). Anal. calc. pour CI 2 H 23 N0 2 : C 67, 57, H 10, 87, N6, 56; tr. : C67, 52, H 10, 83, N 6, 62. (Pyrrolidinyl - 1) - l éthyl - 1 cyclopentanol (24) En utilisant 2, 917 g (17, 8 mmol) d ' ester 21 on obtient, après distillation, 2, 128 g de cyclopentanol 24; Rdt = 71 %; Eb = 56 - 58°C (0, 03 Torr); ir v max (film) : 3375, 3060, 2875, 2805 cm " 1; rmn ' H (CDC1 3) 8 : 0, 93 (3H, d, J = 7 Hz, CH 3), 1, 27 - 2, 97 (12H, m, CH 2 cycl.), 2, 43 - 2, 83 (4H, s, CH,), 2, 97 (1H, q, CHN), 4, 73 (1H, s, OH) ppm; rmn l3 C (CDC1 3) 8 : 82, 4 (C - l), 61, 5 (C - l), 49, 5 (C - 2 ", C - 5 "), 39, 1 (C - 5), 35, 8 (C - 2), 25, 2 (C - 4), 24, 2 (C - 3), 24, 0 (C - 3 ", C - 4 "), 7, 4 (C - 2 ') ppm; sm m / e : 183, 25 (M +, 0, 8), 28, 20 (C 4 H g NCH + CH 3, 100 %), 55, 10 (11). Anal. calc. pour C n H, iNO : C 78, 08, H 11, 55, N 7, 64; tr. : C 71, 95, H 11, 59, N 7, 55. (Méthyl - 1) - pyrrolidinyl - l éthyl - 1 cyclopentanol (25) En utilisant 1, 995 (10, 9 mmol) de méthyl - 2 pyrrolidinyl - 2 propa - noate d ' éthyle (22), on obtient après distillation, 1, 446 g de (méthyl - 1) - pyrrolidinyl - 1 éthyl - 1 cyclopentanol (24); Rdt = 72 %; Ed = 58 - 60°C (0, 05 Torr); ir v max (film) : 3360, 2978, 2869, 2812, 1173, 1013 cm " 1; rmn ' H (CDC1 3) 8 : 1, 07 (6H, s, CH 3), 1, 23 - 1, 87 (12H, m, CH 2 cycl.), 2, 50 - 2, 83 (4H, m, CH, 0), 4, 65 (1H, s, OH) ppm; rmn 13 C (CDC1 3) 8 : 85, 2 (C - l), 60, 8 (C - l '), 47, 6 (C - 2 ", C - 5 "), 37, 5 (C - 2, C - 5), 24, 4 (C - 3, C - 4), 19, 1 (CH 3); sm m / e : 197, 35 (M +, 0, 1), 113, 20 (7), 112, 10 (C 4 H 8 NC + (CH 3) 2, 100 %), 70, 15 (17), 55 (8). (Morpholinyl - 4) -] éthyl - 1 cyclopentanol (26) En utilisant 2, 706 g (14, 0 mmol) d ' ester 23 on obtient après purification 2, 280 g de cyclopentanol 26; Rdt = 80 %; Eb = 81 - 83°C (0, 03 TOIT); ir v max (film) : 3955, 2955, 2845, 1118 cm " 1; rmn ' H (CDC1 3) 8 : 1, 00 (3H, d, J = 7 Hz, CH 3 CH), 1, 33 - 1, 90 (8H, m, CH 2 cycl.), 2, 30 - 2, 90 (5H, m, OLN, CH 2 N), 3, 73 (4H, t, J = 4, 5 Hz, CH, 0), 4, 63 (1H, s, OH) ppm; rmn l3 C (CDC1 3) 8 : 82, 3 (C - l), 67, 5 (C - 2 ", C - 6 "), 66, 4 (C - l '), 50, 5 (C - 3 ", C - 5 "), 39, 2 (C - 5), 35, 7 (C - 2), 25. 2 (C - 4), 23, 6 (C - 3), 7, 4 (C - 2 ') ppm; sm m / e : 199, 25 (M +, 1, 0), 115, 20 (7), 114, 10 (C 4 H 8 ONCH + CH 3, 100 %), 70, 15 (6). Anal. calc. pour CnH 21 NO, : C 66, 29, H 10, 62, N 7, 02; tr. : C 66, 19, H 10, 72, N 7, 15. Préparation des N, N - dialkylaminoalkylcyclohéxanols En suivant le même mode opératoire que pour la préparation des / V, / V - dialkylcyclopentanols, on constate que le produit brut contient des quantités variant de 2 à 18 % d ' alcools secondaires insaturés. La séparation s ' est avérée difficile dans certains cas. La spectroscopie de rmn ' H montre des faibles quantités d ' alcool insaturé même après purification des aminoalkylcyclopentanols liquides. (Pyrrolidinyl - 1) méthyl - l cyclohexanol (10) (27) En utilisant 1, 852 (11, 9 mmol) de l ' ester 1 on obtient, après distillation, 1, 356 g de cyclohexanol 27; Rdt = 66 %; Eb = 62 - 65°C (0, 2 Torr); ir v max (CH, C1 2) : 3420, 2930, 2848, 2800 cm " 1; rmn ' H (CDCI3) 8 : 1, 10 - 1, 93 (14H, m, CH 2), 2, 45 (2H, s, NCH 2 COH), 2, 50 - 2, 83 (4H, m, CH 2 N), 3, 47 (1H, s, OH) ppm; rmn l3 C (CDC1 3) 8 : 70, 0 (C - l), 66, 6 (C - l '), 56, 9 (C - 2 ", C - 5 "), 37, 2 (C - 2, C - 6), 26, 0 (C - 4), 24, 3 (C - 3 ", C - 4 "), 22, 3 (C - 3, C - 5); ms m / e : 183, 20 (M +, 3, 1), 85, 15 (9), 84, 15 (C 4 H 8 NCH 2, 100 %), 55, 15 (9). (Pipéridinyl - 1) méthyl - l cyclohexanol (10) (28) En utilisant 3, 802 g (22, 2 mmol) de l ' ester 2 on obtient, après distillation, 1, 601 g de cyclohexanol 28; Rdt = 68 %; Eb = 56 - 58°C (0, 02 Torr); ir v max (film) : 3440, 2922, 2847, 2790, 1110 cm " 1; rmn ' H (CDC1 3) 8 : 1, 46 (16H, m, CH 2 cycl.), 2, 27 (2H, s, CH, N), 2, 43 - 2, 70 (4H, m, CH 2 N), 3, 45 (1H, s, OH) ppm; rmn 13 C (CDC1 3) 8 : 70, 00 (C - l), 68, 4 (C - l '), 57, 5 (C - 2 ", C - 6 "), 37, 2 (C - 2, C - 6), 26, 6 (C - 3 ", C - 5 "), 26, 1 (C - 4), 24, 1 (C - 4 "), 22, 4 (C - 3, C - 5) ppm; sm m / e : 197, 30 (M +, 2), 99, 15 (8), 98, 15 (C 5 H I0 NCH 2 +, 100 %), 55, 05. (Morpholinyl - 4) méthyl - l cyclohexanol (29) En utilisant 1, 732 g (10, 0 mmol) de l ' ester 4 on recueille 1, 366 g de composé 29; Rdt = 70 %; Eb = 77 - 78°C (0, 03 Torr); ir v max (film) : 3460, 2923, 2844, 2802, 1120, 1010 cm " 1; rmn ' H (CDC1 3) 8 : 1, 33 - 1, 70 (10H, m, CH 2 cycl.), 2, 33 (2H, s, NCH 2), 2, 50 - 2, 73 (4H, m, CH 2 N), 3, 03 (1H, s, OH), 3, 60 - 3, 90 (4H, m, CH 2 0) ppm; rmn 13 C (CDCI3) 8 : 70, 6 (C - l), 68, 5 (C - l '), 67, 4 (C - 2 ", C - 6 "), 56. 3 (C - 3 ", C - 5 "), 37, 0 (C - 2, C - 6), 26, 0 (C - 4), 22, 2 (C - 3, C - 5) ppm; sm m / e : 199, 30 (M +, 2, 5), 101, 15 (12), 100, 15 (C 4 H 8 ONOL\ 100 %), 56, 05 (14). Anal. calc. pour C,, H 21 NO, : C 66, 29, H 10, 62, N 7, 02; tr. : C 66, 20, H 10, 49, N 6, 98. (Pyrrolidinyl - 1) - 2 éthyl - 1 cyclohexanol (30) En utilisant 2, 002 g (11, 7 mmol) de l ' ester 5 on recueille, après distillation, 1, 410 de l ' aminocyclohexanol 30; Rdt = 65 %; Eb = 71 - 72°C (0, 04 Torr); F = 46, 5 - 47, 5°C; ir v max (CH, C1 2) : 3200, 2936, 2860, 2809 cm " 1; rmn ' H (CDC1 3) 8 : 1, 17 - 1, 93 (16H, m, CH 2 cycl.), 2, 42 - 2, 90 (6H, m, CH, N), 6, 27 (1H, s, OH) ppm; rmn 13 C (CDC1 3) 8 : 71, 6 (C - l), 54, 1 (C - 2 ", C - 5 "), 51, 7 (C - 2 '), 38, 3 (C - 2, C - 6), 37, 6 (C - l '), 26, 3 (C - 4), 23, 6 (C - 3 ", C - 4 "), 22, 4 (C - 3, C - 5) ppm; ms m / e : 197, 25 (M +, 3, 7), 85, 05 (6), 84, 15 (C 4 H 8 NOL +, 100 %), 71, 70 (5), 70, 10 (6), 55, 15 (7). Anal. calc. pourC P H 23 NO : C 73, 04, H 11, 75, N 7, 10; tr. : C 72, 98, H 11, 79, N 7, 11. (Pipéridinyl - 1) - 2 éthyl - 1 cyclohexanol (31) En utilisant 1, 927 g (10, 4 mmol) de l ' ester 6 on obtient après purification 1, 406 g de cristaux blancs; Rdt = 70 %; Eb = 67 - 69°C (0, 03 Torr) (litt. (10) Eb 115°C (2, 9 Torr)); F = 46, 0 - 48, 0°C; irv max (film) : 3220, 2923, 2848, 2810, 2758, 1119 cm " 1; rmn ' H (CDC1 3) 8 : 1, 28 - 1, 87 (18H, m, CH 2 cycl.), 2, 33 - 2, 77 (7H, m, CH, N) ppm; rmn 13 C (CDC1 3) 8 : 71, 6 (C - l), 54, 8 (C - 2 ', C - 2 ", C - 6 "), 38, 5 (C - 2, ' H (CDCI3) 8 : 1, 17 - 1, 97 (18H, m,, CH 2 N), 5, 70 (1H, s, OH) ppm; rmn C - 6), 35, 5 (C - l '), 26, 2 (C - 4, C - 3 ", C - 5 "), 25, 1 (C - 4 "), 22, 5 (C - 3, C - 5) ppm; sm m / e : 211, 5 (M +, 2, 1), 99, 15 (7), 98, 15 (C 5 H| 0 NCH 2 +, 100 %). (Morpholinyl - 4) - 2 éthyl - 1 cyclohexanol (32) En utilisant 1, 872 g (10, 0 mmol) de l ' ester 7 on obtient après purification 68 % (1, 670 g) d ' aminocyclohexanol 32; Eb = 91 - 93°C (0, 08 Torr); F = 37, 5 - 39, 0°C; ir v max (film) : 3350, 2921, 2845, 2810, 1436, 1135, 1020, 1008 cm " 1; rmn ' H (CDC1 3) 8 : 1, 23 - 1, 77 (12H, CH 2 cycl.), 2, 43 - 2, 77 (7H, m, OLN), 3, 64 - 3, 86 (4H, m, CH, 0) ppm; rmn l3 C (CDC1 3) 8 : 71, 6 (C - l), 67, 0 (C - 2 ", C - 6 "), 54, 6 (C - 2 '), 53, 8 (C - 3 ", C - 5 "), 38, 3 (C - 2, C - 6), 35, 3 (C - l '), 26, 2 (C - 4), 22, 3 (C - 3, C - 5); sm m / e : 213, 20 (M +, 3, 0), 100, 20 (C 4 H 8 ONCH 2 +, 100 %), 56, 10 (10). Anal. calc. pour C, 2 H 23 NO, : C 67, 57, H 10, 87, N 6, 56; tr. : C 67, 6, H 10, 79, N 6, 61. (Pyrrolidinyl - 1) - 3 propyl - 1 cyclohexanol (33) En utilisant 1, 872 g (10, 0 mmol) de l ' ester 8 on obtient après purification 1, 460 g d ' aminocyclohexanol 33; Rdt = 67 %; Eb = 85 - 87°C (0, 03 Torr); ir v max (film) : 3100, 3025, 2928, 2870, 2833, 2799, 1458, 1442 cm " 1; rmn CH, cycl.), 2, 33 - 2, 77 (6H, n 13 C (CHCI3) 8 : 69, 3 (C - l), 57, 1 (C - 3 '), 53, 9 (C - 2 ", C - 5 "), 41, 4 (C - l '), 38, 2 (C - 2, C - 6), 26, 3 (C - 4), 23, 5 (C - 3 ", C - 4 "), 22, 6 (C - 3, C - 5, C - 2 ') ppm; sm m / e : 211, 15 (M +, 1, 9), 84, 15 (C 4 H 8 NCH 2 +, 100 %), 55, 10 (10). Anal. calc. pour C 13 H 25 NO : C 73, 88, H 11, 92, N 6, 62; tr. : C 73, 80, H 11, 98, N 6, 67. (Pipéridinyl - 1) - 3 propyl - 1 cyclohexanol (34) En utilisant 1, 955 g (10, 0 mmol) de l ' ester 9 on recueille, après distillation, 68 % de cyclohexanol 34; Eb = 86 - 87°C (0, 05 Torr) (litt. (14a) Eb 122 - 123°C (2Torr)); ir v max (film) : 3380, 3120, 2922, 2843, 2795, 2760, 729 cm " '; rmn ' H (CDC1 3) 8 : 1, 20 - 1, 80 (20H, m, CH 2 cycl.), 2, 20 - 2, 57 (6H, m, CH, N), 5, 95 (1H, s, OH) ppm; rmn 13 C (CDC1 3) 8 : 69, 1 (C - l), 59, 9 (C - 3 '), 54, 6 (C - 2 ", C - 6 "), 41, 7 (C - l), 38, 3 (C - 2, C - 6), 26, 3 (C - 4), 25, 6 (C - 3 ", C - 5 "), 24, 4 (C - 4 "), 22, 6 (C - 3, C - 5), 20 (C - 2 ') ppm; sm m / e : 225, 25 (M +, 2, 1), 99, 15 (6), 98, 15 (C 5 H 10 CH 2 +, 100 %), 84, 15 (6), 55, 10 (8). Anal. calc. pour C 14 H 27 NO : C 74, 61, H 12, 08, N 6, 21; tr. : 74, 59, H 12, 05, N 6, 17. (Morpholinyl - 4) - 3 propyl - 1 cyclohexanol (35) En utilisant 2, 088 g (10, 4 mmol) de l ' ester 10 on recueille, après distillation, 2, 086 g de cyclohexanol 35; Rdt = 75 %; Eb = 106 - 107°C (0, 03 Torr); ir v max (film) : 3440, 2929, 2850, 2804, 1120 cm ' 1; rmn ' H (CDCI3) 8 : 1, 10 - 1, 85 (14H, m, CH 2 cycl.), 2, 30 - 2, 67 (6H, m, CH, N), 3, 60 - 3, 87 (4H, m, CH 2 0), 5, 00 (1H, s, OH); rmn 13 C (CDCI3) 8 : 69, 8 (C - l), 66, 7 (C - 2 ", C - 6 "), 59, 8 (C - 3 '), 53, 8 (C - 3 ", C - 5 "), 41, 0 (C - l '), 38, 1 (C - 2, C - 5), 26, 1 (C - 4), 22, 5 (C - 3, C - 5), 20, 0 (C - 2 ') ppm. Anal. calc. pour C| 3 H 25 N0 2 : C 68, 68, H 11, 08, N 6, 16; tr. : C 68, 45, H 11, 16, N 6, 11. Phénoxyméthylcyclopentanol (42) En utilisant 1, 915 g (10, 6 mmol) d ' ester 36 on obtient 1, 526 g de cyclopentanol 42; Rdt = 80 %; Eb = 80 - 81°C (0, 05 Torr); F = 47 - 48°C; ir v max (film) : 3430, 2960, 2862, 1602, 1590, 1498, 1249, 1044, 757, 694cm " 1; rmn [H (CDC1 3) 8 : 1, 87 (8H, m, CH 2 cycl.), 2, 30 (1H, s, OH), 3, 93 (2H, s, CH, 0), 6, 83 - 7, 53 (5H, m, 4 aromatiques) ppm; rmn 13 C (CDC1 3) 8 : 159, 3 (C - l "), 129, 7 (C - 3 ", C - 6 "), 121, 2 (C - 4 "), 115, 0 (C - 2 ", C - 6 "), 81, 4 (C - l), 75, 0 (C - l '), 37, 5 (C - 2, C - 5), 24, 4 (C - 3, C - 4); ms m / e : 193, 20 (M + 1, 7, 8), 192, 30 (M +, 15, 7), 108, 10 (C 6 H 5 OCH 3, 100 %), 94, 20 (C 6 H 5 OH +, 71), 85, 77, 15, 67, 15, 65, 20, 51, 20. Anal. calc. pour C, 2 H 16 0 2 : C 74, 96, H 8, 39; tr. : C 74, 81, H 8, 28. Phénylthiométhyl - 1 cyclopentanol (43) En utilisant 2, 085 g (10, 6 mmol) d ' ester 37 on recueille 1, 856 g de cyclopentanol 43; Rdt = 84 %; Eb = 108 - 110°C (0, 03 Torr); ir v (film) : 3427, 2958, 2862, 1579, 1474, 1000, 737, 688 ' H (CDCI3) 8 : 1, 70 (8H, m, CH 2 cycl.), 2, 20 (1H, s, OH), 3, 27 (2H, s, CH 2 S), 7, 20 - 7, 63 (5H, m, aromatiques) ppm; rmn 13 C (CDC1 3) 8; 137, 3 (C - l), 129, 9 (C - 3 ", C - 5), 129, 1 (C - 2 ", C - 6 "), 126, 4 (C - 4 '), 81, 9 max cm - 1; rmn (C - l), 46, 8 (C - T), 39, 5 (C - 2, C - 5), 24, 1 (C - 3, C - 4) ppm; sm m / e : 209, 15 (M + 1, 2), 208, 15 (M +, 14), 124, 15 (C 6 H 5 CH 3 +, 21), 78, 15 (C 6 H 5 +, 11), 77, 15 (C 6 H 5, 13), 67, 15 (21), 65, 20 (C 6 H 5 +, 15), 57, 20 (11), 51, 20 (14). Anal. calc. pourC 12 H 16 OS : C 69, 18, H 7, 74; tr. : C 69, 27, H 7, 70. Chlorométhyl - 1 cyclopentanol (44) En utilisant 4, 80 g (39, 2 mmol) de chloroacétate d ' éthyle (38) on obtient 3, 203 g de cyclopentanol 44; Rdt = 67 %; Eb = 60 - 62°C (7 Torr) (litt. (14b) Eb 57 - 58°C (6 Torr)); ir v max (film) : 3400, 2955, 2869, 1437, 1322, 1285, 1249, 1217, 1188, 1066, 990, 727 cm " 1; rmn ' H (CDC1 3) 8 : 1, 55 - 1, 90 (8H, m, CH, cycl.), 2, 23 (1H, s, OH), 3, 62 (2H, s, CH 2 C1) ppm; rmn l3 C (CDC1 3) 8 : 81, 9 (C - l), 54, 2 (C - T), 38, 3 (C - 2, C - 5), 24, 4 (C - 3, C - 4) ppm; sm m / e : 136, 5 (M + + 2, 0, 4), 134, 25 (M +, 1, 4), 107, 10 (C 4 H 6 0 37 C1, 12), 105, 10 (C 4 H 6 0 35 C1, 37), 92, 10 (27), 85, 25 (C 3 H 8 OH +, 100 %), 67, 15 (C 5 H 7 +, 44), 57, 10, 55, 10, 53, 10. Anal. calc. pour C 6 H U OC1 : C 53, 53, H 8, 23; tr. : C 53, 43, H 8, 15. (Phénoxy - 1 éthyl) - l cyclopentanol (45) En utilisant 5, 00 g (26 mmol) de phénoxy - 2 propanoate d ' éthyle (39) on obtient, après distillation, 4, 043 g de cyclopentanol 45; Rdt = 87 %; Eb = 125°C (0, 03 Torr); irv max (film) : 3450, 2960, 2885, 1595, 1488, 1447, 1288, 1240, 1170, 1050, 740 cm " 1; rmn ' H (CDC1 3) 8 : 1, 32 (3H, d, CH 3), 1, 74 (8H, m, CH 2 cycl.), 2, 11 (1H, s, OH), 4, 27 (1H, q, CHCH 3), 6, 72 - 7, 45 (5H, m, 4 aromatiques) ppm. Anal. calc. pour C 13 H 18 0 2 : C 75, 69, H 8, 79; tr. : C 75, 52, H 8, 74. Diéthoxyméthyl - 1 cyclopentanol (46) En utilisant 5, 00 g (28 mmol) de diéthoxyacétate d ' éthyle (40) on recueille, après distillation, 4, 039 g de diéthoxyméthyl - 1 cyclopenta - nol 46; Rdt = 76 %; Eb = 48°C (0, 08 Torr); ir v max (film) : 3460, 2970, 2865, 1100, 1065 cm - 1; rmn ' H 8 : 1, 25 (6H, t, CH - > - CH 3), 1, 44 - 2, 00 (8H, m, CH 2 cycl.), 2, 18 (1H, s, OH), 1, 47 - 4, 10 (4H, m, CH 3 CH,), 4, 38 (1H, s, OH) ppm. Anal. calc. pour C 10 H, 0 O 3 : C 63, 79, H 10, 71; tr. : C 63, 71, H 10, 76. (Dithiolane - 1, 3) - l cyclopentanol (49) En utilisant 3 g (27 mmol) de dithiolane - 1, 3 acétate d ' éthyle 41 on obtient, après distillation, 2, 131 g de cyclopentanol 49; Rdt = 67 %; Eb = 92 - 94°C (0, 05 Torr); ir v max (film) : 3440, 2950, 2865, 1355, 1278, 1000 cm - 1; rmn ' H (CDC1 3) 8 : 1, 79 (8H, m, CH, cycl.), 2, 28 (1H, s, OH), 3, 27 (4H, s, CH 2 - CH 2), 4, 72 (1H, s, CH) ppm. Anal. calc. pour C 8 H 14 OS 2 : C 50. 49, H 7. 41; tr. : C 50. 42, H 7. 46. Phénylthiométhyl - 1 cyclohexanol (50) En utilisant 2, 085 g (10, 6 mmol) de l ' ester 37 on recueille, après distillation, 1, 080 g de cyclohexanol 50; Rdt = 55 %; Eb = 112°C (0, 02 Torr); ir v max (film) : 3440, 2930, 2860, 1587, 1483, 1442, 1032, 987, 741, 695 cm " 1; rmn ' H (CDC1 3) 8 : 1, 17 - 1, 70 (10H, m, CH 2 cycl.), 2, 23 (1H, s, OH), 3, 10 (2H, s, CH 2 S), 7, 24 (5H, m, H aromatiques) ppm. Anal. calc. pour C 13 H, 8 OS : C 70, 22, H 8, 16; tr. : C 70, 21, H 8, 14. (Phénoxy - 1 éthyl - l) - l cyclohexanol (51) En utilisant 4, 00 g (21 mmol) de phénoxy - 2 propanoate d ' éthyle (39) on recueille, après distillation, 3, 291 g de liquide incolore. D ' après le spectre de rmn ' H nous obtenons une quantité appréciable de phénoxy - 2 heptène - 6 ol - 3. Le rendement approximatif en (phénoxy - 1 éthyl - 1) - 1 cyclohexanol (51) est de 38 %; Eb = 90 - 104°C (0, 02Torr); ir v max (film) : 3430, 2940, 2865, 1605, 1500, 1245, 918, 758, 700 cm " 1; rmn 1 H (CDC1 3) 8 : 1, 30 (3H, d, CH 3), 1, 62 (10H, m, OH cycl.), 2, 10 (1H, s, OH), 3, 71 (1H, m, CHCH 3), 4, 03 - 4, 43 (1H, m, CHCH 3), 6, 73 - 7, 56 (5H, m, aromatiques) ppm. Anal. calc. pour C 14 H 20 O 2 : C 76, 32, H 9, 15; tr. : C 76, 28, H 9, 03. Nous remercions le Conseil de recherches en sciences naturelles et en génie du Canada et le Ministère de l'éducation du gouvernement du Québec pour l'aide financière apportée sous forme de subventions et bourses .
Synthèse de dialkylaminoalkyl-, chloroalkyl-, phénoxyalkyl-, phénylthioalkyldiéthoxy-1',1' alkyl- et de [dithiolanne-1,3yl-2]-1' alkyl-1 cyclanols par réaction des α,ω-bis-bromomagnésio alcanes sur les esters fonctionnalisés correspondants
chimie_89-0127338_tei_16.v88-026.tei.xml
termith-331-chimie
En 1994, les premières images IRM des cavités pulmonaires d'une souris effectuées avec du 129 Xe préalablement hyperpolarisé par pompage optique ont été réalisées ex vivo 〚1〛. Depuis, la faisabilité de l'imagerie des espaces aériens pulmonaires a été largement démontrée tant chez l'animal 〚1–5〛 que chez l'homme 〚6–12〛, que ce soit par RMN du 129 Xe ou de l' 3 He hyperpolarisés. Plus récemment, plusieurs équipes ont choisi d'explorer l'utilisation des gaz hyperpolarisés par voie injectable 〚13〛. Cela peut se faire, soit par emprisonnement d' 3 He dans des micro-bulles, ce qui permet l'obtention d'images angiographiques 〚14–15〛, soit en exploitant les propriétés de dissolution du 129 Xe, soluble dans le sang et traversant librement la barrière hémato-encéphalique. Ces protocoles visent à obtenir des images angiographiques 〚16–19〛 ou fonctionnelles de perfusion tissulaire 〚20–21〛. L'importance de l'interface entre sang et cellules dans les échanges de nutriments, de fluides, d'ions et de substrats énergétiques s'explique par la faible diffusibilité de ces substances. Cela rend nécessaire l'existence d'un réseau capillaire dense, qui assure l'irrigation sanguine correcte de la totalité du volume tissulaire. Évaluer la perfusion au niveau d'un organe, que ce soit de façon globale (valeur moyenne pour tout l'organe) ou régionale (par imagerie) revêt une importance tant fondamentale que clinique pour certains organes, comme le cerveau ou le cœur. Cela peut permettre d'en suivre les modifications au cours de pathologies, d'évaluer des thérapeutiques mises en œuvre, de comprendre des modifications au cours de changements d'états physiologiques (exercice) ou artificiels (anesthésie), etc. De plus, l'accès à une mesure quantitative précise permet d'évaluer la perfusion d'un organe par rapport à un état normal choisi comme référence. Parmi les méthodes permettant une appréciation quantitative de la perfusion d'un organe, la méthode de référence est celle de Kety–Schmidt 〚22, 23〛, qui repose sur le principe de Fick 〚24〛 et suppose l'utilisation de traceurs inertes librement diffusibles. Ces traceurs doivent être inertes (chimiquement et biochimiquement), car leur répartition dans le tissu n'est ainsi fonction que de la perfusion sanguine de celui -ci. Leur diffusibilité (totalement libre ou seulement fonction de la solubilité relative sang/tissu) permet de s'affranchir de la mesure de la fonction d'entrée circulatoire du traceur pour la quantification, mesure délicate dont la prise en compte repose sur des hypothèses et des modèles mathématiques simplificateurs (méthodes de dilution et de clairance). Une mesure globale peut se faire par prélèvements veineux réguliers. L'utilisation d'isotopes radioactifs émetteurs gamma a permis de réaliser ces mesures par comptage externe au niveau de l'organe, puis d'obtenir des mesures régionales par la multiplication des compteurs et enfin d'obtenir une image paramétrique de la distribution du traceur, dont l'échelle de couleur est quantifiée (en mL·(100 g de tissu) –1 ·min –1) pour la perfusion tissulaire. Le xénon est un candidat presque idéal pour ce type de mesure 〚25, 26〛, car, en tant que gaz rare, il est chimiquement inerte, mais il est aussi largement diffusible dans les tissus biologiques, car lipophile. Il possède deux isotopes émetteurs gamma, le 133 Xe et le 135 Xe. Largement employé en médecine, son devenir biologique après injection ou inhalation est parfaitement connu et exploité depuis de nombreuses années 〚27, 28〛. Ceci explique que les méthodes l'utilisant demeurent les méthodes de référence pour les mesures de perfusion, par exemple cérébrales, au même titre que les méthodes à base d'émetteurs de positons (H 2 O marquée à l' 15 O). Cependant, ces méthodes d'émission nécessitent des équipements dédiés. De plus, la résolution spatiale (6 à 7 mm) liée aux techniques scintigraphiques reste, actuellement, beaucoup plus grossière que celle permise par les autres méthodes d'imagerie clinique. L'IRM, par rapport aux autres techniques d'imagerie, combine les avantages d'une résolution spatiale élevée et de l'absence de rayonnements ionisants. Il était légitime d'envisager l'étude de la perfusion tissulaire par IRM. Mais l'utilisation des techniques de traceurs en IRM est limitée par la faible sensibilité de la méthode. De ce fait, l'application des principes régissant l'utilisation et l'exploitation des traceurs est difficile. C'est parce que la polarisation en présence d'un champ magnétique externe dépend de la température (polarisation thermique) et reste très faible à température physiologique que seuls peuvent être facilement observés les noyaux les plus abondants dans les tissus vivants, en particulier l'hydrogène. Le 129 Xe et l' 3 He présentent la particularité d'avoir une polarisation qui peut être considérablement augmentée par pompage optique (d'un facteur de l'ordre de 10 5) par rapport à sa valeur à l'équilibre thermique. On parle alors d'hyperpolarisation, ce qui va compenser la faible densité volumique de ces noyaux, les rendant ainsi plus aisément détectables. Nous nous sommes intéressés à la possibilité de reproduire par IRM du 129 Xe hyperpolarisé les résultats obtenus en scintigraphie du 133 Xe, à savoir des cartographies de perfusion cérébrale. Le xénon peut être administré chez les êtres vivants, soit par inhalation, soit par injection. La voie pulmonaire est moins invasive, mais plus délicate à utiliser, dans le cas du xénon hyperpolarisé, pour des mesures cérébrales 〚20〛. De ce fait, même si la première image de la distribution intracérébrale du 129 Xe par IRM a été réalisée par cette méthode 〚29〛, elle reste difficilement reproductible. Nous avons choisi de nous placer dans les conditions d'administration les plus favorables, c'est-à-dire au plus près de l'organe observé, le cerveau, et d'utiliser une injection artérielle, intra-carotidienne. Une des difficultés d'utilisation du 129 Xe hyperpolarisé pour les applications biomédicales provient du T 1 court in vivo (T 1 ∼ 10 s) du xénon, qu'il soit introduit par voie intraveineuse ou pulmonaire 〚30, 31〛 : la polarisation acquise par pompage optique est alors irrémédiablement perdue. Il est donc nécessaire de vectoriser le xénon, afin qu'il puisse atteindre le tissu cible avec une concentration la plus élevée possible, tout en gardant une polarisation élevée, et sans perturber la physiologie de l'animal. Nous nous sommes donc attachés à trouver un vecteur permettant l'acheminement du xénon hyperpolarisé à un organe cible. Pour cela, nous avons envisagé deux types de fluides : un pour lequel le xénon se trouve encapsulé dans des micro-bulles (Echovist, laboratoires Guerbet, France, micro-bulles de 2–3 μm de diamètre) et un pour lequel le xénon est dissous (Intralipide, Upjohn Pharmacia, France). Le 129 Xe a été hyperpolarisé par pompage optique de la vapeur de rubidium et échange de spin sur le noyau de 129 Xe 〚32〛. Un laser de 150 W (795 nm, Optopower) a été utilisé. La procédure expérimentale d'hyperpolarisation du xénon permet de disposer d'environ 20 mL de xénon polarisé à 18–20 % en un temps de l'ordre de 10 min 〚21〛. Le 129 Xe hyperpolarisé est ensuite introduit dans une seringue, elle -même connectée à une autre seringue contenant le fluide à tester. En fonction des coefficients de dissolution d'Ostwald (∼0,4 pour l'Intralipide 20 % et ∼0,6 pour l'Intralipide 30 % 〚17〛) et du volume de 129 Xe hyperpolarisé initial, nous pouvons déterminer le volume d'Intralipide nécessaire pour dissoudre la totalité du xénon. Par un rapide va-et-vient entre les deux seringues, de durée typiquement compris entre 5 et 7 s, on crée, soit une suspension de micro-bulles (Echovist), soit une émulsion lipidique, dans laquelle le xénon est dissous (Intralipide 20 ou 30 %). Les expériences RMN ont été réalisées à 2,35 T. La spectroscopie RMN (séquence à une impulsion suivie de l'acquisition, 5° d'angle d'impulsion, suivant les expériences de 4  096 à 16  384 points acquis et de 20 à 100 kHz de bande spectrale) nous a permis d'évaluer les capacités de dissolution et d'emprisonnement sous forme de micro-bulles du 129 Xe hyperpolarisé dans ces fluides. Nous avons ainsi mesuré le déplacement chimique du xénon dans les fluides et le rapport relatif de la quantité de xénon dissous par rapport à la quantité de xénon gazeux. Le temps de relaxation longitudinale T 1 du xénon (mêmes paramètres que ci-dessus, acquisition toutes les 3 ou 5 s, suivant les expériences) a également été mesuré. Le temps de vie des micro-bulles créées avec l'Echovist a été mesuré par néphélémétrie; la taille des gouttelettes d'Intralipide contenant le xénon a été déterminée par spectroscopie de corrélation photonique. Une séquence d'imagerie projection/reconstruction 2D sans sélection de tranche a été utilisée pour acquérir des images xénon du cerveau de rat (champ de vue 55 mm, angle d'impulsion 15°, matrice 64 × 64). Les résultats sont exprimés comme moyenne ± écart type. Le spectre RMN 129 Xe caractéristique de la solution Echovist/xénon après création de la suspension de micro-bulles de xénon est présenté sur la figure 1a. Les résonances des deux phases du xénon sont séparées de 204,1 ± 0,5 ppm. La quantité de xénon en phase gazeuse (micro-bulles) par rapport à la quantité de xénon dissous se situe dans un rapport 4:3. La figure 1b montre le spectre RMN du 129 Xe dissous dans l'Intralipide 20 %. Aucune résonance correspondant à une phase gazeuse n'a pu être détectée. Le déplacement chimique est de 194,6 ± 0,5 ppm. La valeur de T 2 * du xénon dissous est de 9,6 ± 0,5 ms. L'utilisation d'Intralipide 30 % a conduit à des valeurs identiques du déplacement chimique et de T 2 *. Une quantité de xénon plus importante (plus de 50 %) peut être dissoute dans l'Intralipide 30 %, en raison de la valeur du coefficient de dissolution plus élevée (0,6 au lieu de 0,4 pour l'Intralipide 20 %). Les valeurs de T 1 du 129 Xe hyperpolarisé dans les différents fluides vecteurs (figure 2) sont les suivantes : pour l'Echovist, T 1 gaz = 20,0 s, T 1 dissous = 19,0 s, pour l'Intralipide 20 %, T 1 dissous = 15,2 ± 4,9 s (n = 5). Pour l'Intralipide 30 %, T 1 dissous = 20,9 ± 2,9 s (n = 4). L'analyse néphélémétrique indique une durée de vie des micro-bulles de xénon dans l'Echovist de 40,8 ± 0,5 s. L'analyse par spectroscopie de corrélation photonique a permis de mesurer la taille des gouttelettes d'Intralipide dans lesquelles le xénon se trouve dissous. La moyenne de la population majoritaire (90 %) a un diamètre de l'ordre de 500 nm. Il existe aussi des particules de diamètre plus petit, de l'ordre de 100 nm. L'Intralipide 30 % a été choisi comme vecteur préférentiel pour les expériences de mesure de la perfusion cérébrale. Suite à une injection brève (5 s) de 0,15 mL de mélange Intralipide 30 %–xénon dans la carotide interne du rat, et compte tenu du volume mort total (0,35 mL) ainsi que du coefficient d'Ostwald du xénon dans l'Intralipide 30 % (∼0,6), on estime à 0,09 mL le volume de xénon hyperpolarisé qui va atteindre le tissu cérébral. Il est aussi possible d'estimer théoriquement, dans ce cas, l'aimantation attendue par rapport à celle du proton pour le même volume de 0,09 mL. Sans tenir compte des pertes d'aimantation par la dissolution, ni de celles provenant éventuellement de mécanismes supplémentaires liés à la relaxation T 1 in vivo, l'aimantation du xénon (à pression et température normales) est 1  850 fois plus élevée que celle du proton. Nous avons observé dans le cerveau in vivo plusieurs pics du xénon (figure 3). Les deux principaux pics ont été attribués, par référence par rapport aux données de la littérature 〚17–20〛, au xénon dissous dans le sang, pour le pic à 194 ppm, et au xénon dissous dans le tissu cérébral, pour celui à 199 ppm. La possibilité d'acquérir plusieurs spectres successifs, permettant le suivi temporel de l'évolution des différents pics, conduit à la détermination du débit sanguin cérébral chez le rat. La valeur moyenne (sur dix rats) du débit sanguin cérébral global obtenue est de 160 ± 30 mL·(100 g) –1 ·min –1 〚33〛. Les valeurs obtenues sont en accord avec les données de la littérature. Il est possible de mesurer le débit sanguin cérébral régional par l'acquisition d'images xénon (figure 4) à la suite de l'injection dans la carotide interne d'une petite quantité de xénon dissous dans l'Intralipide 30 % 〚34〛. Les temps de relaxation du xénon hyperpolarisé dans les vecteurs testés (Intralipide et Echovist) sont de l'ordre de 20 s et sont donc suffisamment longs pour qu'on puisse envisager un acheminement vers un organe cible après une injection intra-artérielle, voire intraveineuse. La taille des particules de fluides ou des micro-bulles est suffisamment petite pour que celles -ci puissent circuler dans le système vasculaire sans risque. On peut noter l'absence de la phase gazeuse du xénon après dissolution de celui -ci dans l'Intralipide 20 ou 30 %. Le coefficient de solubilisation du xénon dans l'Intralipide est élevé (∼0,4 pour l'Intralipide 20 % et ∼0,6 pour l'Intralipide 30 %). Connaissant ces coefficients de solubilité, on peut maximiser la quantité de xénon acheminée vers l'organe cible en calculant la quantité nécessaire et suffisante pour saturer la solution. La présence d'une résonance unique dans le système vasculaire facilite le suivi RMN du xénon après injection. Ce dernier point ainsi que la grande quantité de xénon pouvant être dissous dans l'Intralipide 30 % nous ont conduits à choisir ce dernier fluide comme vecteur injectable pour les études in vivo chez le rat. Les résultats de la mesure de débit sanguin cérébral global peuvent être étendus aux images (calcul pixel par pixel) permettant ainsi d'obtenir avec ce nouveau traceur une imagerie paramétrique de cartographie de la perfusion cérébrale dans le cerveau du rat. Il est à noter que les conditions de vectorisation et d'acquisition des spectres RMN du xénon in vivo dans le cerveau du rat pourraient permettre d'explorer la localisation exacte du xénon au sein du tissu cérébral lui -même, ce que laisse envisager l'existence d'autres pics observables (exemple : à 202 ppm sur la figure 3). La capacité potentielle de cette sonde pourrait alors permettre d'étudier les effets anesthésiques du xénon .
Dans l'objectif d'utiliser le 129Xe comme traceur diffusible pour mesurer la perfusion cérébrale, nous avons testé deux produits susceptibles d'acheminer le 129Xe hyperpolarisé jusqu'au cerveau. Nous avons évalué, d'une part, l'encapsulation de xénon gazeux sous forme de micro-bulles d'Echovist (2-3 pm de diamètre) et, d'autre part, la dissolution du xénon dans une émulsion d'Intralipide. Le déplacement chimique du xénon dans ces fluides a été mesuré à 2,35 T, ainsi que le temps de relaxation longitudinale T1 du xénon dans ses différentes phases. Pour le xénon dissous dans l'Echovist, le déplacement chimique est situé à 204,1 ± 0,5 ppm du pic de la phase gazeuse du xénon encapsulé. Pour le xénon dissous dans l'Intralipide 20 % et l'Intralipide 30 %, le déplacement chimique est de 194,6 ± 0,5 ppm. Le temps de relaxation longitudinale T1 est de ± 20,0 s pour le xénon encapsulé dans les micro-bulles d'Echovist et de 19,0 s pour le xénon dissous. En ce qui concerne l'Intralipide 20 % et l'Intralipide 30 %, les T1 sont respectivement de 15,2 ± 4,9 s (n = 5) et de 20,9 ± 2,9 s (n = 4). L'injection intra-carotidienne chez le rat d'une petite quantité de xénon hyperpolarisé dissous dans l'Intralipide 30 % (0,15 mL de mélange) a permis d'obtenir un spectre révélant plusieurs pics de résonance. Les deux principaux (à 194 ppm et 199 ppm du pic de xénon gazeux) ont été attribués respectivement au xénon dissous dans l'Intralipide et dans le tissu cérébral. Le suivi temporel de l'amplitude de la résonance du xénon dissous dans le tissu cérébral a permis d'accéder à la mesure de la perfusion cérébrale. Un débit cérébral global de 160 ± 30 mL.(100 g)-1.min-1 (n = 10 rats) a ainsi été mesuré. L'obtention d'images dynamique du xénon dissous dans le cerveau du rat ouvre la possibilité de mesurer des débits sanguins cérébraux régionaux.
chimie_02-0199036_tei_elsevier_02-0199036_CRAS-IIc-Chim.tei.xml
termith-332-chimie
De nombreuses sources chimiques d'oxygène singulet (' 0 2) sont aujourd'hui facilement utilisables en milieu aqueux ou dans des solvants organiques (1). À cet égard, les ozonides de phosphite connus depuis 1961 (2) sont de bons générateurs d'oxygène activé lors de leur décomposition thermique (3-5). De nombreuses réactions d'oxydation ont été conduites à l'aide de ces ozonides (1) : elles aboutissent dans le cas des cyclo - additions-1,4 ou dans les ène-réactions aux mêmes résultats que les réactions de photooxydation (6-8). Toutefois certaines réactions comme les cycloadditions-1,2 se produisent à des températures inférieures à celle qui permet de libérer ' 0 2 (9); de plus, certaines d'entre elles présentent une stéréospécificité différente des photooxydations (10). C'est ainsi que dans la littérature les réactions observées sont attribuées soit à l'oxygène singulet libéré par l'ozonide soit à la réactivité propre de l'ozonide (schéma 1). Afin d'éclairer les mécanismes liés à la génération chimique d'oxygène activé, des mesures des paramètres cinétiques et du rendement absolu en ' 0 2 ont été effectuées. C'est ainsi que pour la réaction CIO " + H 2 0 2 la valeur du rendement est de 100 % (11, 12); elle est de 70 % pour la décomposition des peracides (13, 14), et varie entre 35 et 95 % pour les endoperoxydes (15). Dans le cas des ozonides de phosphite, le rendement en ' 0 2, bien que considéré comme quantitatif par certains auteurs (6, 7, 16), n'a jamais été mesuré. Nous avons mesuré, dans le cas des réactions de cycloaddition-1,4 sur différents capteurs spécifiques d' ' 0 2 2, 4, 6 le coefficient de Foote (( 3), l'efficacité du capteur (7) ainsi que le rendement en oxygène singulet (p). Nous avons fait réagir dans le dichlorométhane les différents ozonides 1 a-d sur trois capteurs classiques d'oxygène singulet : le rubrène 2, la tétraphénylcyclopentadiènone 4 et le diphényl-9,10-anthracène 6. Les ozonides étudiés ne réagissent pas sur ces accepteurs à basse température (— 78°C) mais ceux -ci sont oxydés à des températures correspondant à la décomposition thermique des ozonides (réaction [1 ], tableau 1). Le bilan de l'action des ozonides sur ces capteurs peut s'écrire selon les réactions [2 ], [3] et [4 ]. Les concentrations des produits d'oxydation obtenus dans chaque cas (3, 5, 7) sont mesurées par clhp ou uv. Les paramètres cinétiques correspondant aux réactions [2 ], [3 ], [4]obtenus à partir des droites de Foote (figures 1, 2, 3) figurent dans le tableau 2. L'oxydation du rubrène 2 par l'ozonide la, pour des rapports [la]/ [2] variables, nous a permis d'obtenir une droite de Foote (fig. 1) dont la pente est (3 = 2 x 1(T 4 M et l'ordonnée à l'origine p x 7 = 1. Ces paramètres conduisent, à partir des valeurs de la durée de vie de ' 0 2 dans CH 2 C1 2 (21, 22) à une constante de vitesse d'oxydation k r = 5,4 x 10 7 M~ l s - 1 dont la valeur est la même (aux erreurs d'expérience près) que celle obtenue lors de la photooxydation de 2 par ' 0 2 (23, 24). Ce résultat confirme que la voie d'oxydation la plus probable obtenue par l'ozonide la est celle qui passe par la génération d"0 2 (25) (voie (ii), schéma 1). De plus p7 = 1 entraîne p = 1, et 7 = 1. Ces deux valeurs indiquent que le rendement absolu en ' 0 2 de l'ozonide 1 a est de 100 % et que l'efficacité du rubrène est totale puisqu'il ne désactive pas ' 0-> (k q ~ 0). L'oxydation de 4 par les ozonides la, 1 b et le conduit dans les mêmes conditions (fig. 2) aux paramètres (3 = 1 x 10~ 4 M et p7 = 0,46. Comme l'ozonide la se trouve sur la droite de Foote, nous avons conservé sa valeur précédente p = 1 et attribué à 7 la valeur 0,46. L'efficacité de la tétraphénylcyclopentadienone 4 est donc très moyenne (26). La constante de vitesse d'oxydation k, = 5 x 10 7 M~ x s - 1 possède une valeur proche de celle de la constante de vitesse de désactivation k q. L'oxydation du diphényl-9,10-anthracène 6 par les ozonides la, 1 b, 1 d (fig. 3) conduit à une valeur de la pente p = 10 x 10 - 4 M. Cette valeur élevée confirme la faible réactivité de 6 comparée à celle de 2 (k r = 4,2 X 10 6 s " 1 et k r (2)/k r (6) ~ 10 (27), mais aussi sa faible efficacité puisque 7 = 0,3. Comme les ozonides 1 a-d ne réagissent pas sur les accepteurs 2, 4 et 6 à basse température, nous avons écrit les réactions en considérant ' 0 2 comme l'oxydant (nous aurions pu conduire le même calcul avec des équations similaires en considérant les ozonides et non ' 0 2 comme l'oxydant). Les réactions élémentaires mises en jeu peuvent s'écrire : La variation de la concentration en ' 0 2 s'écrit alors : où (d [&apos;0 2 ]/di)f est la vitesse de formation de ' 0 2 par décomposition de l'ozonide —A : 0 [P0 3]; en appliquant l'hypothèse des états quasi stationnaires à ' 0 2, on obtient : d'autre part, L'intégration à t —> 00 conduit alors à l'expression Soit en divisant par [PO 3 ]0 concentration initiale d'ozonide Avec p = kJ(k T + kq) coefficient de Foote, 7 = kj(k r + k q) efficacité du capteur et p = [' O 2] f / [PO 3 ]0 rendement absolu en ' 0 2, on obtient l'équation générale Cette expression est l'équation de la droite de Foote dont la pente donne (3 et l'ordonnée à l'origine le produit p7. Dans le cas du rubrène et du diphénylanthracène, les valeurs des paramètres ainsi obtenus, en particulier k " sont proches de celles obtenues lors des photooxydations. Par contre pour la tétraphénylcyclopentadienone, si la valeur de (â est la même que celle obtenue par Evans et Tucker (26) la valeur de k r diffère sensiblement. Cet écart est probablement dû aux incertitudes expérimentales mais aussi à la nature différente du solvant (CC1 2 FCCIF 2) et à l'estimation de la durée de vie de l'oxygène singulet dans ce solvant. Evidemment, cet écart peut aussi, dans ce cas, provenir d'un mécanisme différent. On remarquera également que les constantes de vitesses d'oxydation k, sont peu sensibles aux variations de température (dans le domaine - 50°C < t < +20°C) puisque les droites de Foote contiennent des valeurs de k r obtenues à des températures différentes pour les ozonides 1 a-d. Ces résultats confirment la grande efficacité du rubrène (7 = 1) (21, 23) et la valeur moyenne de la tétraphénylcyclopentadiénone (7 = 0,46) (21, 26). Par contre malgré certaines similitudes structurales, le comportement du rubrène et du diphényl anthracène vis-à-vis de ' 0 2 sont très différents. Pour le diphénylanthracène la constante de vitesse k T est 10 fois inférieure à celle du rubrène et de plus sur 10 molécules d' ' 0 2 qui réagissent 7 sont quenchées (7 = 0,3). La désactivation d ' ' 0 2 est même supérieure dans ce cas à celle du diméthylanthracène (7 = 0,6) (21, 26). Ainsi, il nous paraît raisonnable de considérer que les résultats obtenus confirment le schéma réactionnel proposé. En effet la formation des seuls endoperoxydes de rubrène et de diphenylanthracène est caractéristique de l'oxygène singulet. La valeur de 100 % du rendement obtenu pour 2 avec l'ozonide la confirme bien l'observation suivant laquelle la quantité d'endoperoxyde formé correspond strictement à la disparition du rubrène. Comme l'ozonide la se retrouve sur les droites de Foote des autres capteurs avec les autres ozonides, nous en concluons que le rendement en ' 0 2 des ozonides 1 b, le et 1 d est le même que celui de la, soit 100 %. Ceci nous amène à penser que si les substituants influent sur la stabilité des ozonides c'est-à-dire sur la température de décomposition, ils n'influent pas de manière sensible sur le mécanisme de décomposition. En effet plusieurs mécanismes sont envisageables : (a) Un mécanisme concerté qui conduit directement après rupture et réarrangement à l'oxygène activé et au phosphate : Ce mécanisme peut conduire directement à la production quantitative d' ' 0 2. Une telle interprétation est compatible avec les résultats obtenus dans ce travail mais aussi avec le fait que les constantes de vitesse de décomposition k 0 mesurées à partir de cinétiques de dégagement d'oxygène (16-18) sont les mêmes lorsque ces cinétiques sont déterminées par rmn dans un champ magnétique de l'ordre de 23 000 gauss (19, 20). De plus, toutes les valeurs d'entropie d'activation de la réaction [1] relevées dans la littérature, mesurées par des méthodes différentes (17-20, 28) sont négatives et comprises entre —10 et —20 u.e. Ces résultats sont en accord avec ceux obtenus par Turro et al. (15) dans l'étude de la thermolyse des endoperoxydes aromatiques. En effet ce dernier a établi une corrélation entre la valeur négative de l'entropie d'activation et les hauts rendements en ' 0 2 obtenus par un mécanisme concerté de type (a). Toutefois ce mécanisme simple ne rend pas compte de la réactivité des ozonides à basse température ou de la présence de radicaux. (b) Un mécanisme de type biradicalaire (29) L'existence de ce biradical a été confirmée en rpe par Pry or et Govindan (30) lors de l'étude de la décomposition de (Ph0) 3 P0 3 en présence de " spin trap " : a-phényl-N-ieri-butylnitrone (PBN). Un tel mécanisme a été envisagé dans le cas de la décomposition des endoperoxydes aromatiques par Turro et al. (15) et dans le cas des ozonides de phosphite par Mendenhall (16) : Selon ce schéma, une homolyse d'une des liaisons O—O de l'ozonide se produit (voie b) en fournissant un diradicai singulet qui peut évoluer vers la formation d'oxygène singulet (voie d) ou vers un diradicai triplet (voie c) par un croisement intersystème. Ce dernier peut se scinder à son tour en phosphate et en oxygène fondamental (voie e) par un processus autorisé par la règle de conservation des spins. Les résultats de notre étude permettent d'éliminer l'hypothèse d'un intermédiaire diradicalaire à longue durée de vie qui conduirait à la formation d'une certaine proportion d'oxygène fondamental et à l'oxydation du rubrène en un produit différent de l'endoperoxyde 3. En effet, la sensibilité aux radicaux peroxyles ROO " des hydrocarbures aromatiques polycycliques en général (31) et du noyau rubrénique en particulier (12) est connue. Toutefois nos expériences ne s'opposent pas à la proposition de Pryor (30) de l'intervention d'un diradicai de faible durée de vie qui évoluerait rapidement, à température suffisante, vers la formation de ' 0 2 (voie d) sans subir le processus relativement lent du croisement intersystème (voie c). En conclusion, la dualité des deux processus (concerté et biradicalaire) subsiste. Cet aspect très général de nombreuses réactions est peut-être dans ce cas particulier lié à la nature complexe des états électroniques de l'oxygène singulet (1). Les solutions d'ozonide de même concentration sont préparées à - 80°C et rajoutées à cette température sur des solutions de rubrène 2 de concentrations variables. La formation d'endoperoxyde 3 est détectée par son absorption à 254 nm après séparation d'une prise d'essai du mélange réactionnel par chromatographie liquide haute performance (clhp). (a) Préparation des solutions Le solvant utilisé est du dichlorométhane 99,8 % (Aldrich) conservé sur NaHCO} pour éviter l'isomérisation acido catalysée du rubrène en pseudo rubrène (32). D'autre part le rubrène subit très facilement une photooxydation auto sensibilisée par la lumière ambiante lorsque de l'oxygène dissous est présent dans la solution (24, 33) Il est donc nécessaire de protéger les réacteurs de la lumière et de travailler dans une pièce éclairée par une lampe émettant à X > 580 nm. Toutes les mesures de volumes à température ambiante se font par pesée (rfcH,ci 2 = 1,326). La concentration de la solution mère de rubrène est"L2] MÈRC = 2,699 x 10~ 3 M. On fait ensuite 8 prélèvements entre 1,7 et 5 mL, de façon à obtenir 8 réacteurs contenant entre 4,52 et 13,42 X 10~ 6 mol de rubrène. On prépare également un " blanc " qui sera traité dans les mêmes conditions mais qui ne recevra pas d'ozonide, et une solution témoin contenant à la fois du rubrène et son endoperoxyde : [2] = 1,254 x 10~ 3 M et [3] = 6,80 x 10 " 4 M. L'endoperoxyde 3 est préparé indépendamment en irradiant à X > 530 nm une solution de 2 dans CH 2 C1 2 dans laquelle on fait barboter de l'oxygène jusqu' à décoloration complète. Le solvant est ensuite évaporé : le résidu est repris dans le méthanol, passé aux ultra-sons, centrifugé, repris dans l'éther, centrifugé à nouveau et séché sous vide. (b) Préparation de la solution d'ozonide La réaction d'ozonation de la (4,98 x 10~ 4 mol) se fait à - 80°C (bain d'acétone/Carboglace) dans 10 mL de CH 2 C1 2. Le gaz vecteur utilisé à l'entrée de l'ozoneur est de l'oxygène, qualité aviation (concentration en eau inférieure à 20 mg/m 3). La concentration en ozone est 8 x 10 " 4 mol/L. On fait passer 1,12 L de mélange 0 3 /0 2 : l'excès d'ozone est dosé par iodométrie. Ce dosage montre que la totalité du phosphite a été oxydée avec une stoechiométrie [phosphiteJ/Oj =1:1. La solution d'ozonide est ensuite purgée en faisant passer 8 L d'argon. Pour vérifier que cette solution ne contient plus de traces d'ozone, on fait un prélèvement maintenu à - 80°C sur lequel on rajoute une solution très diluée de rubrène. On n'observe pas de décoloration de cette solution de rubrène à — 80°C. Le rendement en ozonide est déterminé par rmn 31 P à — 80°C. En faisant varier le temps entre deux impulsions de 2,8 à 10,8 s on n'observe pas de modifications de l'intégration des pics correspondant à (PhO^POj (8 = - 62) et (Ph0),P=0 (S = - 18). On trouve ainsi un rendement en ozonide de 85,5 %. Cette solution initiale contenant 85,5 % d'ozonide doit être diluée avant la réaction sur le rubrène. Pour cela on procède à des transferts dans des fioles jaugées à travers des aiguilles, par une surpression d'argon, puis on lave la fiole et l'aiguille par la quantité de CH 2 C1 2 nécessaire à la dilution. Cette méthode est utilisée pour toutes les dilutions à - 80°C. Le CH 2 C1 2 diminuant de volume à basse température, il est nécessaire de procéder à des corrections de volume. C'est ainsi que lorsqu'on passe de —80°C à la température ordinaire, on observe une augmentation de volume de 10 % (mesurée par densité). Au total, pour atteindre la concentration adéquate en ozonide, il est nécessaire de procéder à 4 transferts (2 pour une dilution et 2 pour transférer dans les solutions de rubrène). Ces transferts vont provoquer une certaine dégradation de l'ozonide. Nous avons effectué ces mêmes opérations de transfert sur une solution d'ozonide non diluée, puis nous avons mesuré par rmn de 3I P le pourcentage d'ozonide qui subsiste après ce traitement. On obtient alors une nouvelle valeur du rendement de 74,7 % par rapport au phosphite de départ. Ce rendement servira de base aux calculs ultérieurs. Ainsi après dilution et rectifications dues à la dégradation on obtient une solution mère équivalent à 9,21 x 10 " 4 M d'ozonide. (c) Réaction de la solution d'ozonide sur les solutions de rubrène On fait 8 prélèvements de 1,1 mL de la solution mère d'ozonide, dans les mêmes conditions que précédemment, que l'on transfère à — 80°C sur les diverses solutions de rubrène et on complète par CH 2 C1 2 à 8,05 mL. On laisse ensuite le mélange réactionnel remonter jusqu' à la température ambiante. On a 8 solutions de même concentration en ozonide [la] = 1,26 x 10~ 4 M et de concentration initiale en rubrène [2] variable : (d) Mesure de l'endoperoxyde formé par clhp La colonne utilisée a un diamètre de 5 mm et une longueur de 250 mm. Les particules de silice greffée phase inverse RP18 ont un diamètre de 10 jtrn. Le mélange éluant est constitué par 85 % d'éthanol, 15 % d'eau. Le débit est de 120 mL/h pour une pression de 200 atm. (1 atm = 101.3 kPa). La détection se fait par uv à 254 nm. Le pic correspondant à l'endoperoxyde a un temps de rétention de 6 min, celui du rubrène de 9,4 min. La solution témoin permet de relier la surface des pics de l'endoperoxyde (S 3) et du rubrène (S 2) ramenés à une même concentration. Pour [2] = [3] on trouve S 3 /S 2 = 2,15. On vérifie ensuite que le " blanc " (solution de rubrène n'ayant pas reçu d'ozonide) ne s'est pas oxydé. L'intégration des pics obtenus pour chaque solution de la + 2 permet de mesurer le pourcentage d'endoperoxyde formé On prend pour [2] une valeur moyenne On vérifie à X = 540 nm que la disparition du rubrène est égale à l'apparition de son endoperoxyde. (a) On prépare une solution mère de 4 ou de 6 dans CH 2 C1 2 de concentration 10~ 2 M. On prélève des quantités variables de 4 ou 6 refroidies à —80°C qui sont ajoutées sur des solutions d'ozonides la, 1 b, le, 1 d. (b) Préparation de la solution d'ozonide Une solution de phosphite de concentration 10~ 2 Aiest préparée. On prélève 1 mL de solution. Après ozonation on purge la solution avec de l'argon. Le pourcentage d'ozonide formé par rapport au phosphite de départ est obtenu par rmn 3I P à basse température. Il est de 80 % pour les ozonides la, 1 b, le et de 60 % pour 1 d. (c) Réaction de 4 et 6 sur les solutions d'ozonides On ajoute à - 78°C des quantités croissantes de la solution mère de 4 ou 6 sur une solution d'ozonide. On laisse le mélange réactionnel revenir lentement à température ambiante. On effectue ensuite les dilutions nécessaires pour les mesures par uv des concentrations de produit non oxydée. En effet 4 et 6 possèdent des bandes d'absorption dont les X„,ax sont respectivement 510 nm et 370 nm. Nous avons vérifié que les esters phosphoriques correspondants et les produits d'oxydation de 4 et 6 n'absorbent pas ces longueurs d'ondes. La diminution d'absorption observée lors de la réaction par rapport à un témoin correspond à la concentration des produits oxydés .
Etude de la réaction dans le dichlorométhane des ozonides de plusieurs phosphites sur différents capteurs d'oxygène singulet. Les droites de Foote obtenues en faisant varier les concentrations respectives d'ozonides et de capteurs conduisent aux mêmes paramètres que ceux obtenus lors de la photooxydation par 1O2 de ces capteurs
chimie_86-0159311_tei_62.v85-530.tei.xml
termith-333-chimie
Au cours d'électroréductions effectuées dans l'acétonitrile, divers exemples de cyanométhylation ont été signalés (1-11). L'acidité de ce solvant est telle que de nombreuses formes réduites (dianions, monoanions, voire même radicaux-anions) sont suffisamment basiques pour le déprotoner. Les anions " CH 2 CN ainsi formés réagissent avec diverses espèces présentes au sein du catholyte pour livrer une grande variété de nitriles. Nous avons pour notre part (12) observé que la réduction acylante de la fluorènone la et de sa base de Schiff 1 b dans l'acétonitrile en présence du chlorure d'acide 2a conduit, entre autres, à la formation de produits mineurs inattendus, les propionitriles 3a et 3b. En cours d'électrolyse, nous avions observé une évolution des formes réduites acylées 4a, b et 5a, b de la fluorènone; la nature de cette évolution n'avait pas été établie, celle -ci fait l'objet de ce travail. Dans la partie A, nous étudions le comportement des composés 4a-c, 5b, 6a, b, la, b vis-à-vis des anions ~CH 2 CN électrogénérés par réduction de l'azobenzène en son dianion au sein de l'acétonitrile (2, 6, 13). Ces composés sont obtenus par électroréduction-acylation de la fluorènone la ou de son anil les agents acylants étant le chlorure et l'anhydride d'acide w-chloré la et 2b (12) et l'anhydride acétique 2c. Dans la partie B, nous examinerons en détail l'électroréduction de la fluorènone conduite dans l'acétonitrile, en présence d'un équivalent d'agent acylant 2a ou 2b. L'évolution de la nature des produits en fonction du degré d'avancement de l'électrolyse est interprétée compte tenu des résultats de la première partie. L'addition de deux équivalents de ~CH 2 CN aux diverses formes réduites acylées étudiées conduit à l'obtention des nitriles 8, 9a, 10 et 11. Les rendements obtenus après purification par chromatographic sont indiqués dans le Tableau 1 (expériences 1 à 8). Les résultats des expériences 1 à 8 du Tableau 1 conduisent aux conclusions suivantes. (0 Dans la moitié des expériences, la fluorènone ou sa base de Schiff est isolée en faible quantité. (ii) Dans toutes les expériences, on obtient le diènaminonitrile 8. Nous avons montré récemment (14) que l'attaque par ~CH 2 CN de la fluorènone et de ses bases de Schiff conduit également à 8, à l'abri de l'air. En présence de traces d'oxygène, la formation de 8 est en compétition avec celle de 11 (15). (iii) L'attaque par CH 2 CN des formes réduites N-acylées la et 1b est lente puisque le substrat est en grande partie récupéré après les temps de contact choisis (expériences 7 et 8). (/v) L'énaminonitrile cyclopropylé 9a est isolé dans toutes les expériences où le substrat possède un reste cyclopropylé préexistant ou potentiel (C0(CH 2) 3 C1) sauf dans l'expérience 7 pour la raison précédente. (v) A partir des dérivés de la fluorènone, on obtient le produit de couplage 10 (16a), exception faite de l'expérience 3 où, en revanche, le rendement en 8 est élevé. La formation de fluorènone ou de son anil se conçoit comme résultat de l'action conjointe des anions " CH 2 CN électrogénérés dans un premier temps et de traces d'oxygène qui peuvent s'introduire de façon aléatoire dans la seconde phase, non-électrochimique. Le tableau 2 rassemble les pÂT a dans le DMSO de quelques molécules afin de montrer que ~CH 2 CN peut générer leurs anions et provoquer les réarrangements évoqués ci-dessous. Le DMSO est retenu comme solvant de référence pour son caractère dipolaire non-hydroxylé (" aprotique ") qui est celui de MeCN. Esters de fluorènol 4a-c Ils doivent se cliver en premier lieu selon [1 ]. L'alcoolate libéré se réarrange spontanément en carbanion 12 (17). Ce carbanion est très sensible aux traces d'oxygène puisque par voltamétrie cyclique dans le DMF, on observe son potentiel de pic d'oxydation E p. d à - 1,21 V/ECS (17) tandis que l'oxygène se réduit vers —0,7 V. La fluorènone est régénérée dans le milieu basique selon le processus catalytique [3] [6] : la formation de la fluorènone provient de la rupture du bis-fluorènol intermédiaire par une base B " telle que l'anion 12 (21). L'ion superoxyde constitue éventuellement une autre base; il évolue probablement vers la formation d'eau oxygénée. L'ènol de la réaction [1] conduit à l'anion correspondant 13 selon [7 ]. Il conduit aussi à la fluorènone puisque le dérivé acylé 4b se forme intermédiairement. Après libération de l'anion 15, un processus d'oxydation par 0 2 conduit à la base de Schiff 1 b selon [11] [13 ], Le mécanisme proposé tient compte des observations suivantes. L'anion 15 est facilement oxydable par l'oxygène [11] puisqu'on observe son oxydation à £ pa = - 0,93 V/ECS par voltamétrie cyclique dans le DMF (18). Les bases fortes B " déprotonent le radical apparu (18). Le radical-anion de la base de Schiff s'oxyde, lui aussi très facilement, à —1,4 V (12); en conséquence, il réduit instantanément les traces d'oxygène. On peut également envisager que le radical apparu dans [11] se dimérise selon [13] avant de livrer la base de Schiff 1 b. La déprotonation de la, b est certainement plus rapide que l'addition nucléophile au carbonyle de 6a, b. On observe cependant que l'anion 16 ainsi formé [14] évolue difficilement : le produit principal est le produit initial. L'anion 16 est plus stable et moins facilement oxydable que l'anion 15; ceci justifie la lenteur d'évolution des composés la, b. Les anions 13, issus des (3-cétonitriles RCOCH 2 CN, se comportent comme de bons nucléophiles. Leur condensation avec l'acétonitrile-solvant conduit aux ènaminonitriles 9a-c. Que l'on parte de 4a, 6a, ou de 4b, 5b, seul 9a est isolé; dans le cas de 4b, 5b, la basicité du milieu induit la cyclisation de 9b en 9a. En revanche, l'homologue méthylé 9c n'a pu être isolé à partir de 4c, 6b, et le. L'étude spectroscopique de 9a montre un équilibre tautomère entre les formes ènamine et imine. La fluorènone la et son añil 1 b régénérés à partir des divers substrats sont eux -mêmes sensibles à l'attaque nucléophile des anions ~CH 2 CN (14) : il en résulte un nitrile a,p-éthylénique 17 très électrophile [16 ]. En quelques étapes (Schéma 1), on accède aux nitriles 8 et 11 à partir du promoteur 17 (14, 15). Les résultats de l'expérience 9 (Tableau 1) confirment que ces deux nitriles dérivent bien de 17. Le dinitrile 11 résulte de l'oxydation de l'anion 18 par l'oxygène moléculaire (15). Le potentiel d'oxydation de 18 n'est pas connu, mais il est voisin de celui des anions fluorènyles F1CH ", E 0 = - 0,67 V/ECS dans le DMF (19) et FICCHj, E 0 = - 0,78 V/ECS dans le DMF (17). Le dièneaminonitrile 8 provient de l'oléfine 20 et/ou du dérivé cyclopropylé 22 (14), dont l'ouverture résulte de l'attaque de bases telles HO ", PhNH " (ZH " accompagne la formation de 17). L'attaque du dérivé cyclopropylé 22 par les bases HO~ et PhNH " permet également d'accéder aux propionitriles 3a, b [17] qui sont apparus lors de l'électroréduction-acylation de la fluorènone (12). L'attaque nucléophile du nitrile a,(3-éthylènique 17 par les anions " CH 2 CN implique une régiosélectivité particulière. L'attaque du C-(3 conduirait à un produit classique d'addition-1,4, avec formation de l'anion intermédiaire 19. La protonation de 19 par le solvant ou lors du traitement final par l'eau livrerait le dinitrile F1C(CH 2 CN) 2 que nous n'avons pas isolé. Des nitriles analogues, les glutaronitriles PhRC(CH 2 CN) 2 ont été obtenus par électroréduction de PhCOR et d'oléfines activées PhRC=CHCN dans l'acétonitrile; seule intervient alors la (3-addition d'anions ~CH 2 CN électrogénérés (1, 2, 6, 9-11). Dans notre cas, l'attaque du C-a livre l'anion fluorènyle 18 beaucoup plus stable. L'anion 19 est donc peu compétitif visà-vis de 18; s'il apparaît, il s'isomérise plutôt en anion 18. L'attaque du C-a du nitrile 17_est aussi sensible à d'autres nucléophiles tels les anions 14 F1COCOR issus de 5b [8] ou de 4a-c. On obtient alors un anion très délocalisé 23 dont le traitement final par l'eau livre le nitrile 10. Le pA " a dans le DMSO du fluorènylidèneméthyl-9 fluorène est évalué à 14,2 (16b), celui de 10 est inférieur à 14 grâce à l'effet — 1 du groupe cyano. Une grande dispersion caractérise les rendements exposés au tableau 1. Le taux de récupération du noyau fluorène varie de 44 à 66 % (en moyenne 55 %) car la formation de polymères est fréquente. En ce qui concerne l'acyl-ènaminonitrile 9a, son instabilité lors de l'hydrolyse est sans doute cause des variations de rendement observées. Par ailleurs, si la formation d'un composé dépend de la concentration aléatoire en oxygène moléculaire résiduel, il faut s'attendre à des fluctuations de son rendement. Ainsi le nitrile 11, résultat du processus oxydatif de l'anion 18 (Schéma 1), a un rendement variant de 0 à 30 % selon l'électrolyse. Si ce processus est limité, la formation de 8 est favorisée. Enfin, les nitriles 8 et 10 sont en compétition à partir de l'oléfine 17 (Schéma 1 et [18]). Dans le meilleur cas, 10 atteint un rendement de 45 % au lieu des 1 à 5 % de la référence 16a; la méthode électrochimique constitue donc une bonne voie d'accès à cette molécule. Pour aborder la deuxième partie de notre étude, il est nécessaire de déterminer les propriétés électroréductrices (potentiel de demi-vague E l/2 sur électrode à gouttes de mercure ou potentiel de pic Epc sur électrode stationnaire de carbone vitreux) de quelques dérivés acylés des types 4, 5 et 6 et des divers nitriles insaturés préparés. Ces données sont rassemblées dans le tableau 3. La réduction de tous les dérivés acylés survient au-delà de —2 V. Elle provoque la rupture des composés 4a, c libérant l'anion fluorènyle F1CH " rouge intense qui, après _traitement, livre du fluorène et de la fluorènone. L'anion F1CH est, en effet, très sensible aux traces d'oxygène, et donne de la fluorènone (20). Par exemple, une électroréduction préparative à partir de 4c, à —2,2 V dans l'acétonitrile conduit à un mélange de fluorène, de fluorènone la et d'alcool 24 en proportions relatives de 24, 40 et 36 %. Ce dernier apparaît également lors de la réduction de la (voir partie B). Les nitriles insaturés 10, 11 et 17 sont plus faciles à réduire. Le premier stade de réduction correspond à la fixation d'un électron. La voltamétrie cyclique indique que les radicaux-anions obtenus ont des stabilités différentes : le plus stable est issu de 10. Dans ce cas, le catholyte devient bleu intense; de plus cette coloration persiste malgré un barbotage d'oxygène. Nous suggérons que le radical-anion conduit à deux espèces très stables : l'anion délocalisé bleu 23 et le radical encombré 25. Le mécanisme [19] fera l'objet d'une étude ultérieure. Une électroréduction préparative de 17 conduit à une solution vert bronze. Après passage de 1 F, on note à côté d'oléfine résiduelle 17, la présence principale de polymères. B. Electroréduction acylante de la fluorènone dans l'acétonitrile liée à la présence d'un équivalent de chlorure ou d'anhydride d'acide 2a ou 2 b Une série d'électrolyses préparatives sur nappe de mercure a été effectuée à des potentiels contrôlés E c qui correspondent à la formation initiale du radical-anion de la fluorènone (£ c = - 1,35 ± 0,15 V); un équivalent de 2a ou 2b est initialement présent. Ces expériences sont résumées dans le Tableau 4 (électrolyses 1-4). Elles correspondent à divers degrés d'avancement de l'électrolyse, le nombre n de faradays consommés variant de 1,7 à 3,2. Les rendements indiqués sont calculés après purification par chromatographie sur colonne. Le degré d'avancement de l'électrolyse se traduit par une évolution de la couleur du catholyte, ce qui permet de distinguer six étapes successives. Le Tableau 5 rassemble ces données ainsi que la nature des produits identifiés à chaque étape par chromatographie en couche mince. Ces deux tableaux révèlent la complexité des réactions qui se produisent au sein du catholyte. Cette complexité se retrouve dans l'évolution du courant faradaïque présentée par la Fig. 1. Après une décroissance normale, on note deux reprises successives de l'électrolyse quand n = 1,6 F et n = 2,4 F. Les électrolyses conduisent aux remarques suivantes. (i) La présence de fluorènone est constante. Son taux oscille autour de 20 % de façon aléatoire : lorsque l'électrolyse progresse, il peut augmenter ou diminuer. (ii) L'évolution de l'électrolyse ne semble pas corrélée à la nature de l'agent acylant. L'utilisation du chlorure d'acide 2a favorise cependant la formation des formes réduites diacylées aux dépens des formes monoacylées. (iii) Le bis-fluorènol et le fluorènol se forment dès l'origine, mais le premier disparaît plus précocement que le second. (iv) Le fluorène apparaît tardivement avec l'étape V. (v) Les dérivés acylés disparaissent en fin d'électrolyse. (vi) Les étapes finales se caractérisent surtout par l'apparition des nitriles 3a, 10 et 24. Etape I Elle correspond à la réduction acylante de la fluorènone; l'excès originel d'agent acylant autorise à partir de l'anion 14, la formation du diacylé 5c. La rapidité des acylations cause la disparition immédiate du radical-anion 26 rouge et de l'anion 14. Le catholyte reste jaune même au voisinage immédiat de la nappe de mercure. Le dérivé diacylé 5c disparaît dès cette étape en détruisant 26. La chromatographie sur couche mince (Tableau 5) révèle déjà 5b, à côté du bisfluorènol, de l'ester 4b et du fluorènol qui proviennent du traitement par l'eau des anions 14 et 12 respectivement. Etape II Avec la progression de l'électrolyse, les concentrations relatives de 2a, b diminuent : le radical-anion 26 réagit avec le dérivé diacylé 5c dont la cyclisation progresse de 5b vers 5a. La coloration rouge du catholyte au voisinage de la nappe de mercure montre l'accumulation du radical-anion 26. En conséquence, la cyclisation 5b — » 5a, sous l'influence de 26, est relativement lente. Etape III Elle s'achève avec la réduction totale de la fluorènone et la formation des esters 4b, 5a, b, de fluorènol et de bis-fluorènol. Le courant faradaïque devient négligeable et le catholyte incolore. Etape IV Elle correspond à la reprise du courant faradaïque et à une nouvelle coloration en rouge du catholyte; des radicaux anions 26 réapparaissent tandis que le bis-fluorènol disparaît. Les esters 4b et 5a, b n'étant pas réductibles au potentiel utilisé (Tableau 3), la formation de radicaux-anions 26 est liée à la réapparition de fluorènone au sein du catholyte. La régénération de là cétone est provoquée par la présence de bases telles que F1COH qui catalysent la transformation du bis-fluorènol en fluorènone (21) (voir partie A, [4] à [6]). Les radicaux-anions 26 à nouveau apparus sont suffisamment basiques pour déprotoner le solvant. Ceci est démontré par l'électrolyse 5 du tableau 4, effectuée sans agent acylant. Les résultats de cette électrolyse annexe sont intéressants car, nous le verrons, ils entrent en ligne de compte dans l'interprétation du cours de cette étape et des suivantes. L'électrolyse 5 montre une intervention des anions " CH 2 CN puisqu'elle conduit à la formation des nitriles 17 et 24 selon [22] à [26 ]. La transformation de la fluorènone en oléfine 17 est un processus catalytique (séquence [23] [25 ]) en raison de la basicité de l'ion HCT dans l'acétonitrile (cf. les p/^ du tableau 2). Compte tenu des résultats de cette électrolyse, on conçoit que dans l'étape IV, les radicaux anions 26 à nouveau apparus, livrent l'oléfine 17 selon [22] à [24 ], Dans cette étape, la formation de polymères est induite à partir de 17 selon [27] et celle du nitrile 3a s'effectue probablement selon [28] (cf. partie A, Schéma 1 et [17]). La consommation continuelle et rapide de la fluorènone provoque la chute du courant faradaïque. Etape V Elle débute quand 5b est totalement cyclisé en 5a. Les bases fortes présentes (FIC—O ", HO ", " CH 2 CN) entraînent la cyclisation de 4b en 4a. L'oléfine activée 17 formée dès l'étape IV constitue toujours un piège pour d'éventuels radicaux F1COH, d'où l'apparition de polymères [27] ;, Par ailleurs, 17 est ellemême réductible en polymères au potentiel appliqué (Tableau 3). Le nitrile 24 se forme, lors de l'extraction, selon [23] et [26 ], Le nitrile insaturé 10 F1C=C(CN)CHF1 dérive de 17 à la suite de deux types d'addition. Nous avons montré dans la partie A, que l'addition à 17 des anions 14 issus du dérivé monoacylé 4a, conduit à 10 [18]; on note en conséquence une disparition progressive de 4a. L'anion du fluorènol F1COH peut lui aussi se condenser avec 17 [29] entraînant la disparition du fluorènol à cette étape. La présence de l'anion 23 issu de 10 provoque la coloration bleu foncé du catholyte. Du fluorène est identifié dont l'origine est discutée ci-dessous. Etape VI Elle est caractérisée par la reprise d'un courant faradaïque de faible intensité, suggérant la réapparition de traces de fluoré none. La couleur violette du catholyte résulte du mélange d'anions bleus 23 du nitrile 10 et du radical-anion 26 de la fluorènone. Du fluorène et de la fluorènone sont encore identifiés dans cette étape. Enfin, le dérivé diacylé 5a disparaît à son tour. Dans la partie A, nous avons montré que la présence de traces d'oxygène est favorable à une décomposition de 4a, b et 5a, b en fluorènone; nous avons aussi rappelé que l'anion fluorènyle livre de la fluorènone en présence de 0 2 (20). Les bases fortes présentes (HO~ et " CH 2 CN) provoquent également la rupture de 5a selon [30] et [31 ]. L'anion 14a libéré est piégé par 17, donnant l'anion bleu 23 [18 ]. Le fluorène, déjà trouvé à l'étape V, est le stade final de réduction de la. Plusieurs composés formés pendant l'électrolyse se réduisent en fluorène, mais au-delà de —2 V : le fluorènol et ses éthers se rompent entre C et O (17, 22 - 24); de même, les esters 4a, b se réduisent avec coupure à —2,3 V (Tableau 3). Le bis-fluorènol dont le stade final de réduction est aussi le fluorène, est réduit dans une première étape en fluorènol (réfs. 17 et 22). Ici, le potentiel d'électrolyse ne dépasse pas — 1,5 V. La réduction d'un intermédiaire instable non identifié peut conduire au fluorène; mais nous émettons également l'hypothèse suivante, en raison de la nature hyperbasique du catholyte (25). Le pouvoir réducteur des électrons serait exalté par le milieu hyperbasique, à l'image de l'accroissement considérable du pouvoir réducteur de HNa par les alcoolates RONa (26) découverts par Caubère et coll. Selon Bordwell et Clemens (27), plus un carbanion est basique, plus grande est la probabilité qu'il réagisse selon un processus de transfert (mono) électronique plutôt que par un processus S N 2. Cet accroissement du pouvoir de transfert expliquerait la réduction finale en fluorène. Nos résultats montrent que l'évolution de l'électroréduction-acylation de la fluorènone est orientée par la réaction du solvant, l'acétonitrile, avec les intermédiaires apparus, en particulier le radical-anion de la fluorènone. Un potentiostat Amel-552 et un intégrateur Tacussel 1G5-N sont utilisés pour l'électrosynthèse; une unité Tacussel UAP 4 et un générateur de fonctions Tacussel GST pour les expériences en voltamétrie. Les voltamogrammes sont enregistrés sur un appareil lfelec 2025 CX -Y. Les spectres de rmn ' H sont tracés sur un spectromètre Perkin-Elmer R-24, les spectres de masse sur un spectromètre Finnigan 3003 (introduction directe; 70 cV), les spectres ir sur un spectromètre Beckman 1R-8. Les points de fusion sont déterminés sur un banc de Kôfler. Les chromatographics sur colonne sont conduites sur gel de silice Kieselgel 70, 70-230 mesh, Merck 7734 et celles en couche mince sur plaques de Kieselgel 60F 254 Merck 5554 (éluant : acétone/hexane 3:7). Les solvants (MeCN et DMF) de pureté analytique sont soigneusement séchés sur tamis moléculaire 4 Â, puis sur alumine neutre. Tous les potentiels indiques se réfèrent à l'électrode au calomel saturé (ECS). L'électrosynthèse des dérivés acylés 4a, 4b, Sa, Sb, 6a et 7a est déjà décrite (12). L'électroréduction de la fluorènone dans l'acétonitrile en présence d'un équivalent d'anhydride acétique, a permis l'obtention de 4c. Les composés 6b et 1b sont obtenus électrochimiquement à partir de l'anil 1 b. Ils sont identiques à ceux décrits dans la littérature : 4c (28), 6b (29) et 1b (30). Les anions ~CH 2 CN (2 équivalents) sont électrogénérés par réduction de l'azobenzène dans l'acétonitrile selon la procédure décrite dans la référence 14. L'électroréduction de la fluorènone en présence d'un équivalent de 2a ou 2b est effectuée selon la méthode B de la référence 12. Les nitriles sont séparés par chromatographie dans l'ordre d'élution suivant : 10 (166), 11 (15), 9a et 8 (14). Amino-3 cyano-2 cyclopropyl-1 butène-2 one-1 9a Cristaux beiges, F = 141°C (éther diéthylique - hexane); ir (KBr) cm " 1, v NH, et v NH : 3320 (épaulements à 3400, 3300, 3250) et 3140, VC=C-C=N : 2230, v c = c - c_o : 1700, v c=c ou v c=N : 1645, 1530, 1400, 1320, 1200, 940; rmn ' H (CDClj, référence interne TMS) S ppm : 0,7-1,2 (m, 4H, cyclopropyle), 1,3-1,7 (m, 1H, cyclopropyle), 2,20 (s, 3H, CH 3), 6,40 (s, 1H, H—C-2), 7,85 (large s, 1H, NH); spectre de masse m/e (intensité relative %) : 151 (11), 150 (M +, 100), 149 (4), 122 (M - 1 - HCN, 12), 82 (16), 70 (15). En raison de son instabilité, l'analyse centésimale de 9a n'a pu être effectuée. Fluorènyl-9 fluorènylidène-9 ' acétonitrile 10 Aiguilles jaunes, solution bleue dans l'acétone, F = 264-267°C (heptane) (litt. (166) F = 218°C); ir (KBr) cm " 1, v c =c-c= N : 2200, 1440; rmn ' H (CDC1 3) 8 ppm : 6,0 (s, 1H), 7,15-7,95 (m, 14H), 8,10-8,35 (m, 1H), 8,35-8,70 (m, 1H); spectre de masse m/e (intensité relative %) : 368 (13), 367 (M +, 37), 340 (M - HCN, 16), 339 (Ai — 1 — HCN, 22), 201 (18), 176 (13), 175 (19), 166 (14), 165 (100, cation fluorènylium), 164 (41), 163 (35), 139 (14). Anal. calc. pour CHN : C 91,52, H 4,66, N 3,81; trouvé : C 90,6, H 5,30, N 3,86 .
Etude du comportement des différents acylates de fluorénols-9 vis-à-vis des anions CH2CN (électrogénérés par réduction de l'azobenzène en son dianion dans l'acétonitrile). Réduction de la fluorénone dans l'acétonitrile en présence de chlorures d'acides ou d'anhydrides
chimie_84-0048710_tei_119.v83-444.tei.xml
termith-334-chimie
Les hydrures organostanniques sont des réactifs très utiles en synthèse organique 〚1–3〛 au niveau du laboratoire, malgré la difficulté de séparation des composés organostanniques et des produits organiques formés au cours de la réaction. Ils sont, en particulier, utilisés pour produire des radicaux alkyle pouvant subir des réactions de réarrangement, permettant notamment la création de cycles. Le réactif le plus généralement employé est l'hydrure de tri- n - butylétain. L'élimination après réaction des produits stanniques en résultant a essentiellement fait appel à un processus d'extraction utilisant un mélange de solvants non miscibles 〚4〛 ou à des transformations chimiques en fluorure de tributylstannyle, éliminé par filtration 〚5〛, et en oxyde, piégé sur colonne de silice 〚6〛. Ces méthodologies ne sont pas totalement efficaces, puisqu'il existe toujours des quantités non-négligeables de dérivés stanniques dans le produit organique isolé après traitement. La mise au point de réactifs possédant des fonctionnalités leur conférant des propriétés différentes de celles du tri- n - butylstannane a été envisagée. Ainsi, le remplacement des groupes butyle par trois groupes possédant des enchaînements de type polyéthylèneoxyde rend ces composés organostanniques hydrosolubles, permettant leur élimination, après réaction, par lavage de la phase organique à l'eau 〚7〛. La substitution d'un groupe butyle par une entité 4,7,10-trioxaundécyle leur confère une polarité facilitant leur séparation des produits organiques par chromatographie liquide–solide 〚8〛. L'introduction d'un groupe aminoalkyle en lieu et place d'une entité butyle autorise, par traitement acide, la formation d'un sel d'ammonium quaternaire et, ainsi, l'élimination en phase aqueuse des dérivés organostanniques 〚9, 10〛. Curran 〚11〛 a, pour sa part, mis au point un stannane possédant une chaîne perfluoroalkyle, dont la solubilité dans des solvants fluorés permet une séparation facile. Les stannanes ont aussi été greffés sur de la silice 〚12〛, des polymères faiblement 〚13–18〛 ou fortement 〚19–21〛 réticulés, de manière à bénéficier de la séparation facile des polymères par simple filtration. Plus récemment, Enholm 〚22〛 a utilisé un hydrure d'étain supporté par un polystyrène soluble. Signalons pour mémoire la possibilité d'utiliser la réduction in situ des halogénures stanniques par le borohydrure de sodium 〚23〛, permettant de travailler avec de faibles quantités de dérivé stannique. Dans la réduction d'halogénures d'alkyle ou d'aryle engendrant des radicaux susceptibles de se réarranger, plusieurs produits de réaction peuvent être formés, en raison de la compétition existant au niveau du radical carboné engendré entre réarrangement et transfert d'hydrogène. Si la vitesse de réarrangement est indépendante de la nature du dérivé stannique employé, il n'en est pas de même pour celle de la réaction de transfert d'hydrogène. En effet, celle -ci dépend fortement de la localisation de la « fonction SnH », selon qu'elle est : portée par une petite molécule ou une macromolécule dans la phase liquide (réactifs stanniques solubles) ou à l'interface liquide–solide (réactifs greffés sur un support insoluble). Ainsi, seule une étude de la réaction de transfert d'hydrogène des divers dérivés stanniques, proposés comme substituts à l'hydrure de tri- n - butylétain, vis-à-vis des radicaux alkyle et aryle permettra de savoir si ceux -ci peuvent réellement le remplacer en toutes circonstances ou s'il existe certaines limitations. C'est pourquoi nous avons voulu, dans un premier temps, valider le réactif stannique à « queue polaire » que nous avons mis au point 〚8〛 en déterminant sa constante de transfert d'hydrogène à des radicaux alkyle primaires en vue de la comparer à celle du tri- n - butylstannane. Ce travail préliminaire se situe dans le cadre d'un programme plus important, que nous allons aborder par l'étude de la réduction de dérivés halogénés conduisant à des chronoradicaux 〚24〛 par divers stannanes, supportés ou non, ce qui nous permettra ainsi de déterminer ceux qui sont de réels substituts de Bu 3 SnH. L'hydrure de dibutyl 4,7,10-trioxaundecylstannane 1 a été synthétisé selon la méthode précédemment décrite (schéma 1) 〚8〛. Dans l'hypothèse de constantes de vitesse d'arrachement d'hydrogène k H à 1 et au tri- n - butylstannane par un radical alkyle primaire du même ordre de grandeur, nous avons choisi d'étudier, comme Ingold et al. 〚25〛 l'ont fait avec Bu 3 SnH, la réduction du 6-bromohex-1-ène par 1 en vue de déterminer k H. La réaction, amorcée par la décomposition de l'AIBN, produit le radical dibutyl 4,7,10-trioxaundécylstannyle 1 •, qui engendre par arrachement de lˈatome de brome au dérivé halogéné le radical hex-5-ényle 2 •. Celui -ci peut alors évoluer de trois manières différentes (schéma 2) pour conduire à terme à l'hex-1-ène 2, au méthylcyclopentane 3 et au cyclohexane 4 〚26–28〛. L'analyse cinétique de la réaction permet d'établir l'équation différentielle suivante : Dans les conditions de faible taux dˈavancement de la réaction (< 10 %), la concentration instantanée en hydrure organostannique peut être assimilée à sa concentration initiale. L'intégration de l'équation différentielle conduit alors à la relation suivante : La détermination du rapport (〚 3 〛 + 〚 4 〛)/〚 2 〛 permet dˈaccéder au rapport (k 3 + k 4 )/ k H. Connaissant les constantes de cyclisation k 3 〚25〛 et k 4 〚26〛, il est possible de calculer la valeur absolue de la constante de vitesse de transfert k H pour l'hydrogénostannane 1. Les constantes de vitesse de cyclisation k 3 et k 4 à différentes températures ont été déterminées à partir des équations d'Arrhénius : de la cyclisation conduisant au radical méthylcyclopentyle 〚25〛 : de la cyclisation conduisant au radical cyclohexyle 〚26〛 : La réduction du 6-bromohex-1-ène par l'hydrure 1 a été réalisée à diverses températures, allant de 0 à 70 °C. Les rapports des concentrations des produits formés ont été calculés à partir des dosages des produits 2, 3 et 4, déterminés par chromatographie en phase gazeuse. Les valeurs de k H obtenues à partir de ces résultats expérimentaux sont reportées dans le tableau I; on peut noter le faible écart entre celles déterminées à une même température. Il est à noter que, pour les essais à 0 °C, les réactions ont été réalisées dans le décane, le benzène ayant un point de fusion supérieur à cette température. Ceci suppose, bien entendu, que les constantes de vitesse de transfert dans les deux solvants sont les mêmes, ou tout au moins très voisines. Cette hypothèse a été validée par l'obtention de rapports très voisins (〚 3 〛 + 〚 4 〛)/〚 2 〛 lors de l'étude des produits de la réduction du dérivé bromé insaturé, à une température de 40 °C dans les deux solvants. La représentation des variations de log k H en fonction de 1/ T est une droite, dont la pente est égale à – E a /2,3 R et l'ordonnée à l'origine log A, E a étant lˈénergie dˈactivation de la réaction de transfert et A le facteur préexponentiel. Une bonne corrélation est obtenue pour la régression linéaire effectuée à partir des valeurs rapportées dans le tableau I. Les valeurs de la pente et de l'ordonnée à l'origine ainsi déterminées ont permis de calculer les paramètres d'Arrhénius de la réaction de transfert (coefficient de confiance 95 %) : L'identification d'une telle corrélation peut être considérée comme une confirmation indirecte du faible effet du solvant, benzène ou décane sur k H. Les énergies d'activation et facteurs préexponentiels du transfert d'hydrogène de 1 et du tri- n - butylstannane 〚25〛 (tableau II) à un radical alkyle primaire diffèrent d'une amplitude supérieure à la somme des « incertitudes » estimées, traduisant ainsi une réalité pour ces écarts. Vedejs 〚9〛 avait envisagé l'existence d'une interaction entre l'atome d'étain et un atome d'azote situé en δ pour tenter d'expliquer la variation de réactivité entraînée par le remplacement d'un atome de carbone par cet hétéroatome dans un hydrogénostannane. Une coordination similaire, entre l'atome d'oxygène et l'atome d'étain du composé 1, pourrait être responsable des différences enregistrées dans les réactions de transfert étudiées. Nous en avons donc recherché l'existence en réalisant des analyses comparatives RMN 1 H, 13 C et 119 Sn de 1 et de l'hydrure de tri- n - butylétain en solution dans le benzène (tableau III), solvant dans lequel se fait la réaction. La similarité des valeurs des principaux paramètres permet d'exclure la présence d'une structure pentacoordinée à l'étain du composé 1. Toutefois, si cette coordination n'existe pas dans le produit de départ, l'hydrure 1, il est possible qu'elle intervienne au niveau de l'état de transition de la réaction de transfert d'hydrogène, comme Vedejs l'a précédemment signalé. Ceci pourrait alors expliquer les différences observées au niveau des valeurs des paramètres d'activation dans les réactions de transferts d'hydrogène aux radicaux alkyle primaires par l'hydrure de tri- n - butylétain et 1. Malgré l'existence de paramètres d'activation différents pour l'hydrure de tri- n - butylétain et son substitut 1, il importe, cependant, de remarquer que les valeurs des constantes de vitesse de transfert d'hydrogène entre 0 et 80 °C, conditions souvent utilisées en synthèse organique, sont du même ordre de grandeur (tableau II). Cette observation montre que le remplacement du tri- n - butylstannane par 1 n'affectera pratiquement pas les compétitions entre les processus radicalaires impliquant les radicaux alkyle primaires, et vraisemblablement secondaires et tertiaires, tout en permettant, en fin de réaction, une séparation plus facile des produits organiques et organostanniques 〚8〛. Les mesures des concentrations des carbures cycliques et linéaire formés lors de la réduction du 6-bromohex-1-ène par le stannane 1 ont permis, en utilisant les réactions de cyclisation des radicaux hex-6-ènyles comme chronoréactions, de déterminer les valeurs absolues de la constante de vitesse du transfert d'hydrogène de 1 à un radical alkyle primaire. Ainsi, il a été montré qu'entre 0°C et 80°C celles -ci étaient du même ordre de grandeur que celles du tri- n - butylstannane. Dans ces conditions, nous voyons que la proposition que nous avions faite par le passé de remplacer le tri- n - butylstannane par le composé 1 dans les réductions d'halogénures d'alkyle 〚8〛 est validée. Ainsi, compte tenu de leurs réactivités similaires dans les conditions habituelles de travail en synthèse organique, l'utilisation de 1 en lieu et place du tri- n - butylstannane sera un avantage non négligeable, en raison de la séparation plus facile des produits organostanniques et des produits organiques générés par la réaction. Les solvants ont été utilisés sans purification lorsque leur pureté était suffisante pour lˈapplication envisagée, ou ont été distillés selon les procédés appropriés pour chacun dˈeux. Le 6-bromohex-1-ène est fourni par Aldrich. Le stannane 1 est préparé à partir du chlorure de di- n - butyl 4,7,10 trioxaundécylstannyle 〚8〛. Les spectres RMN 1 H et 13 C ont été enregistrés sur un appareil Bruker AC250 et 119 Sn sur un appareil Bruker AC200. Les valeurs des déplacements chimiques sont exprimées en ppm (par rapport à Me 4 Si et Me 4 Sn). RMN 1 H (C 6 D 6, δ ppm) : 0,9 (t, 6H, 12 CH 3), 1,2–1,8 (m, 16H, 9 CH 2, 10 CH 2, 11 CH 2, 7 CH 2, 8 CH 2), 2,9 (t, 2H, 6 CH 2), 3,0 (s, 3H, 1 CH 3), 3,1–3,3 (m, 8H, 2 CH 2, 3 CH 2, 4 CH 2, 5 CH 2). RMN 13 C (C 6 D 6, δ ppm) : 13,9 (12 C), 15,2 (8 C, 1 J = 386 Hz), 18,5 (9 C, 1 J = 386 Hz), 26,3 (10 C, 2 J = 30 Hz), 27,2 (11 C, 3 J = 60,3 Hz), 28,4 (7 C, 2 J = 30 Hz), 58,6 (1 C), 70,1, 70,5 et 70,7, (2 C, 3 C et 4 C), 72,2 (5 C), 72,6 (6 C). RMN 119 Sn (C 6 D 6, δ ppm) : 63,9. RMN 1 H (C 6 D 6, δ ppm) : 0,6–2 (m, 22H, 9 CH 2, 10 CH 2, 11 CH 2, 12 CH 3, 7 CH 2, 8 CH 2), 3,2 (s, 3H, 1 CH 3), 3,3-3,5 (m, 10H, 2 CH 2, 3 CH 2, 4 CH 2, 5 CH 2, 6 CH 2), 5,07 (m, 1H, SnH). RMN 13 C (C 6 D 6, δ ppm) : 4,7 (8 C), 8,5 (9 C, 1 J = 332 Hz), 13,7 (12 C), 27,4 et 28 (10 C et 11 C), 30,2 (7 C), 58,6 (1 C), 70,6, 70,9 et 71 (2 C, 3 C et 4 C), 72,3 (5 C), 74,4 (6 C). RMN 119 Sn (C 6 D 6, δ ppm) : –86,6. RMN 1 H (C 6 D 6, δ ppm) : 0,8–1,7 (m, 27H, 9 CH 2, 10 CH 2, 11 CH 2, 12 CH 3), 4,95 (m, 1H, SnH). RMN 13 C (C 6 D 6, δ ppm) : 8,3 (9 C, 1 J = 330 Hz), 13,8 (12 C), 27,4 (11 C, 3 J = 50,3 Hz), 30,2 (10 C, 2 J = 25 Hz). RMN 119 Sn (C 6 D 6, δ ppm) : –90,5. La CPG a été utilisée afin de déterminer lˈavancement des réactions et dˈeffectuer les dosages de l'hex-1-ène 2, du méthylcyclopentane 3 et du cyclohexane 4 lors de lˈétude cinétique. Les mesures sont réalisées sur un appareil Varian Star 3400 couplé à un ordinateur PC muni du logiciel Star Chromatography Workstation et équipé d'une colonne capillaire DB 1 (diméthylpolysiloxane) de 30 m de longueur, de 0,25 mm de diamètre et de 0,25 μm dˈépaisseur de film de la phase stationnaire (gaz vecteur azote). Les études cinétiques effectuées sur la réduction du 6-bromohex-1-ène sont réalisées à partir de deux solutions mères : solution A : dans une fiole jaugée de 5 mL, on place 0,5 mmol de dérivé bromé, 0,05 mmol dˈAIBN, et environ 0,35 mmol dˈétalon interne; on complète à 5 mL avec du benzène anhydre fraîchement distillé; solution B : dans une fiole jaugée de 5 mL, on place 0,5 mmol de 1 et on complète à 5 mL avec du benzène anhydre fraîchement distillé. Dans un schlenk, on introduit 1 mL de la solution B et un tube contenant 1 mL de solution A. Les solutions sont simultanément dégazées trois fois par la méthode gel/dégel, en évitant un mélange des solutions A et B. L'ensemble est ensuite porté à la température choisie pour effectuer la réduction. Les deux solutions sont ensuite mélangées et laissées à réagir le temps nécessaire pour que le degré d'avancement de la réaction soit de l'ordre de 10 %. Le traitement des données log k, 1/ T a été réalisé par régression linéaire à l'aide du logiciel Excel version 2000 pour PC. Les erreurs données sur le facteur préexponentiel A, et sur lˈénergie dˈactivation E a, sont déterminées pour un taux de confiance de 95 % .
La constante de transfert d'hydrogène par le dibutyl 4,7,10-trioxaundécylstannane aux radicaux alkyle primaires a été déterminée à diverses températures, en étudiant la réduction radicalaire du 6-bromohex-1-ène par ce stannane. Ce travail montre que ce composé est un excellent substitut du tri-n-butylstannane.
chimie_02-0069497_tei_elsevier_02-0069497_CRAS-IIc-Chim.tei.xml
termith-335-chimie
Dans le combustible nucléaire usé déchargé des réacteurs, une partie des produits de fission comme l'iode et le césium seraient rapidement solubilisés au contact de l'eau, et dans le concept du stockage géologique direct, il est envisagé d'incorporer dans le colis mis en dépôt un matériau capable de bloquer ces deux éléments. En effet, ces deux produits de fission ont des isotopes radioactifs 135 Cs et 129 I de période longue. Ce matériau doit présenter une bonne stabilité thermique, chimique et sous rayonnements. Les hydroxyapatites phospho-calciques, de formule générale Ca 10 (PO 4) 6 (OH) 2, possèdent ces qualités. Elles se transforment au-dessus de 1  000°C 〚1〛; elles ont une très faible solubilité, rétrograde, en milieu neutre ou basique 〚2〛 et ont une structure cristalline dans laquelle les dégâts d'irradiation sont instables dès les plus basses températures 〚3–5〛. Un matériau de blocage à base d'hydroxyapatite phosphocalcique est donc particulièrement intéressant. Toutefois, il convient, pour piéger l'iode et le césium, de leur ajouter des composants spécifiques, ce qui est facile, compte tenu de leur mode de préparation. On examine dans cet article la préparation et les propriétés de ce matériau composite. La synthèse d'hydroxyapatites phospho-calciques par la voie des ciments 〚6, 7〛 se déroule à température ambiante. L'élaboration d'un ciment apatitique dans ce système se déroule en deux phases : la prise du ciment et son durcissement. La prise est due à la formation dans le milieu réactionnel, après gâchage, d'hydrogénophosphate de calcium dihydraté, la brushite, selon les réactions simultanées suivantes : et Lors du gâchage, le ciment pâteux devient de plus en plus dur. La prise du ciment provient de l'enchevêtrement des plaquettes de brushite cristallisée. Le temps de prise, qui varie entre 10 et 30 min, est assez long pour permettre la mise en forme du ciment et suffisamment court pour obtenir rapidement une bonne tenue mécanique. L'évolution de la brushite se poursuit en utilisant l'eau restant dans le système, puis évolue ensuite lentement vers l'hydroxyapatite, selon : et Après plusieurs essais, visant à conserver les propriétés mécaniques satisfaisantes de l'hydroxyapatite, le taux de charges total du ciment a été limité à 40 % en masse. Le rapport phase liquide sur phase solide a été ajusté à 0,63. Ce rapport est déterminant, car il régit la vitesse de prise et l'évolution du ciment. Les essais ont été effectués sur des cylindres de 7 g de ciment, dont les compositions sont reportées dans le tableau. Le phosphate de zirconium (Zr(HPO 4) 2 ·1,5 H 2 O) 〚8–10〛 est un échangeur du césium bien connu, de type zéolithique, particulièrement stable. L'analyse du diagramme de diffraction X du phosphate de zirconium utilisé montre qu'il s'agit d'un composé très mal cristallisé, voire quasi amorphe (figure 1). La sorption du césium par ce phosphate en fonction du pH a été étudiée. Les résultats montrent que plus le pH est élevé, plus la sorption du césium par Zr(HPO 4) 2 ·1,5 H 2 O est importante. Ces résultats vont dans le bon sens car, le pH des solutions à l'intérieur des ciments s'établissant autour de 9 à 10, la sorption du césium sera favorisée. L'influence du taux de Zr(HPO 4) 2 ·1,5 H 2 O sur l'évolution des ciments apatitiques a été étudiée. Des ciments avec des taux différents de Zr(HPO 4) 2 ·1,5 H 2 O de 10, 20 et 40 % ont été réalisés. Plus le taux de Zr(HPO 4) 2 ·1,5 H 2 O est important, plus le gâchage des ciments devient difficile. Plus le taux de Zr(HPO 4) 2 ·1,5 H 2 O augmente, plus les raies de la brushite sont intenses et celles de l'hydroxyapatite sont faibles : l'augmentation de la quantité de Zr(HPO 4) 2 ·1,5 H 2 O provoque une augmentation de la quantité de brushite produite et une diminution de la quantité d'hydroxyapatite. La présence massive de ZrH 2 (PO 4) 2 ·1,5 H 2 O dans le système provoque un blocage de celui -ci; il n'évolue plus vers l'hydroxyapatite, sauf en présence d'eau. Ce blocage au stade de la brushite est dû à deux phénomènes liés : d'une part, la consommation d'ions Ca 2+ par le phosphate de zirconium par échange avec les protons et, d'autre part, l'acidification locale du milieu due à ce relargage d'ions H + issus du Zr(HPO 4) 2 ·1,5 H 2 O. La composition de Zr(HPO 4) 2 ·1,5 H 2 O est modifiée selon l'équation : À ce stade, il est difficile d'identifier le processus prépondérant qui bloque la formation de l'apatite. L'évolution en présence d'eau des échantillons étudiés a été caractérisée par diffraction des rayons X. Les diagrammes correspondant à un ciment chargé à 20 % en ZrH 2 (PO 4) 2 ·1,5 H 2 O, juste après sa synthèse et après trois jours de contact avec de l'eau, mettent en évidence une nette évolution du système vers l'hydroxyapatite, démontrant lˈévolution spontanée du système vers lˈhydroxyapatite en cas de contact. Si le taux de ZrH 2 (PO 4) 2 ·1,5 H 2 O dans le ciment composite dépasse 10 %, il sera donc nécessaire d'augmenter le rapport liquide/solide en rajoutant de l'eau. Les roches riches en matière organique 〚11–13〛 et le charbon actif 〚14〛 fixent l'iode. On a donc choisi le charbon actif comme charge spécifique pour piéger l'iode dans les ciments composites étudiés. Il présente une très bonne stabilité aux hautes températures et sous irradiation. Pour une composition et une quantité de ciment définies, la concentration en iode pouvant être retenue a été déterminée. Les résultats montrent que des échantillons de 7 g de ciment, contenant 20 % massiques de charbon actif, bloquent au moins 5  000 ppm d'iode. Le charbon actif utilisé pour les essais se présente sous la forme de grains de tailles comprises entre 0,5 et 1 mm de diamètre. La dureté des grains est significative et le broyage présente une certaine difficulté. L'analyse du diagramme de diffraction X de ce composé montre que celui -ci est également très mal cristallisé, il présente deux halos de diffusion. L'influence de l'ajout de charbon actif a été étudiée pour s'assurer que ce composé n'entravait pas l'évolution du ciment vers la phase apatitique. Plusieurs ciments ont été synthétisés avec des taux de charge en charbon actif variant de 10 à 30 %. L'ajout de charbon actif n'influe, ni sur l'évolution du ciment vers la phase apatitique, ni sur le gâchage, ni sur la dureté des ciments obtenus. De plus, le pH d'une solution aqueuse en équilibre avec le charbon actif est de l'ordre de 10, ce qui est comparable au pH des solutions issues des ciments apatitiques, qui sont compris entre 9 et 10. Des essais réalisés avec différentes granulométries de charbon actif montrent que les ciments réalisés avec du charbon actif finement broyé sont plus durs. Pour étudier l'évolution du ciment après sa mise en contact avec l'eau extérieure, des diagrammes de diffraction X et des spectres infrarouges ont été réalisés sur des ciments contenant 10 % en charbon actif avant et après leur mise en contact avec de l'eau : ils révèlent l'évolution du système vers la phase apatitique. Des ciments contenant les deux charges à hauteur de 10 % chacune, en vue du blocage simultané des deux éléments césium et iode, ont été réalisés. L'évolution vers la phase apatitique est comparable à celle des ciments ne contenant que du ZrH 2 (PO 4) 2 ·1,5 H 2 O. Les matériaux composites réalisés à base de ciment phospho-calcique et de charges réagissent très favorablement, en évoluant vers la phase apatitique en cas de contact avec de l'eau extérieure. Une charge supplémentaire de phosphate tricalcique β a été utilisée : celui -ci va évoluer vers une hydroxyapatite 〚15〛 si une entrée d'eau se produit, plus tard, après la prise du ciment. À ce moment -là, ce phosphate va donner au matériau la possibilité de piéger des éléments dans la structure cristalline de l'hydroxyapatite qu'il va former. De plus, l'utilisation de cette charge diminuera le coût du matériau. Un ciment contenant une charge de 40 % (en masse) de phosphate tricalcique β a été synthétisé. Les diagrammes de diffraction X montrent que parallèlement à la diminution des raies imputables au phosphate tricalcique β, une augmentation significative des raies de la phase apatitique est observée. Pour tester la capacité des matériaux élaborés à fixer l'iode et le césium, on a procédé comme suit. La phase solide (phosphates de départ et charges) et la phase liquide contenant les éléments sont mélangées et gâchées pendant environ 10 min, jusqu' à l'obtention d'une pâte malléable durcissante. Une fois obtenue, cette pâte est placée dans un tube en plexiglas de 1,6 cm de diamètre et tassée, afin de minimiser les chemins préférentiels. Le tout est ensuite mis dans l'eau et placé à l'étuve à 90 °C pendant 8 j. Cette opération permet de faire évoluer totalement la pâte vers un ciment apatitique dur. Le tube contenant le ciment est ensuite mis à l'étuve à 90 °C à sec pendant 24 h. Une fois cette première phase terminée, les tubes sont reliés à un flacon de garde raccordé à une pompe à vide. Ce montage permet de réaliser deux passages successifs de l'eau dans des temps relativement brefs, mais significatifs. Un premier passage de l'eau à travers le matériau de blocage (interaction d'une eau sans éléments avec le ciment) est réalisé, suivi d'un deuxième passage de l'eau, chargée avec les éléments. La quantité d'eau passée au travers du ciment est recueillie et analysée; de même, la phase solide est caractérisée. Les expériences ont été faites avec du nitrate de césium, dosé par ICP–MS, la concentration en césium ayant été choisie délibérément très élevée pour pouvoir effectuer aussi les analyses du solide. L'iodure de césium n'a jamais été utilisé dans les expérience sur le blocage du césium, de façon à ne pas polluer l'ICP–MS en iode. L'iode a été introduit dans les solutions sous forme d'iodure de césium et en quantités importantes, afin de pouvoir également analyser la phase solide. L'analyse de l'iode dans les solutions a été effectuée par chromatographie ionique. Les quantités de césium et d'iode bloquées ont été déterminées par différence des concentrations de chaque élément dans la phase liquide, avant et après le passage au travers des ciments. Pour des problèmes de techniques d'analyse, le dosage de chaque élément a été effectué séparément et donc l'influence sur la sorption qu'exerce chacun sur l'autre n'a pas pu être mesurée. Tous les essais ont été réalisés avec des cylindres de ciment de 7 g, élaborés à partir de 4,2 g de réactifs (2,62 g de Ca 4 (PO 4) 2 O, 1,58 g Ca 3 (PO 4) 2 forme α) et 2,8 g de charges se répartissant entre le phosphate tricalcique β, ZrH 2 (PO 4) 2 ·1,5 H 2 O et le charbon actif. La répartition des différentes charges dans les ciments a pu être visualisée en microscopie optique et électronique à balayage. La microscopie électronique à balayage couplée à l'analyse X a permis de localiser l'iode et le césium dans les échantillons. Des analyses thermo-différentielles et thermo-gravimétriques ont été effectuées pour étudier la stabilité en température des ciments composites. Leur comportement vis-à-vis de changements thermiques brutaux et pour des températures élevées, proches de 500 °C, a aussi été étudié. Pour simuler ce brusque changement de conditions thermiques, lors des analyses ATD et ATG, des montées en température très rapides, de l'ordre de 10 °C·min –1, ont été réalisées. Ensuite, l'échantillon a été laissé pendant plusieurs heures à 500 °C. L'analyse ATD et ATG d'un ciment contenant 10 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O et 20 % de charbon actif montre une bonne tenue thermique du matériau. En effet, seul le pic endothermique de l'évaporation de l'eau, contenue dans les porosités du ciment, a été enregistré. Aucun changement de phase d'un des constituants ni une perte de masse occasionnée par le départ d'un produit n'ont été observés. Une diminution de la conductivité hydraulique des ciments apatitiques chargés en charbon actif a été mise en évidence. Cette propriété inattendue, mais intéressante, a donc été étudiée. Lorsque le pourcentage massique de charbon actif dans les ciments augmente de 0 à 30 %, la vitesse de passage de l'eau au travers des échantillons chute d'un facteur d'environ 200 (de 6,7·10 –6 à 2,9·10 –8 m·s –1) (figure 2). À partir d'un pourcentage de 30 % en masse de charbon actif, un palier est atteint. La rétention d'eau autour des grains de charbon actif entraîne leur gonflement, ce qui diminue la porosité. L'augmentation du volume des grains de charbon actif se traduit par une augmentation de 1 % environ du volume global de l'échantillon. Aucune influence notable due au phosphate de zirconium n'a été observée, puisque la variation du pourcentage de ZrH 2 (PO 4) 2 ·1,5 H 2 O n'entraîne aucune modification de la conductivité hydraulique du matériau. L'optimisation de la composition des ciments a été faite en élaborant différentes compositions. Les différentes compositions testées ainsi que les pourcentages massiques d'iode et de césium introduits et bloqués par les ciments sont reportés dans le tableau. Les différentes compositions sont reportées dans le diagramme ternaire de la figure 3. Sur ce diagramme, les différents pourcentages respectifs de ZrH 2 (PO 4) 2 ·1,5 H 2 O, charbon actif et phosphate tricalcique β (le total étant 100 %) des charges rajoutées au ciment (40 % en masse du ciment composite) sont reportés. Chaque composition est reportée (par exemple le point 20–10 représente un ciment contenant 20 % ZrH 2 (PO 4) 2 ·1,5 H 2 O, 10 % charbon actif, ce qui fait, en pourcentages respectifs des charges : 50 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O, 25 % de charbon actif et 25 % de phosphate tricalcique β (composition reportée aussi dans le tableau). Pour chaque point, les pourcentages de césium et d'iode bloqués sont reportés dans la légende. Seul le charbon actif montre une capacité à bloquer l'iode. Avec une solution contenant 2  130 ppm (soit 10,65 mg) d'iode, quasiment tout l'iode présent a été bloqué par le matériau. Tous les pourcentages de blocage sont compris entre 95 et 99 %. L'influence des paramètres mis en jeu n'a pu être appréciée, car déjà avec le taux le plus faible de charbon actif (5 %; point 10–5 du diagramme ternaire, figure 3) près de 99 % d'iode est bloqué; or tous les autres échantillons contiennent au moins 10 % de charbon actif. En revanche, à la fois le ZrH 2 (PO 4) 2 ·1,5 H 2 O et le charbon actif montrent une capacité à bloquer le césium. En effet, pour une même quantité de ZrH 2 (PO 4) 2 ·1,5 H 2 O et une même concentration en césium de la solution (soit 5  000 ppm, ou 50 mg de césium introduit), le pourcentage de césium bloqué augmente quand la quantité de charbon actif augmente. Par exemple, sur le diagramme de la figure 3, le pourcentage de césium bloqué passe de 32 à 44 % lorsque la quantité de charbon actif augmente de 0 à 10 % (du point 10–0 au point 10–10), et de 50 à 55 % lorsque la quantité de charbon actif augmente de 0 à 10 % (du point 20–0 au point 20–10). Les effets des deux charges ne sont pas additifs, mais compétitifs. Il semble que le césium ait une affinité plus importante pour le charbon actif que pour le ZrH 2 (PO 4) 2 ·1,5 H 2 O : la comparaison des points 10–0 (10 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O, 0 % de charbon actif) et 0–10 (0 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O, 10 % de charbon actif) montre que le blocage du césium est meilleur sur le charbon actif (41 %) que sur le ZrH 2 (PO 4) 2 ·1,5 H 2 O (32 %). L'influence de la concentration en césium a été étudiée en utilisant une seule composition de ciment (ciment 10–10 dans le tableau) et en faisant varier la quantité de césium introduit. D'après les résultats obtenus, pour une quantité constante de ZrH 2 (PO 4) 2 ·1,5 H 2 O, lorsque la masse de césium double dans la solution, la masse de césium bloquée double également, mais le pourcentage de sorption reste identique dans les deux cas s'établissant autour de 30 %. Ceci traduit le fait que le ZrH 2 (PO 4) 2 ·1,5 H 2 O n'est pas saturé en césium. Il existerait donc un équilibre de concentration qui s'établirait entre les ions Cs + et les ions H + de ZrH 2 (PO 4) 2 ·1,5 H 2 O. Au cours de l'échange, la composition de ZrH 2 (PO 4) 2 ·1,5 H 2 O se modifie suivant la réaction : L'influence de la durée de contact entre l'iode et le charbon actif est un paramètre important pour déterminer, pour une composition donnée et pour une concentration imposée en iode, la quantité de ciment nécessaire pour bloquer tout l'iode. Des quantités de ciment différentes, allant de 7 à 21 g, de composition 10 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O et 10 % de charbon actif (composition 10–10 dans le tableau) ont été testées, mais l'influence de ce paramètre n'a pu être évaluée, car tous les échantillons bloquent 98–99 % d'iode. L'étude du diagramme de la figure 3 permet finalement de montrer que la composition capable de fixer les plus forts pourcentages d'iode (98 %) et de césium (55 %) est celle d'un ciment contenant en masse 20 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O, 10 % de charbon actif et 10 % de phosphate tricalcique β (point 20–10 dans la figure 3). Une quantité de 5 % seulement en masse de charbon actif suffirait pour bloquer des concentrations élevées d'iode, mais augmenter le taux de charbon actif accroît l'imperméabilité du matériau, ce qui lui confère une propriété intéressante. Dans notre étude, les quantités bloquées de chaque élément n'ont pu être obtenues simultanément; or, d'après la littérature 〚12〛, il existe un effet synergique dans l'adsorption de ces deux éléments. Le blocage de l'un de ces éléments sur le charbon actif favorise le blocage de l'autre; il serait intéressant de pouvoir quantifier cet effet. Les pourcentages de chaque type de charge au sein des ciments apatitiques peuvent être ajustés. On a observé par microscopie optique et microscopie électronique à balayage (MEB) la répartition des différentes charges dans des coupes transversales effectuées dans les ciments composites. On observe une granulométrie hétérogène pour le charbon actif, alors que les inclusions de ZrH 2 (PO 4) 2 ·1,5 H 2 O et de phosphate tricalcique β sont réparties de façon homogène sur toute la surface de l'échantillon. L'analyse EDX de la composition du ciment confirme que l'apatite formée a pour formule Ca 10 (PO 4) 6 (OH) 2. Pour étudier la répartition de l'iode et du césium dans le solide, des profils de concentration ont été réalisés par analyse X sur une zone située au milieu de l'échantillon, zone où les grains de charbon actif et de ZrH 2 (PO 4) 2 ·1,5 H 2 O sont présents en grande quantité. Un échantillon contenant 10 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O et 20 % de charbon actif a été étudié après le passage d'une solution de CsI à 5  000 ppm. L'analyse d'un grain de ZrH 2 (PO 4) 2 ·1,5 H 2 O parcouru dans sa longueur (figure 4, coupe A) montre l'absence totale d'iode, que ce soit à l'intérieur ou autour du grain de ZrH 2 (PO 4) 2 ·1,5 H 2 O. Cette observation confirme bien que le ZrH 2 (PO 4) 2 ·1,5 H 2 O n'a aucune influence sur le blocage de l'iode. Le profil de composition (figure 4, coupe A) montre que le césium est bloqué à l'intérieur des grains de ZrH 2 (PO 4) 2 ·1,5 H 2 O, c'est-à-dire qu'un phénomène d'échange cationique a eu lieu. Un grain de charbon actif a également été étudié dans sa longueur. Le profil de composition (figure 4, coupe B) montre très bien que l'iode y est bloqué de façon importante et qu'une quantité non négligeable de césium est bloquée, non pas à l'intérieur du grain de charbon, mais à sa périphérie. Cette constatation a été confirmée à l'aide d'une cartographie du césium, qui montre bien la répartition de celui -ci, non seulement dans les grains de ZrH 2 (PO 4) 2 ·1,5 H 2 O, mais également à la périphérie des grains de charbon actif. Le charbon actif, qui au contact de l'eau développe des propriétés amphotères 〚16〛, présente une affinité plus élevée pour l'iode que pour le césium, ce qui se manifeste par une diffusion de l'iode à l'intérieur des grains de charbon actif, alors que le césium reste à la périphérie des grains. Ce phénomène peut s'expliquer par la nécessité d'une neutralité électrique 〚17〛 du grain de charbon actif qui, pour compenser la charge négative des ions iode, va sorber des charges positives à sa surface, les ions césium. Il a en effet été vérifié que la présence de césium autour des grains de charbon actif ne correspondait pas à la formation de précipités ou de composés cristallisés à la surface de ces grains. Cette étude a permis de mettre au point un matériau composite constitué d'un ciment apatitique, auquel trois types de charge ont été rajoutés : le phosphate de zirconium et le charbon actif, pour le blocage de l'iode et du césium, et le phosphate tricalcique β, qui évolue vers l'apatite en présence d'eau à pH élevé. Ce matériau présente une conductivité hydraulique faible ainsi qu'une bonne tenue thermique. Il est montré que ce matériau est capable de piéger la totalité de l'iode et la moitié du césium en solution pour une composition à 20 % de ZrH 2 (PO 4) 2 ·1,5 H 2 O, 10 % de charbon actif et 10 % de phosphate tricalcique β. Une application importante de ce matériau pourrait être son utilisation comme matériau de blocage de l'iode et du césium dans les colis contenant les combustibles nucléaires usés dans le concept du stockage géologique direct. En effet, en plus de ses grandes capacités à fixer l'iode et le césium, ce matériau, constitué majoritairement d'apatite, stable en milieu irradiant, est aussi capable de fixer des quantités notables d'autres éléments, comme les actinides, le strontium, le zirconium, aussi présents dans les combustibles usés .
L'aptitude d'un ciment apatitique, constitué d'hydroxyapatite et des charges ajoutées, phosphate tri-calcique β, phosphate de zirconium et charbon actif, a été élaboré et testé en tant que matériau de blocage de l'iode et du césium. Ce matériau pourrait être utilisé en tant que matériau de blocage des assemblages de combustibles nucléaires usés dans l'option de leur stockage direct, afin de freiner la dissémination des produits de fission labile (césium et iode) lors d'un contact du combustible avec de l'eau.
chimie_01-0326702_tei_elsevier_01-0326702_CRAS-IIc-Chim.tei.xml
termith-336-chimie
Dans la littérature chimique, la structure de Cu(OH) 2(s) a été décrite comme présentant une analogie avec un oxy-hydroxyde de fer trivalent, γ-FeO(OH) (s) 〚1〛, existant dans la nature sous le nom de lépidocrocite. Cette analogie a été constatée sur la base de données cristallographiques anciennes et s'est appuyée sur le fait que le groupe spatial Cmcm (n° 63) était identique pour les deux composés et que les paramètres de la maille ainsi que les paramètres de position atomique des atomes indépendants étaient voisins (tableaux I et II). En outre, les deux structures, peu stables, se caractérisent par la présence de feuillets ondulés, reliés entre eux par des liaisons hydrogène plus ou moins fortes, ce qui est plutôt original pour le composé du fer, car les oxydes ou oxy-hydroxydes cristallisent généralement dans des structures tridimensionnelles. Dans une étude plus récente 〚2〛, le choix du groupe spatial Cmcm a été remis en cause pour Cu(OH) 2(s) et le groupe non centrosymétrique Cmc 2 1 (n° 36) lui a été préféré. Dans le prolongement des travaux que nous avons déjà publiés sur l'hydroxyde de cuivre 〚3–5〛, l'objectif de cette publication consiste à étudier la structure de la lépidocrocite γ-FeO(OH) (s), qui constitue l'une des trois variétés d'oxy-hydroxyde de fer trivalent, avec la gœthite α-FeO(OH) (s) et l'akaganéite β-FeO(OH) (s), à comparer la structure de Cu(OH) 2(s) avec celle de γ-FeO(OH) (s) afin de mieux définir l'analogie structurale existant entre ces deux phases, dont la stœchiométrie est pourtant différente, et à essayer de comprendre pourquoi ces deux phases, malgré leurs différences, cristallisent dans un même type structural. Ce dernier peut être considéré comme dérivant du type brucite, bien qu'il s'en écarte notablement à première vue. Pour étayer cette hypothèse, nous proposons une réaction topotactique permettant d'expliquer le passage du type brucite au type lépidocrocite. La structure de γ-FeO(OH) (s) a été déterminée en 1935 〚6〛 (voir tableau I). Depuis, peu de travaux structuraux ont été publiés. On peut néanmoins citer deux publications datant de 1978 et 1982, dans lesquelles les auteurs proposent le groupe spatial Cmc 2 1 à la place du groupe Cmcm et une position différente pour l'hydrogène 〚7, 8〛. En revanche, des travaux concernant des composés isotypes de la lépidocrocite existant dans le cas de l'aluminium trivalent γ-AlO(OH) (bœhmite) 〚9, 10〛 et du scandium γ-ScO(OH) 〚10〛 ont confirmé le choix du groupe Cmcm. De plus, le positionnement de l'hydrogène dans cette structure n'a pas été déterminé avec certitude, puisque l'hypothèse formulée en 1935 〚6〛 était toujours reprise dans une publication beaucoup plus récente en 1986 〚11〛. La structure, reportée sur la figure 1b, est constituée de feuillets ondulés. Le fer trivalent se trouve dans un environnement octaédrique déformé (figure 2b), comprenant quatre oxygènes O2, dont deux sont situés à 2,00 Å et les deux autres à 2,01 Å ainsi que deux groupements OH – (oxygène O1), situés à 2,00 Å. D'après ces distances pratiquement égales, on peut remarquer que la déformation de l'octaèdre est essentiellement de nature angulaire, puisqu'il existe un angle O2–Fe–O2 de 151,12°. L'oxygène O2 possède un environnement tétraédrique déformé, constitué de quatre cations ferriques. En revanche, l'environnement de l'oxygène O1 comprend deux cations et un hydrogène. L'hypothèse de positionnement de l'hydrogène dans la structure de la lépidocrocite formulée par Ewing en 1935 correspond à un placement de celui -ci en 4a : 0, 0, 0 du groupe spatial Cmcm (voir tableau II), ce qui se traduit par une liaison H linéaire entre deux atomes O1 distants de 2,70 Å, l'atome d'hydrogène se situant alors à égale distance (1,35 Å) de chaque oxygène O1 engagé dans cette liaison. Cette hypothèse nous paraît peu vraisemblable. Elle a d'ailleurs été contestée dans le cas de la bœhmite γ-AlO(OH) en 1958 〚12〛. En effet, une étude par résonance magnétique nucléaire montre que, dans ce cas, la liaison hydrogène ne peut être linéaire. En nous basant sur des considérations d'ordre géométrique et par comparaison avec d'autres structures analogues 〚13〛, nous proposons une hypothèse de positionnement en 4c : 0; 0,495; ¼ du groupe Cmcm (voir tableau II). Cette hypothèse, pour laquelle la distance O1–H1 de 1,00 Å est imposée, aboutit à l'établissement de deux liaisons H de force moyenne par hydrogène avec deux oxygènes O1 différents (2 × O1···H1–O1 : 2,12 Å), ce qui est beaucoup plus favorable pour stabiliser la structure (figure 2b). De nombreux travaux indiquent que la lépidocrocite γ-FeO(OH) (s), variété rare dans la nature, se forme à partir de Fe(OH) 2(s) 〚14–16〛 (figure 3a). Cet hydroxyde de fer divalent possède une structure en couches, isotype de la brucite 〚17, 18〛. Nous pensons que la formation de γ-FeO(OH) (s) doit se faire par oxydation de l'hydroxyde ferreux mettant probablement en jeu une réaction topotactique. Cela expliquerait que cette variété possède également une structure en couches, alors que les deux autres variétés α et β-FeO(OH) (s) (respectivement gœthite et akaganéite) cristallisent dans une structure tridimensionnelle. L'oxydation du fer ferreux a pour conséquence le départ de la moitié des atomes d'hydrogène ainsi que la coupure d'une liaison Fe–OH sur les trois liaisons restantes (figure 3b). L'oxygène O2, ayant perdu son hydrogène, établit alors, par compensation, une nouvelle liaison avec un quatrième atome de fer, appartenant au même feuillet. En conséquence, le groupement O1H ne se trouve plus relié qu' à deux atomes de fer au lieu de trois (figure 3c). Une déformation de la structure suivant les flèches indiquées sur cette dernière figure se traduit par une diminution du paramètre c et une augmentation du paramètre b; elle permet ainsi d'obtenir la structure de la lépidocrocite (figure 3d). L'hypothèse de transformation topotactique ainsi décrite est explicitée dans les tableaux III et IV. La structure de Cu(OH) 2(s) a fait l'objet de nombreux travaux 〚1–5〛. Nous nous bornerons à une description sommaire de cette structure, en insistant néanmoins sur les environnements de l'oxygène et plus particulièrement sur celui de l'oxygène O1, qui joue un rôle essentiel dans l'instabilité de ce solide. La structure est orthorhombique de groupe spatial Cmc 2 1. Les paramètres de mailles sont reportés dans le tableau I, où ils sont comparés avec ceux de la lépidocrocite. Elle est constituée de feuillets ondulés (figure 1a). La cohésion entre les feuillets est assurée par un tissu de liaisons hydrogène, dont certaines sont relativement fortes. Sur la figure 2a sont représentés les environnements des atomes de cuivre et d'oxygène. Le cuivre divalent se trouve dans un environnement pentaédrique défini par cinq groupements OH –, situés à 1,95, 1,95, 1,97, 1,97 et 2,36 Å du cation central. Le sixième OH – se trouve à une distance du cuivre beaucoup trop importante pour qu'il puisse être considéré comme appartenant au polyèdre de coordination (Cu–O : 2,92 Å). L'oxygène O2 se trouve dans un environnement tétraédrique classique très déformé, constitué par trois atomes de cuivre situés à 1,95, 1,95 et 2,36 Å et un atome d'hydrogène à 1,07 Å. En revanche, l'oxygène O1 possède un environnement très particulier dans la mesure où il n'est lié qu' à deux atomes de cuivre situés à 1,97 Å et à un atome d'hydrogène distant de 1,00 Å. Néanmoins, on peut remarquer que cet oxygène est engagé dans trois liaisons hydrogène dont une est forte (O1···H1–O1 : 1,92 Å) et les deux autres moyennes (2 × O1···H2–O2 : 2,26 Å). De plus, chaque hydrogène H2 établit deux liaisons H avec deux oxygènes O1 différents. Ce tissu serré de liaisons H contribue à la stabilisation relative de la structure de cet hydroxyde. Nous pensons, malgré tout, que cet environnement particulier de l'oxygène O1 est responsable de la faible stabilité de la structure de Cu(OH) 2 par comparaison avec la stabilité des hydroxydes de type brucite, dans lequel les oxygènes se trouvent dans un environnement tétraédrique peu déformé, constitué de trois cations divalents et d'un hydrogène (figure 4c) 〚13〛. Cette instabilité de Cu(OH) 2 explique d'ailleurs l'évolution rapide de ce composé vers l'oxyde de cuivre CuO, caractérisé par des environnements plus classiques : plan carré pour le cuivre divalent et tétraédrique pour l'oxygène (figure 4b). Les paramètres de maille des deux structures sont comparés dans le tableau I. Le paramètre c subit une augmentation sensible dans le cas du cuivre, car il correspond à la direction des liaisons Cu–O longues déformées par un effet Jahn–Teller important, qui n'existe évidemment pas dans le cas du fer trivalent. En effet, le paramètre c de 3,87 Å pour le composé du fer devient égal à 5,256 4 Å pour celui du cuivre. Ce phénomène a pour conséquence d'écarter les plans carrés de cuivre au sein d'un même feuillet, avec un léger basculement de ceux -ci, jusqu' à l'obtention d'un environnement pentaédrique pour le cuivre. Cet écartement a pour conséquence une meilleure imbrication des feuillets et un rapprochement de ceux -ci dans la structure de Cu(OH) 2. Il s'ensuit que le paramètre b, perpendiculaire au plan des feuillets, est moins grand pour le composé du cuivre : 10,593 Å au lieu de 12,51 Å pour le composé du fer. En outre, pour les deux composés, ce paramètre b correspond au double de la distance inter-feuillets. Cela est dû au fait que les feuillets sont décalés de a /2 suivant la direction a. Les positions atomiques sont comparées dans le tableau II. Pour l'atome métallique et les oxygènes O1 et O2, les positions sont très semblables, même si O2 est légèrement décalé suivant c dans la structure de l'hydroxyde de cuivre par rapport à la cote z = 0,25. En revanche, dans cette même structure, l'hydrogène H1 est très décalé suivant l'axe c (z = 0,411 8 au lieu de 0,25), ce qui n'est pas surprenant, car il est repoussé par l'autre hydrogène H2 présent dans cette structure. Dans ce cas, la présence de cet hydrogène H2 empêche qu'une liaison H double s'établisse entre l'hydrogène H1 et deux oxygènes O1 équidistants, comme nous l'avons proposé pour la lépidocrocite (figure 1). Il se forme alors une liaison H unique, pratiquement linéaire : O1–H1····O1, puisque l'angle obtenu est égal à 167,03°. Il est évident que le passage de la structure de type brucite à la structure lépidocrocite s'explique par la dissymétrie introduite par la disparition de la moitié des hydrogènes. En effet, la structure de type brucite est très symétrique, ce qui impose que les environnements octaédriques M(OH) 6 soient très peu déformés (figure 5a). De plus, l'environnement tétraédrique de l'oxygène, constitué par trois cations et un hydrogène, caractéristique de la structure brucite, n'est plus possible (figure 2b). En revanche, pour ce qui concerne l'hydroxyde de cuivre, l'obtention d'une structure de type brucite est impossible, car les composés du cuivre divalent présentent un effet Jahn–Teller très important. L'enchaînement des polyèdres rencontré dans la lépidocrocite (figure 5b) permet cette déformation importante, aboutissant même à un environnement pentaédrique pour le cuivre (figure 5c); c'est la raison pour laquelle une analogie structurale apparaît entre les deux phases. L'étude comparée des structures de γ-FeO(OH) et de Cu(OH) 2 montre qu'il existe une analogie certaine entre ces deux phases. Elle se manifeste essentiellement dans le mode d'enchaînement des polyèdres, qui aboutit à une structure bidimensionnelle composée de feuillets ondulés, même si l'on considère que le cuivre divalent se trouve dans un environnement pentaédrique, alors que l'environnement du fer trivalent est octaédrique. Les deux composés possèdent un oxygène dont l'environnement est très particulier, puisqu'il ne comporte que deux cations et un hydrogène (figure 2). Cet environnement constitue une cause d'instabilité pour la structure, pondérée partiellement par l'établissement d'un tissu de liaisons hydrogène relativement fortes. Cette instabilité est manifeste dans le cas de Cu(OH) 2, qui évolue facilement vers l'oxyde CuO plus stable (ténorite à l'état naturel), dans lequel l'oxygène se trouve dans un site tétraédrique constitué de quatre atomes de cuivre 〚4, 5〛 (figure 4b). Dans ces conditions, il n'est pas étonnant que l'hydroxyde de cuivre divalent n'existe pratiquement pas dans le milieu naturel. Ce n'est en effet qu'en 1981 qu'il a été découvert dans une mine du Québec; ce nouveau minéral ayant pris le nom de son découvreur F. Spertini, à savoir la spertiniite 〚19〛. La lépidocrocite est également très rare dans le milieu naturel, où les autres variétés α-FeO(OH) (gœthite) et β-FeO(OH) (akaganéite) sont rencontrées plus communément. Cette rareté peut aussi s'expliquer par le fait que la lépidocrocite se forme à partir de Fe(OH) 2(s). La transformation s'effectue par une réaction topotactique, qui préserve la structure feuilletée de la brucite. Néanmoins, il existe d'autres composés isotypes de la lépidocrocite dans le cas de l'aluminium trivalent (γ-AlO(OH) : bœhmite) et du scandium trivalent (γ-ScO(OH)) 〚9〛, ce qui incite à penser que ce type structural, qui dérive de la brucite, définit, malgré sa relative instabilité, une famille structurale comportant plusieurs représentants parmi les minéraux naturels. Les auteurs tiennent à remercier Alain Jigorel, ingénieur de recherche à l'Insa de Rennes pour les informations qu'il nous a apportées au sujet de la lépidocrocite .
Malgré leur stœchiométrie différente, Cu(OH)2(s) et γ-FeO(OH)(s) présentent une analogie structurale. Elle se manifeste essentiellement dans le mode d'enchaînement des polyèdres, qui aboutit à une structure bidimensionnelle composée de feuillets ondulés. L'oxy-hydroxyde γ-FeO(OH)(s), appelé lépidocrocite, est obtenu probablement par une réaction topotactique - pour laquelle nous proposons une hypothèse - à partir de l'hydroxyde de fer divalent Fe(OH)2(s), qui possède également une structure feuilletée, isotype de la brucite. La structure de type lépidocrocite ainsi obtenue peut tolérer des déformations importantes de l'environnement octaédrique des cations, contrairement au type structural de la brucite. Cette déformation est due à une dissymétrie entre les oxygènes, induite par l'absence d'un hydrogène pour l'oxy-hydroxyde ou à l'effet Jahn-Teller important présenté par le cuivre divalent dans la structure de l'hydroxyde de cuivre. Si une isotypie est impossible entre Cu(OH)2(s) et la brucite, comme c'est le cas pour Fe(OH)2(s), il existe, en revanche, une analogie structurale avec la lépidocrocite, même si le cuivre divalent se trouve dans un environnement pentaédrique, alors que le fer trivalent est dans un environnement octaédrique. Les deux structures sont caractérisées par un atome d'oxygène possédant un environnement particulier, constitué par deux cations seulement et un atome d'hydrogène, ce qui a pour conséquence de rendre relativement instables ces deux structures.
chimie_02-0138972_tei_elsevier_02-0138972_CRAS-IIc-Chim.tei.xml
termith-337-communication
La norme ISO/CEI 10646 et son sous-ensemble Unicode proposent un jeu universel de caractères codés doté des particularités suivantes sauf exception, on attribue un code et un seul à un caractère et différents caractères ne peuvent posséder le même code, on code un caractère et non ses glyphes potentiels 1. Par conséquent, le codage est assuré sans ambiguïté, ce qui représente un avantage dans la mesure où jusqu'alors aucun système n'a su dispenser la diversité des caractères d'une manière simple donc facilement gérable. Pour la première fois la quasi-totalité des écritures est prise en charge par un principe unique et rationnel applicable à un ensemble de méthodes en vigueur dans le traitement de l'information. Une analyse des besoins en matière d'écritures fait apparaître que l'informatisation de celles -ci ne peut être réalisée par la simple mise à disposition de caractères. L'écriture existe et est utilisée sous différentes formes. Elle est encore manuscrite, imprimée ou dactylographiée tout en faisant l'objet de transcriptions numériques de plus en plus nombreuses. À cette diversité de formes graphiques s'ajoute le problème de la diversité de langues écrites que tente de résoudre Unicode et ISO/CEI 10646. Le jeu universel de caractères prend en charge les trois grands groupes de systèmes d'écriture (systèmes idéographique, syllabique et alphabétique) pour différents groupes linguistiques. Rappelons brièvement qu'il faut faire la distinction entre langue et écriture. Évidemment les deux notions sont liées. Sans entrer dans une réflexion sur les liens entre le langage et l'écriture et sur une éventuelle prépondérance de l'un sur l'autre on peut admettre que la structure de la langue induit l'usage d'un système d'écriture que l'environnement culturel où les possibilités d'échange jouent un rôle important, finit d'entériner. Pour éviter des confusions nous parlerons de langue écrite dans cet article qui ne se limite pas au sujet des systèmes d'écriture. La diversité des langues écrites implique des difficultés en informatique qui ne sont que partiellement résolues par Unicode et ISO/CEI 10646. Ces codes de caractères sont certes la pierre angulaire de l'informatisation des écritures mais il faut pour dispenser le texte et le traiter, respecter des règles d'écriture (sens, disposition des caractères, césure des mots…) qui ne sont pas à ce jour répertoriées d'une manière universelle. Les écritures sont aussi l'objet de translittération 2 et de transcription 3 qui sont, en partie, aujourd'hui des pratiques uniformisées par des normes. Mais dans la réalité cette uniformisation n'est pas encore en usage. L'hétérogénéité, sur ce point, des notices bibliographiques d'une bibliothèque à l'autre est une réalité 4. L'élaboration de systèmes d'information locaux et internationaux est en plein essor dans le secteur public autant que privé. En France, même si elle a pris un certain retard à ses débuts, la rapidité de cette évolution n'en est pas moins grande. Le travail de conception en amont tient-il compte de la complexité des problèmes posés par l'informatisation des écritures, problèmes qui ne sont pas seulement informatiques mais enjeux socioculturels, économiques et politiques ? Dans cet article nous tenterons de mettre en évidence de tels enjeux afin de comprendre comment ils sont appréhendés et d'évaluer si la prise de conscience est suffisante pour une véritable appropriation des écritures numérisées. Le sujet est trop vaste pour l'aborder ici dans son entier. Nous proposons donc de le développer à travers un thème particulier concernant la numérisation des langues écrites : les usages d'Unicode en France et dans la francophonie. Au préalable nous décrirons succinctement quelques aspects de la logique d'organisation des codes de caractères d'écriture supervisée par la normalisation et la standardisation. Puis nous placerons la langue française dans ce contexte. En somme, après avoir fait le lien entre Unicode et les langues écrites en général, nous poserons la question de ses liens avec la langue française. L'informatique est basée sur un processus de codage qui fait la correspondance entre des impulsions électroniques et deux entités abstraites symbolisées par les chiffres 0 et 1. Le code numérique ainsi établi est organisé de telle manière que les séquences de 0 et 1 représentent des données traitées et restituées par l'ordinateur sous forme d'action ou d'informations accessibles à l'usager. Les premières données correspondaient à des calculs. Lorsque l'information textuelle est apparue, elle n'était disponible qu'en anglais c'est-à-dire en alphabet latin non accentué. Cet alphabet informatisé a été l'objet d'un standard, l'ASCII 5 qui est aussi devenu une norme internationale, ISO 646. Le domaine du codage des caractères graphiques a vu naître une multiplicité de normes nationales et de standards privés qui ont eu et ont encore une certaine efficacité dans un environnement donné. La volonté des industriels de capter des marchés ainsi que de nombreuses revendications pour que soient présentes les langues écrites nationales dans les codes informatiques sont à l'origine du foisonnement de jeux de caractères spécifiques. En parallèle, les outils et les pratiques informatiques ont rapidement évolué vers l'échange d'informations notamment sur réseaux. Or la restitution de l'écrit subordonne une grande part de leur utilisation. La mondialisation des échanges a entraîné une légitimation de l'informatique multilingue. Devant l'insuffisance du code ASCII, face aux besoins culturels de disposer de systèmes d'écriture autres que l'alphabet latin non accentué, après quelques tâtonnements et une succession d'anecdotes, un consensus autour d'un jeu universel de caractères s'est imposé comme solution aux problèmes d'interopérabilité et de portabilité entre systèmes. Un caractère dans cette table est représenté par un nom et un numéro hexadécimal (U+ 05DE, par exemple) correspondant tous deux à une séquence de bits. Or pour rendre la multitude de caractères proposés disponible, cela ne suffit pas. Nous proposons d'analyser ici comment cette dernière est proposée. La naissance des TIC (technologies de l'information et de la communication) a conduit des industriels à abandonner leurs tentatives d'imposer leur codage des caractères au profit du développement de nouveaux outils prometteurs. En outre, dans l'attente d'améliorations favorables des techniques informatiques, celles concernant notamment les capacités de mémoire de stockage des machines et la vitesse de lecture des processeurs, Unicode [UNI 00] et ISO/CEI 10646 [ISO 93] sont nés. Les caractères y sont codés sur plusieurs octets. Jusqu'alors la codification des caractères se faisait sur un octet la plupart du temps ce qui limitait le nombre de caractères disponibles ou obligeait à utiliser des méthodes complexes pour passer d'un jeu de caractères à un autre. Dans les deux cas (norme et standard), le codage est basé sur un système logique comportant des codes de commande. De plus, la convertibilité est un principe de base permettant la compatibilité avec des jeux de caractères existants. Sont associés des formats de sérialisation (UTF-8, UTF-7, UTF-16), sortes d'extensions d'Unicode et ISO/CEI 10646. Pour la première fois toutes les écritures sont prises en charge par un même système de codage numérique clairement défini rendant tous les caractères accessibles électroniquement de la même manière. De ce fait, on parle de jeu universel de caractères ou JUC 6. En effet, les enjeux liés au traitement du texte sont à tel point cruciaux que la normalisation dans ce domaine n'a pas simplement organisé une production de qualité et encouragé les innovations en fonction de l'offre et de la demande. Des demandes précises de l'ISO et du consortium industriel informatique Unicode ont insufflé pour une grande part les logiques fonctionnelles de la normalisation et standardisation du codage des caractères. Ces dernières n'ont pas joué uniquement un rôle de veilleur et de régulateur mais un rôle d'instigateur vis-à-vis de ce qui n'est qu'un aspect mais est la base de l'informatisation des langues écrites. On peut s'étonner de les voir remplir cet office mais concernant l'écriture le fait est courant. L'histoire de l'écriture du français est jalonnée par ce type d'événements. On peut citer pour exemple la progressive harmonisation de l'orthographe à partir de la Renaissance jusqu'au xixe siècle. Les liens entre normalisation et écriture sont étroits. Aujourd'hui, il existe une différence notable entre ISO/CEI 10646 et Unicode qui contiennent pourtant exactement les mêmes positions de code. Le consortium développe un travail plus dynamique autour de la publication du standard visant à implémenter Unicode dans toutes sortes de systèmes d'information et à résoudre les problèmes d'écriture en plus de la simple disponibilité des caractères. On peut remarquer par exemple que la première version d'Unicode met en évidence des groupements linguistiques (définis par les systèmes d'écriture qu'ils utilisent) à travers des « allocations Unicode » (voir la figure 1) alors que la norme ne le fait pas 7. Unicode 3.0 présente les différentes écritures dans différents chapitres : les écritures alphabétiques européennes, les écritures du Moyen-Orient, de l'Asie du Sud de l'Afrique, les écritures dites supplémentaires. Cette classification qui n'est pas le codage en lui -même mais une représentation de celui -ci est principalement géolinguistique. Un caractère est codé, en principe, indépendamment de la notion de langue mais on se rapporte à la langue pour le « ranger ». Cette tendance n'est pas une simple technique d'ordonnancement. On peut le constater dans ce que l'on peut définir comme étant deux sous-répertoires d'Unicode et du JUC : le CJC et le SEM 8. Le CJC correspond à un ensemble d'entrées de codes attribués aux idéogrammes unifiés chinois, japonais, coréen. Le CJC est la solution adoptée pour coder un fonds partagé de caractères han. Aujourd'hui on parle de CJCV car ces idéogrammes sont également présents dans le patrimoine scriptural vietnamien. L'emploi d'une même écriture fait ici l'objet d'une reconnaissance qui peut être perçue comme facteur favorable d'échanges et d'intercompréhension entre des pays où on ne parle pas la même langue. Un tel avantage est d'autant plus conséquent que le sous-répertoire unifié est clairement nommé, défini et normalisé. On peut penser qu'il aura des impacts culturels, économiques et politiques dans la région où il va le plus circuler mais aussi dans le monde entier. Le SEM (sous-ensemble européen minimal) est un sous-répertoire moins connu et reconnu. Tout d'abord, il n'est pas défini dans Unicode ni dans le JUC. Il fait l'objet d'une norme expérimentale [CEN 96] publiée par le Comité européen de normalisation (CEN) et l'Association française de normalisation (AFNOR). Le SEM répond à un manque de spécification cohérente des écritures de l'Europe : alphabets latin, grec, cyrillique, arménien et géorgien. Il fonctionne comme un guide d'implémentation local et doit satisfaire des exigences administratives commerciales, orthographiques (concernant en premier lieu les noms de personnes) des informations traitées dans les équipements informatiques européens. La diversité linguistique des langues parlées européennes n'est pas du même ordre de grandeur que la diversité des systèmes d'écriture associés à ces langues. Si on se limite aux langues officielles des pays de la communauté européenne et aux pays candidats, seuls l'alphabet grec et l'alphabet latin accentué sont employés. La codification des caractères des langues écrites européennes ne paraît pas insoluble 9 d'autant plus qu'il s'agit d'alphabets donc d'un nombre relativement restreint de signes. Au total le SEM répertorie 926 caractères dans ses jeux partiels européens. Ce répertoire peut être implémenté selon divers niveaux correspondant à des besoins plus ou moins larges en matière d'échange multilingue européen et des possibilités des utilisateurs à rendre leurs postes compatibles : le SEM 1 pour les langues écrites officielles de l'Union européenne, plusieurs langues minoritaires, correspond à l'alphabet latin étendu dans Unicode et ISO/CEI 10646 (333 caractères); le SEM 2 pour les autres langues écrites minoritaires sauf le géorgien et l'arménien la bureautique, le traitement de texte correspond aux lettres latines de base, grecques et cyrilliques, signes de ponctuation et symboles; le SEM 3 pour la translittération, la transcription, l'édition, la recherche en milieu universitaire, l'industrie, le gouvernement, propose les codes de toutes les écritures européennes et l'API. Le SEM ne jouit pas de la même reconnaissance internationale que le CJC, sans doute parce qu'il n'a pas été très employé. Et rappelons qu'au contraire du CJC, il n'est pas défini dans Unicode ni dans la norme ISO/CEI 10646. Il leur est associé par une norme supplémentaire qui pour l'instant garde un statut expérimental qui n'en a pas moins une valeur normative. Cela signifie que les travaux de normalisation à ce sujet sont en cours ou en dormance. La notion de sous-ensemble est définie depuis longtemps dans la norme ISO/CEI 10646 et dans le standard Unicode puisque la convertibilité, c'est-à-dire la compatibilité avec d'autres jeux de caractères y est une règle de base. Ainsi, les toutes premières positions de code du jeu universel correspondent à l'ASCII. Un sous-ensemble de caractères d'Unicode adopté en fonction de jeux de caractères existant est dit « limité ». L'élaboration d'une liste de caractères choisis dans Unicode est un sous-ensemble dit « sélectionné ». La répartition des caractères en liaison avec des groupes d'écritures est visible dans Unicode et le JUC car les positions de codes sont présentées sous forme de table correspondant généralement 10 à des jeux standardisés et normalisés nationaux et internationaux. La liste des répertoires sources est donnée dans la norme ISO/CEI 10646 et le standard Unicode. De plus, l'évolution de ces documents a consisté à ajouter des tables en fonction de demandes linguistiques précises. Par exemple, les dernier et avant-dernier jeux intégrés sont ceux utilisés dans l'écriture en langue mongole et en langue syriaque respectivement. Le tout peut être assimilé à une table unique organisée de telle manière à faciliter l'accès aux caractères selon les besoins des utilisateurs qui peuvent se reporter aux blocs scripturaux qui les intéressent où retrouver un caractère donné dans une liste de noms (définitions) de caractères rangés par ordre alphabétique. Les normes de codage ne sont pas destinées à un usage courant. En général, celui qui cherche un caractère dans ces jeux de caractères, possède une bonne connaissance de l'informatique. La plupart du temps, il doit répondre à une demande émanant d'un utilisateur qui n'aura pas accès, théoriquement, aux tables de code. Pour ce faire, il doit s'assurer que les caractères utilisés dans la langue écrite de l'utilisateur sont bien répertoriés dans le jeu universel. L'intérêt de la table est qu'il n'y a pas de programme particulier à écrire pour passer d'un groupe de caractères à l'autre puisqu'ils appartiennent tous au même système. Il suffit de connaître et intégrer les positions de code pour faire le lien entre les applications ou les différents niveaux d' « apparition » du caractère – un lien avec une table de police, par exemple. La référence numérique du caractère spécifie la position de code de celui -ci. Si on veut intégrer un caractère à une application il faut donc disposer de cette valeur. On peut évidemment à l'inverse vouloir vérifier la correspondance d'une référence avec un caractère. Il existe plusieurs façons de chercher un caractère dans Unicode. Il est possible de se reporter directement au jeu universel présenté sous forme de sous-tables (plus de 120). Un ensemble de sous-tables correspond à un système d'écriture en général. Les différents ensembles sont appelés blocs. Nous donnons un exemple de cheminement suivi pour accéder à un caractère dans la figure qui suit (page suivante). La répartition formelle des codes selon la trentaine de systèmes d'écriture existant répond à une logique techno-linguistique. Il s'agit d'un rangement simple (succession de codes) qui n'a pas vraiment de répercussion sur l'utilisation mais peut faciliter les programmations. Une langue écrite est basée sur un système d'écriture, dont les éléments constitutifs (les caractères) sont codés. Aujourd'hui la plupart des écritures bénéficient d'une attribution de codes. Il subsiste quelques controverses (et c'est l'objet de ce numéro), pourtant, on peut convenir que l'évolution du codage des caractères lève une part des obstacles qui entravent le multilinguisme informatique. La classification des groupes de caractères suit souvent une logique géoinguistique en parallèle de la logique qui lie les caractères aux systèmes d'écriture. Nous l'avons souligné, le standard organise les tables de caractères dans cet esprit plus que la norme ne le fait. On peut en déduire que le travail de la standardisation tente davantage de suivre les réalités économiques et politiques afin de suivre au mieux les tendances du marché. Outre la nécessité d'organiser la diversité des caractères pour permettre leur utilisation cohérente, il faut admettre que de telles répartitions rendent compte de relations entre groupes linguistiques. Le sujet des langues ne peut ignorer cette composante essentielle de la communication interlinguistique. Il est normal qu'elle apparaisse dans l'élaboration des normes fondatrices de la numérisation des langues écrites (le SEM et le CJC en témoignent) et révèle le rapport entre les langues. Les écritures des pays industrialisés ont été les premières codées, les moins influentes (surtout celles non liées à la culture américaine) ont été incluses en dernier lieu. Le codage des caractères est un canevas qui rend compte des réalités économiques, politiques et culturelles, en somme de réalités concernant les rôles fonctionnels et sociaux des langues. Ce n'est que le premier maillon d'une chaîne de processus qui va des caractères aux règles d'écriture. Les sous-ensembles sont utiles et intéressants car la norme ne peut être appliquée immédiatement dans son ensemble. Les ressources matérielles et humaines pour y parvenir sont lourdes. Il faut du matériel disposant de mémoires suffisantes, il faut prévoir les coûts de licence, le temps de travail pour le développement, le temps d'apprentissage des méthodes parce que le rendu d'une écriture exige un minimum de programmation destinée à appliquer les règles d'écriture qui sont nombreuses et variées mais le sous-ensemble comporte un risque. Celui de retomber dans la profusion incohérente des jeux de caractères et le morcellement du codage des caractères graphiques. En ce qui concerne l'Europe on peut espérer toutefois une harmonisation des solutions techniques en passant par les SEM de l'ISO/CEI 10646. Or si la solution des sous-ensembles est intéressante il ne faut pas croire qu'ils feront taire ce qui a souvent ralenti les processus de cohésion en matière de codage des caractères, la difficulté de consensus sans doute parce que les problèmes linguistiques sont fortement liés à des politiques nationales. En République populaire de Chine par exemple, le standard GB 2312 appelé table Guobiao contient les caractères du CJC dans un ordre différent. Une table de correspondance résout facilement ce problème de compatibilité avec Unicode. En revanche, l'absence de nombreux caractères européens dans la table Guobiao conduit à une véritable incompatibilité. Il serait intéressant de suivre l'évolution des SEM. On peut espérer que la présence d'interlocuteurs de plusieurs nations pourra aboutir à une coopération efficace. La France pourrait tirer parti d'un tel assentiment mais aussi s'y intéresser plus sérieusement. Sur le plan économique il semble essentiel à l'échange de données informatisées. Mais la langue française n'a -t-elle pas d'autres réseaux à explorer ? Nous allons aborder la question dans la section qui suit. Notre sujet nous conduit à parler de la langue française écrite mais nous ne nous contenterons pas de l'aspect systémique de la langue écrite, c'est-à-dire des caractères graphiques et des règles d'utilisation de ces caractères. Nous considérerons la langue française écrite comme véhicule d'expression, facteur de communication. Dans le processus d'informatisation des langues, il est intéressant de comprendre où elle se situe. Dans cet article nous ne développerons pas le thème particulier de la défense de la langue française, nous essaierons simplement de comprendre, à l'aide de ses particularités ce que les liens qu'elle entretient avec d'autres langues peuvent engendrer comme conséquence et peut enseigner en terme d'appropriation de l'informatique multilingue. Pour procéder à cette analyse il convient d'exposer un état des lieux abordant l'histoire de la langue française, son informatisation et sa place dans Unicode et ISO/CEI 10646. L'histoire, des relations économiques, culturelles et politiques ont fait du français, une langue qui appartient selon différents critères à plusieurs groupes : celui des langues européennes, des langues d'origine latine, des pays industrialisés, de la francophonie, des langues de communication internationale… Il est rare qu'une langue occupe autant de champs. Certains regroupements comme celui de la francophonie et de l'Union latine 11 font état ou sont à l'origine d'une prise de conscience que la donne linguistique est essentielle. Puisque cette dernière est à la base de la communication, les TIC ne peuvent être conçues sans ancrage dans des réalités linguistiques parfois complexes. Si on considère chaque langue écrite isolément on ne dira pas certains aspects des phénomènes linguistiques. Sur ce plan, le cas du français présente l'intérêt d' être en relation avec beaucoup d'autres langues sur le territoire français mais aussi à l'extérieur. Il en résulte une expérience linguistique de la confrontation et du réseau, qu'est amenée à vivre dans le contexte particulier de la mondialisation des technologies de l'information, toute langue informatisée. Le cas de la langue française ne sera pas uniquement abordé ici sous l'éclairage de la francophonie mais nous y attacherons une attention particulière parce que tout en étant construit sur une logique linguistique et historique 12, le dynamisme de la francophonie s'articule sur plusieurs axes, « un espace politique défini par les relations étroites créées et maintenues entre un certain nombre de ces pays et par l'activité des institutions nationales et internationales qui en ont émané; un espace économique, dont l'activité est favorisée par le partage d'une même langue comme instrument de communication; un espace de coopération, surtout culturel et interculturel où la langue française tient le rôle à la fois de vecteur de valeurs culturelles universelles (droits de l'homme et des peuples…) et instrument de diffusion des identités particulières » [DAL 85 ]. Le monde francophone est un terrain favorable à l'étude de la diversité culturelle. La diversité linguistique en est un des aspects lié à tous les autres. L'ambition culturelle de la francophonie oblige ses acteurs à prendre le recul nécessaire pour entreprendre les projets qui mettent en œuvre la diffusion des savoirs, l'harmonie des relations interculturelles. L'histoire de la langue française montre qu'elle a su s'adapter aux différences culturelles dans un territoire pour devenir « la langue de la République » 13 qu'elle est aujourd'hui. Elle émerge de façon institutionnelle avec les Serments des fils de Louis le Pieux (842) dans un contexte de bilinguisme puisqu'elle côtoie la langue germanique. En 1539, l'ordonnance de Villers-Cotterêts édictée par François 1er donne un statut particulier au français [LONG 99] en l'imposant comme langue des actes judiciaires. Après la Révolution française, l'enseignement primaire obligatoire achève de l'établir comme langue maternelle pratiquée par la quasi-totalité des Français 14. Le français est né dans un contexte plurilingue, de la transformation radicale du latin. Sa base lexicale est gréco-latine et compte quelques emprunts à des langues celtiques. Cette particularité fait de lui une langue riche et vivante et persiste aujourd'hui puisqu'il a connu des événements historiques conduisant à différentes situations sociolinguistiques, selon les pays où il peut être : langue maternelle de la majorité ou d'une minorité importante de la population et officielle; langue officielle unique en présence d'autres langues maternelles; langue officielle conjointe; langue « favorisée » sans statut officiel 15. Le nombre de locuteurs du français s'élève à 130 millions environ si on ne compte pas les personnes maîtrisant la langue dans un pays où elle n'est ni langue officielle, ni langue maternelle, ni langue d'enseignement 16. Il est parlé dans 47 pays, sur cinq continents différents et il est la langue officielle de 33 pays et de presque tous les organismes internationaux. Ces différentes caractéristiques induisent une constante évolution du français. Le phénomène existe aussi en France où la langue est l'objet de changements de générations en générations parce qu'elle cohabite avec d'autres langues parlées (langues régionales, langues locales des anciennes colonies et langues d'origine de populations immigrées) et parce qu'il existe des variantes du français parlé selon les aires géographiques et les divisions sociales. Sa position de langue seconde, langue technique dans certains pays, donne à la langue française un rôle d'outil de travail et d'atout pédagogique dans des situations socio-économiques parfois difficiles. Mais plus encore, à des niveaux de pratique différents, la langue française suscite un attachement culturel qui a su faire naître l'idée d'une francophonie multilingue et multiculturelle. Fort d'une expérience presque traditionnelle du plurilinguisme, le français saura -t-il s'adapter au multilinguisme 17 informatique ? L'écriture électronique du français ne pose pas de problème en France, pourtant l'échange international de données textuelles numérisées sur les réseaux et entre plates-formes n'est pas toujours satisfaisant. Lorsqu'on envoie un message électronique, il arrive encore souvent que les accents, trémas, cédilles et « œ » ne soient pas restitués. Pourtant, les solutions existent et sont abordables. Écrire en français à l'aide d'un traitement de texte n'est pas le seul problème posé, mais il est élémentaire pour proposer des solutions en vue du traitement automatique de la langue orale et écrite manuscrite ou numérisée. La numérisation de la langue écrite est un chaînon essentiel de nombreuses technologies : la reconnaissance vocale, la synthèse vocale, la traduction automatique, l'aide à la rédaction et à l'apprentissage des langues, l'aide à la recherche d'information sur internet 18. Pour respecter le système d'écriture français, il faut disposer de plus de 130 caractères graphiques : les 26 lettres de l'alphabet en majuscules et en minuscules (52 caractères), les signes de ponctuation et symboles (une quarantaine de caractères), les 10 chiffres, les lettres accentuées majuscules et minuscules (14 caractères), et les digrammes collés. Aujourd'hui, le matériel informatique répond à ces exigences car il assure l'accès à un répertoire (autre que l'ASCII, jeu de caractères latins non accentués) permettant d'écrire la plupart des langues utilisant l'alphabet latin. Il s'agit de l'alphabet latin n°1 ou ISO/CEI 8859-1 [ISO 99-2 ]. En général, les codages standards basés sur des jeux de caractères à 8 bits remplissent la même fonction. Il subsiste pourtant une lacune dans le répertoire international latin n°1 : il ne contient pas la ligature « œ » 19. La plupart du temps ce défaut est corrigé par un programme du traitement de texte qui reconstitue la ligature (pour être plus précis, qui remplace les deux caractères par un seul) en fonction de la présence du « oe » dans un mot. Remarquez que dans Word par exemple, les deux lettres écrites séparément ne sont pas liées. En somme, elles ne le sont que dans un mot « reconnu ». La solution est simple et logique puisqu'un « o » suivi d'un « e » n'est pas a priori lié à lui si on considère toutes les langues écrites. Cette solution est utilisable parce que le français ne possède pas d'ambiguïté sur ce plan et elle a l'avantage de permettre d'écrire sur une même page des mots dans une autre langue écrite où les lettres « o » et « e » ne seraient pas systématiquement liées. Cet exemple donne un aperçu de la difficulté que peut représenter la confrontation des langues au cas où deux événements pourraient s'exclure dans deux langues écrites différentes. L'intégration des règles d'écriture sous forme de programmes est une nécessité logique. Pour ce qui est de la forme des caractères, rappelons qu'il n'existe pas de norme de codage de format de glyphes, mais plutôt des standards privés tels que True Type, OpenType, etc. Les difficultés se situent au niveau des échanges de données lorsqu'on utilise les polices correspondantes. Lors de la construction d'un site diffusé sur internet, il faut s'assurer que la police utilisée pourra être lue et imprimée par le plus grand nombre de visiteurs. Cela signifie que l'on ne peut pas employer une police trop originale. L'utilisation des imprimantes est un autre problème qui soumet le rendu des accents et des caractères particuliers à la diversité des codes sur lesquels fonctionnent les machines. L'utilisation de standards comme PDF et l'envoi de polices avec le document sur internet sont des solutions à ces problèmes. La limite de jeux tels que l'ISO 8859-1 apparaît clairement dans un contexte multilingue. La présence simultanée du français et du vietnamien écrit en quôc-ngu, par exemple, n'est pas supportée par l'alphabet latin n°1 alors que ces deux écritures utilisent les lettres latines. En fait la norme 8859 se décline en une quinzaine de versions chacune capable de dispenser les caractères nécessaires à l'écriture de plusieurs langues selon des rapprochements linguistiques ou géographiques, voire politiques comme cela a été le cas pour l'alphabet latin n°5 réclamé par la Turquie se sentant proche économiquement de l'Europe occidentale. Le tableau suivant illustre la capacité de codage des différents alphabets latins en fonction des langues. Les caractères nécessaires à l'écriture de la langue française sont intégralement présents dans la table de l'alphabet latin n°9. Les alphabets indiqués entre parenthèses ne couvrent que partiellement cette langue écrite. Si on utilise un logiciel de messagerie où l'alphabet latin n°1 est table unique de codes de caractères, l'usage de la langue française et de la langue polonaise (par exemple) simultanément peut poser problème. Il faut faire appel à l'alphabet latin n°2 pour disposer de tous les caractères polonais. Or, il faut des techniques informatiques particulières d'extension ou d'échappement parfois compliquées lorsqu'il s'agit d'envoyer dans un même message un texte codé avec deux codages différents. L'écueil est encore plus grand dans un contexte où on utilise des systèmes d'écriture très différents. Le traitement des problèmes liés à des nuances à l'intérieur d'un alphabet, n'est pas équivalent au traitement des problèmes posés par deux alphabets différents. Entre deux écritures alphabétiques, il peut exister des logiques de fonctionnement complètement opposées comme il en existe entre un alphabet et un système idéographique ou syllabique. Les difficultés en matière d'ingénierie linguistique et typographique multilingues émanent principalement de ces divergences. Les situations de bilinguisme dans lesquels la langue française peut se trouver mettent en évidence un certain nombre d'obstacles. Il suffit d'imaginer quelques exemples simples mettant en présence le français et une autre langue de France ou une langue alliée à la francophonie ou encore une langue européenne : le français et le polonais écrits utilisent tous deux l'alphabet latin mais certains caractères ne sont pas communs aux deux écritures, comme le « ć » polonais correspondant à la prononciation de « ts » en français; le français et l'arabe écrits sont basés sur deux alphabets distincts mais là n'est pas le problème qui réside davantage dans des particularités scripturales tels le sens de l'écriture, la nécessité d'une analyse contextuelle pour rendre la forme d'un caractère en arabe, la présence de ligatures en arabe également; le français et le chinois écrits semblent incomparables car l'écriture idéographique se caractérise par une profusion de caractères qui rendent la saisie problématique; la présence du français et de certaines langues africaines ne devrait pas être une situation exceptionnelle étant donné que dans beaucoup de pays africains, la langue française est langue seconde mais les codes de caractères ne sont pas encore réellement disponibles dans les normes et standards ainsi que les méthodes d'entrée de ces caractères qui de ce fait s'échangent difficilement. Couverture des langues par les alphabets latins normalisés (ISO/CEI 8859 : 1999 Technologie de l'information – Jeux de caractères graphiques codés sur un seul octet – latin-1 à latin-9.) Langue Couverte(s) par l'alphabet latin no Albanais 1, 2, 5, 8, 9 Allemand 1,2,3,4,5,6,8,9 Anglais 1,2,3,4,5,6,7,8,9 Basque 1,5,8,9 Breton 1,5,8,9 Catalan 1,5,8,9 Cornique 1,5,8 Croate 2 Danois 1,4,5,6,8,9 Espagnol 1,5,8,9 Espéranto 3 Estonien 4,6,7,9 Féroïen 1,6,9 Finnois (1),4,(5),6,7,(8),9 Français (1),(3),(5),(8),9 Frison 1,5,9 Gaélique de l' île de Man 1,5,8 Gaélique écossais 1,5,8,9 Gaélique irlandais (ancienne orthographe) 8 Gaélique irlandais (nouvelle orthographe) 1,5,6,8,9 Galicien 1,5,8,9 Gallois 8 Langue Couverte(s) par l'alphabet latin no Groenlandais 1,4,5,8,9 Hongrois 2 Islandais 1,6,9 Italien 1,3,5,8,9 Lapon (same) 4,6 Latin 1,2,3,4,5,6,7,8,9 Letton 4,7 Lithuanien 4,6,7 Luxembourgeois 1,5,8,9 Maltais 3 Néerlandais 1,5,9 Norvégien 1,4,5,6,7,8,9 Polonais 2 Portugais 1,3,5,8,9 Romanche 1,5,8,9 Roumain (2) Slovaque 2 Slovène 2,4,6 Sorbe 2 Suédois 1,4,5,6,8,9 Tchèque 2 La confrontation du français et d'autres langues écrites montre concrètement à quel point les problèmes sont multiples et variés. En nous livrant à cet exercice nous avons décomposé pour partie l'enchevêtrement des composantes du multilinguisme informatique. Les technologies sont opérationnelles en ce qui concerne l'informatisation du français même s'il subsiste quelques lacunes. En revanche, au contact d'autres écritures, les déficiences apparaissent. L'informatisation d'une langue isolée est essentielle pour la langue elle -même mais aussi pour les autres langues. Dans le contexte de mondialisation une écriture qui n'est pas numérisée peut faire naître une situation de manque au niveau de certains échanges conduisant à leur inefficacité. La complexité de l'informatisation réside principalement dans le fait que l'écriture d'une langue ne fait pas seulement intervenir des caractères graphiques mais un ensemble de phénomènes qui ne sont pas uniquement techniques. Les études en ingénierie linguistique font d'ailleurs la synthèse des aspects techniques certes mais aussi financiers et sociaux. Le multilinguisme coûte cher et il ne peut se réaliser sans le respect de règles linguistiques, donc fonctionnelles mais aussi culturelles. Différentes expertises et expériences concourent au rendu des langues écrites : la typographie, la linguistique descriptive, les conventions de présentation (date, heure, ordre alphabétique …), les conventions d'usage, les règles de traitement (césure des mots…), la terminologie 20. La communauté électronique francophone existe et est très active également en ce qui concerne la défense du graphisme, de la syntaxe et du bon usage du français 21. Cette stratégie techno-linguistique est un avantage pour les langues partenaires du français comme pour le français lui -même qui est l'une des langues de communication les plus importantes. Et plus encore l'une des rares à justifier seule l'existence d'un groupe qui n'a pas d'ancrage géographique précis et qui génère une certaine expérience de la diversité culturelle. Or le processus d'informatisation des écritures qui suit des dynamiques économiques et une représentation géolinguistique du monde aurait beaucoup à gagner en s'inscrivant dans une logique multiculturelle qu'entretient déjà depuis de nombreuses années, la francophonie. Il semble essentiel de dépasser certaines catégorisations ou d'en créer d'autres si on veut brasser les langues sur les réseaux. Les outils technologiques imposent encore des compromis. Mais l'avènement d'Unicode, du JUC et de polices correspondantes devrait résoudre bien des problèmes. Le nombre de produits qui s'y conforment sur le marché ne cesse de croître, ce qui est de bon augure. De plus, l'alphabet latin n°1 trouve sa correspondance dans le codage sur 2 octets. Le passage d'un système à l'autre n'en sera que plus aisé d'autant plus que le format UTF-8 assure le relais. Grâce à Unicode, le traitement automatique du français et de ses langues partenaires ne subira plus de manque. Mais il faut se rendre à l'évidence, on ne peut utiliser Unicode entièrement d'emblée. Cela demande un travail long et coûteux qui n'est pris actuellement que par morceaux et selon la demande. L'appropriation d'Unicode n'est pas organisée. On peut souligner la tentative que représente la norme expérimentale SEM formalisant des sous-répertoires européens. Sans demander que soit conçu un « Unicode francophone », il serait opportun d'envisager un sous-répertoire pour les usagers francophones qui souhaiteraient notamment traiter des informations textuelles bilingues. À partir de l'analyse des problèmes rencontrés, une harmonisation pourrait naître par la mise en commun d'expériences possibles et réalisables et envisageables avec Unicode car les cadres sont posés par une sorte de tradition francophone. Quelle est la réalité de ces usages aujourd'hui ? L'appropriation est un terme que l'on retrouve dans le domaine juridique (en ce qui concerne la propriété), dans des questions socioculturelles (touchant les acquis sociaux, parmi eux l'écriture), dans le domaine de l'art… D'une façon générale le terme correspond à l'action de faire sien quelque chose. Cette notion est une question essentielle des recherches en information scientifique et technique. Dans le domaine de la science de l'information on s'interroge beaucoup sur la façon dont les TIC entreront dans les usages professionnels et sociaux ou comment elles en créeront d'autres. Normalisation et standardisation proposent une technologie consensuelle de la maîtrise de la numérisation de l'écrit. Elles ont choisi dans ce domaine de prendre en considération les intérêts du plus grand nombre. En s'annonçant dès leur titre, comme universels, Unicode et ISO/CEI 10646 s'engagent, a priori, à n'exclure aucune écriture du codage numérique. En revanche, la question du chemin que chaque individu doit parcourir pour écrire dans la langue de son choix reste entière. Les concepteurs de la norme et les destinataires de l'objet de cette norme sont deux groupes qu'il faut distinguer. Il est difficile de le faire actuellement parce que, nous l'avons observé dans la dynamique du fonctionnement de la standardisation organisée par le consortium Unicode, les solutions techniques apportées par les informaticiens sont pratiquement élaborées simultanément à la demande émanant souvent de personnes proches des secteurs informatiques. Mais qu'en est-il de la réalité des usages ? Il semble nécessaire à l'heure de la mise en application de ces codes d'engager des réflexions théoriques afin de conceptualiser au mieux les systèmes d'information multilingues et d'imaginer quels impacts ils auront sur les sociétés. La veille dans ce domaine ne doit pas seulement être technologique mais scientifique. Dans le paragraphe suivant, nous proposons une brève synthèse des réflexions issues de la mise en place d'un observatoire des usages français et francophones de la norme ISO/CEI 10646 et du standard Unicode sous la forme d'un séminaire de recherche 22 intitulé « Unicode et après ? ! ». Nous mettrons ensuite l'accent sur des exemples d'usages satisfaits ou non satisfaits dans des domaines d'activité importants pour la langue française : l'enseignement, la recherche, l'industrie, la gestion du patrimoine, les bibliothèques. Nous terminerons par une analyse de la situation du français dans l'internet. Il est clair que nul ne peut à la fois connaître toutes les écritures du monde (anciennes et modernes), connaître les codes musicaux, chorégraphiques, mathématiques et comprendre de surcroît les conséquences techniques et informatiques du passage de 1 à 4 octets. Le travail collaboratif autour d'un document normatif abordant tous ces sujets est primordial. Pendant plusieurs années consécutives se sont rencontrés aux réunions du séminaire, non seulement des chercheurs spécialisés dans les domaines déjà cités, mais aussi des informaticiens, des enseignants, des professionnels usagers de l'informatique multilingue, des étudiants, etc. Nous nous sommes inscrits dans une démarche de veille scientifique permettant d'observer dans le détail et dans son ensemble, l'activité de codification des écritures. Au départ de cette veille, nous nous sommes fixés l'objectif de mobiliser un nombre important d'acteurs dans le but de constituer un réseau où collecter des recherche, l'industrie, la gestion du patrimoine, les bibliothèques. Nous terminerons par une analyse de la situation du français dans l'internet. On peut être rassuré de constater que le codage au fondement de la numérisation des écritures a fait l'objet d'un accord mais on ferait une erreur en croyant que ce domaine échappe totalement aux différends qu'il a toujours suscités. La norme ISO/CEI 10646 existe aujourd'hui avec la possibilité de fonctionner sur plusieurs octets, pourtant sa mise en application prend du temps à cause de divergences. Le consortium Unicode a investi énormément d'argent et de temps dans la fabrication du standard. Il peut difficilement accepter de prendre le risque d' être à présent dépassé et prévoit déjà de faire fonctionner le codage sur 4 octets en le transformant en un système fonctionnant sur 2 octets. Chez les producteurs de logiciels libres, on rencontre aussi une forte tendance à préconiser l'adaptation multilingue, puisque l'essence même de ces produits est d' être utilisables par le plus grand nombre, à court et à long terme. Un logiciel de traitement de texte aux multiples fonctionnalités comme Emacs prend en charge le codage Unicode-utf8. Les stations de travail Linux sont également élaborées dans ce sens. Les efforts d'aménagements de l'informatique comme outil pédagogique ne doivent pas ignorer les possibilités d'écrire dans plusieurs langues, dans des pays comme la France et beaucoup de pays de la francophonie où le plurilinguisme est une réalité. Les bibliothèques, les centres de recherche archéologique et ethnologique, les musées sont aussi concernés. Dans la francophonie, le bilinguisme est un atout à ne pas négliger pour l'éducation et la formation. Les supports informatiques et le codage qui les accompagne sont les nouveaux supports de l'écriture. Ils apportent des changements et imposent des choix dans les manières d'écrire et d'éditer les textes qu'il faut comprendre et gérer d'une façon universelle. Préserver la diversité linguistique dans les modes de communication actuels, c'est avoir l'ambition de préserver la diversité culturelle. L'étape historique d'une informatique unilingue est dépassée. Promouvoir l'informatisation des langues évitera la mort de certaines d'entre elles. Unicode et la norme ISO/CEI 10646 sont les outils de cette informatisation. Mais leur existence seule ne suffira pas à réaliser le codage universel des écritures. Une langue écrite ne peut se résumer à une table de caractères aussi complète soit-elle. L'usage que l'on fera et que l'on fait de ces standard et norme doit faire l'objet d'accords nationaux et internationaux dans des champs disciplinaires différents en matière de méthodes de saisie, de définitions de fontes, conception de traitements de texte multilingues. Une prise de conscience au niveau des États et des grandes institutions sera nécessaire pour contrebalancer les prises de position du consortium Unicode. Le multilinguisme informatique représente un intérêt économique certain qui n'a pas laissé indifférent les grands concepteurs de matériel informatique, systèmes d'exploitation et de logiciels. Plutôt que de laisser progresser une incohérence entre tables de caractères et systèmes de codage conduisant à des incompatibilités gênantes, ils se sont regroupés. L'appartenance à ce groupe permet d'assurer une veille sur ce qui se fait dans le domaine de l'informatisation des écritures. En fait, le consortium Unicode constitue un groupe de pression fort puisqu'il est à la base de la conception du standard et qu'il fabrique les produits qui le supportent. À quoi servent les applications élaborées par les linguistes et les informaticiens pour rechercher de l'information si cela ne concerne que quelques langues ? Faut-il se priver de ces applications dans l'étude de corpus en langues anciennes et langues minoritaires ? Des mesures d'ordre technique dans les pays du Nord ont permis, suivant des progressions différentes de se doter des moyens d'accéder à l'information. Le problème est que ce moyen a été construit à partir d'une seule langue. L'anglais étant une langue d'échange économique et scientifique internationale, il a fallu un certain temps pour que l'on pose le problème de l'informatique multilingue. Grâce à Unicode, on peut espérer que le traitement automatique du français et des langues partenaires ne subira plus de manque. On peut imaginer l'existence simultanée de plusieurs versions linguistiques d'un même texte scientifique numérisé. Ces versions auront la même crédibilité. Les informations scientifiques seront accessibles et brassées par un plus grand nombre de personnes. La communauté scientifique gagnera beaucoup dans ce type d'échange puisque la confrontation des théories et des pratiques est un élément essentiel pour ses avancées. Parmi les langues partenaires de langue française, il nous a semblé essentiel de poser des pistes de réflexion sur les langues africaines dans la mesure où le thème est peu abordé 23. Nous avons appris au séminaire que ce type d'absence en ce qui concerne la normalisation est préjudiciable. Même si les besoins en matière de numérisation ne sont pas clairement formalisés, ils existent. Nous les avons repérés au cours de nombreuses conversations avec des chercheurs, des étudiants, des chefs de projet informatique. Les aborder, dès à présent pourrait éviter une perte de temps à l'avenir quand certaines langues réclameront une présence sur les réseaux, par exemple. La présence d'une norme universelle de codage des caractères a au moins une incidence. Elle oblige les constructeurs à prévoir l'intégration de ces codes dans les nouveaux produits. En revanche, l'existence du standard Unicode doit faire comprendre que la numérisation des langues écrites n'est pas à l'abri des lois des marchés économiques. Le problème se pose parce que le consortium accompagne le standard de publications explicites sur l'utilisation du jeu de caractères. Sans poser des soupçons inconsidérés sur un travail dynamique et une expertise estimable, il est essentiel que des groupes de recherche exercent une veille sur le sujet afin que le préfixe uni de Unicode qui se rapporte à « universel », ne se rapporte pas, tout compte fait, à « uniforme ». Nous avons été frappés lors des séances du séminaire de la diversité des attentes relatives à la numérisation des écritures. L'élaboration des outils du multilinguisme est en cours. À ce stade, une analyse des besoins fine et approfondie tenant compte notamment de la complexité des liens entre différents utilisateurs autant que des particularités de chaque environnement devrait être l'objet d'une grande attention. Elle se situe en amont de l'adéquation aux exigences techniques. L'intégration des TIC dans l'enseignement (primaire, secondaire et supérieur) est relativement récente. On se préoccupe aujourd'hui de conceptualiser les outils et de préparer la formation des personnels enseignants. La gestion matérielle et la logistique dans les établissements scolaires et universitaires focalisent les actions. Mais l'émergence des TICE (technologies de l'information et de la communication dans l'enseignement) montre un soucis de gérer et développer les ressources numériques dont pourrait bénéficier les méthodes pédagogiques. Le caractère multilingue n'apparaît pas encore dans les systèmes informatisés sauf là où il est essentiel, dans les centres de recherche en linguistique, dans des centres de documentation qui gèrent des fonds écrits en plusieurs langues, par exemple. Durant l'année européenne des langues (2001) beaucoup de discussions ont tourné autour de l'apprentissage des langues et des instruments apportés par les TIC dans ce domaine. L'informatisation des langues est aussi prise en compte comme facteur d'échanges entre les pays européens mais il concerne d'abord chaque pays qui selon les moyens en ressources matérielles et humaines dont il dispose met en place des politiques d'informatisation de la ou des langue(s) en usage sur son territoire. La situation de la France est très particulière. Le plurilinguisme, nous l'avons déjà souligné, y revêt plusieurs aspects. Le résultat est que beaucoup de langues autres que le français sont enseignées dans les écoles et que l'on dispose d'un potentiel de compétences linguistiques conséquent. Mais ce potentiel ne peut être exploité sans des outils adéquats or aujourd'hui cette adéquation passe par l'informatique à plus ou moins long terme. Cependant, il n'existe pas de logiciel ou de systèmes d'information rendant possible la pratique des écritures numérisées du français, de l'arabe, de l'espagnol, du portugais, du polonais, du chinois, de langues africaines, du khmer (etc.) simultanément, sans opérations compliquées 24. Par conséquent les programmes scolaires ne peuvent tenir compte de ce type de demande. En plus de l'intérêt concernant l'apprentissage, l'intérêt pédagogique de programmes scolaires intégrant ce type d'usage de l'informatique est évident. Une connaissance minimale de ce qu'est le multilinguisme pourrait déboucher sur une meilleure considération de la diversité culturelle et linguistique dans des milieux où elle est perçue par les élèves comme une source de cloisonnements. La navigation sur internet est un mode d'accès à l'information largement plébiscité dans les écoles. D'ailleurs c'est souvent de cette façon que les TIC sont abordées. Les pages de l'internet écrites en langues étrangères (lorsqu'elles sont lisibles sur écrans « francophones ») offrent une expérience du multilinguisme qu'il est dommage de négliger car elle est accessible à partir du matériel déjà en place. L'implémentation d'Unicode est une solution envisageable. Hors de France, des programmes éducatifs et de formation utilisent les atouts de l'informatique multilingue pour le développement. La communication étant considérée comme un facteur de ce dernier, les langues le sont aussi. Les efforts de constitution de terminologies s'accompagnent de plus en plus du souci de les mettre à disposition en réseau. Citons pour exemple, les stages de formation proposés par le RIFAL 25 dans le secteur du traitement informatique des langues partenaire de la langue française préconisant l'usage d'Unicode. Une conversion à l'encodage Unicode est utilisée pour résoudre les problèmes de fontes notamment 26. L'Agence universitaire francophone participe activement au déploiement d'un espace scientifique francophone et se faisant encourage l'élaboration de contenus numérisés multilingues tout en tenant compte du manque de moyen dont peuvent souffrir certains chercheurs et universités francophones. Ainsi, les organismes gérant des ressources textuelles à fort caractère plurilingue sont impliqués dans la recherche de solutions informatiques multilingues. Mais seuls les plus importants parviennent à être en partie fonctionnels au niveau des échanges. La mise en œuvre de la consultation sur réseaux de textes numérisés dans des langues étrangères implique de disposer de moyens financiers importants. Il suffit d'un aperçu sur la situation des bibliothèques de recherche pour comprendre que l'application du jeu universel des caractères n'est pas aisée. Une bibliothèque conserve et met à disposition des documents. Elle permet l'accessibilité au fonds qu'elle organise suivant des modalités qui dépendent de son degré de spécialité, de ses missions, de sa dimension. Un bibliothécaire peut être confronté à la présence de données en langues écrites étrangères, pourtant il n'existe pas encore de solution harmonieuse pour les traiter et les proposer à la consultation. Or un chercheur peut souhaiter utiliser ses compétences linguistiques ou plus encore l'accessibilité à des textes écrits en caractères non latins peut constituer un précieux avantage pour ses travaux. Le problème se posera dans quelques temps avec acuité au cours du processus d'élaboration des bibliothèques numériques. Le catalogue informatisé de la bibliothèque inter-universitaire des langues orientales ne répond pas encore aux attentes des étudiants, des chercheurs et des gestionnaires du fonds auquel il doit donner accès. L'implémentation d'Unicode est admise comme une étape logique dans la conception du système mais il manque le progiciel adapté à cet environnement précis et capable de gérer les autres particularités des écritures. Il lui faudrait prendre en charge la résolution de problèmes posés par l'informatisation des écritures qui ne sont pas seulement liés au codage des caractères mais liés à la possibilité d'organiser les informations multilingues en fonction de conventions qui varient d'une culture à l'autre, d'une région à l'autre ou d'une spécialité à l'autre. L'informatisation des écritures est également basée sur l'implémentation d'Unicode dans le système d'information de la Bibliothèque nationale de France qui souhaite proposer sous peu dans ses catalogues des notices écrites à l'aide d'autres graphies que l'alphabet latin. La romanisation (transcription d'une langue grâce à l'alphabet latin) a servi de solution intermédiaire dans la réalisation de ces outils d'accès aux documents 27 qui ne sont pas encore disponibles en ligne. Là encore, un logiciel multilingue de rendu des écritures fait défaut. Le problème est qu'aucune société informatique ne souhaite s'impliquer dans un travail laborieux demandant beaucoup d'investissements alors qu'il serait peu rentable pour elle. La BNF a décidé d'effectuer elle -même cette tâche et espère être aidée en cela par les nouvelles performances de Windows et autres standards. Les fiches manuelles translittérées pourront être saisies avec des claviers adaptés. Suivront les possibilités de consultation en ligne et l'implantation de postes multilingues dans les salles de lecture. L'utilisation du format Unimarc avec une approche langue par langue devrait assurer des échanges harmonieux avec d'autres bibliothèques. Inutile de préciser que tout cela exigera beaucoup de temps. La prise de position des bibliothécaires en faveur d'Unicode est nette mais elle n'est qu'une amorce. Les écritures ne sont pas encore présentes dans les systèmes informatisés des bibliothèques de recherche ce qui pour certaines d'entre elles représente une lacune, voire un paradoxe. Il a fallu un délai assez long pour qu'Unicode soit reconnu. D'autres solutions universelles (donc objet de consensus) sont à prévoir parce que « fonctionner » sur Unicode n'est pas suffisant. L'appropriation de l'informatique multilingue comprend plusieurs facettes. Il nous reste à aborder un problème d'importance touchant la recherche, celui du manque de publications en français et pour être plus précis, dans d'autres langues que l'anglais qui n'ont ainsi que peu de visibilité. 71 % des publications et 56 % des communications des chercheurs francophones sont en anglais [MOR 99 ]. L'existence du document numérique offre de nouvelles possibilités en proposant d'autres voies de publication à des coûts moindres. Un chercheur ne peut manquer de se référer au travail d'autres chercheurs. La messagerie électronique, les banques de données numériques, les sites internet sont des outils d'investigations performants. Peut-on accepter que les échanges, le traitement et le stockage des données ne soient possibles qu'en une seule langue ou même deux ou trois ? Ce n'est pas le manque de qualité de ces productions qui est à mettre en cause mais l'obligation pour un chercheur francophone d'utiliser l'anglais plutôt que sa ou ses langues maternelles s'il veut apparaître au niveau international. L'informatique multilingue pourrait freiner cette tendance en offrant à des chercheurs non anglophones la possibilité de proposer leurs textes dans leur langue. L'élaboration d'un jeu de caractères francophone sélectionné dans le répertoire Unicode pourrait ouvrir des voies efficaces à la mise en pratique de l'informatique multilingue. Les difficultés de mise en œuvre du multilinguisme sont liées à l'incapacité d'implémenter la norme entièrement tant les besoins en numérisation des écritures sont dépendants du contexte d'origine et sont liés à des aspects particuliers d'un secteur donné. Un sous-ensemble francophone aurait l'avantage au regard de la diversité linguistique et culturelle en réseau qui caractérise la francophonie d'offrir un champ d'expérimentation de l'implémentation de la norme de dimension « raisonnable ». La situation en France et dans la francophonie ne correspond pas à une inertie. Mais le multilinguisme est pour le moment encore l'affaire de milieux spécialisés. Ceci apparaît clairement dans l'enseignement et la recherche dont on peut craindre qu'ils ne s'appauvrissent si on tarde à proposer réellement l'ouverture que promet la mondialisation des échanges. Une telle ouverture passe par le multilinguisme et devrait éviter que la diffusion des savoirs ne soient monopolisée par un petit nombre de langues. À partir de l'analyse de ces problèmes (nous n'en avons abordé qu'une faible part) nous pouvons conclure qu'une harmonisation est envisageable à une petite échelle par la mise en commun d'expériences francophones possibles et réalisables car les cadres sont posés. Entre autres choses, la présence du français sur les sites internet est de plus en plus marquée. Les protocoles prévus pour véhiculer l'information textuelle (protocole http utilisant le standard DNS) et les messages (protocole SMTP), au départ, n'acceptaient que les 7 bits du répertoire ASCII. L'utilisation exclusive de l'anglais aux débuts de l'internet n'a pas encouragé le changement. Aujourd'hui, avec le standard MIME, on peut espérer que l'écriture électronique du français ne posera plus aucun problème. En effet, MIME, opère un étiquetage des informations textuelles qui peuvent être codées dans d'autres jeux que l'ASCII (Unicode par exemple) en plus de la transmission du courrier multimédia. La langue française est la deuxième langue utilisée dans l'espace WWW. Les méthodes de comptage donnent des résultats statistiques approximatifs mais offrent une idée de la présence relative d'une langue d'autant plus indicative qu'elle est pondérée par le nombre de locuteurs de cette langue dans le monde. Les sites écrits en français (langue maternelle, langue de travail ou langue étrangère) n'émanent pas du seul territoire français mais de diverses régions du monde. De plus, il existe des moteurs de recherche en langue française, des annuaires, des sites destinés à la francophonie. La toile francophone est un foyer de développement fondamental de l'information multilingue car il est un moyen de diffusion relativement plus appropriable que l'édition sur support papier. Il ne doit pas faire oublier cependant que beaucoup de systèmes d'information de diverses institutions (publiques et privées) gagneraient à prévoir la gestion de données multilingues : l'enseignement et la recherche, nous l'avons vu, les administrations, le commerce et l'industrie, la gestion du patrimoine… Un travail laborieux de conceptualisation en amont, en fonction des besoins des usagers, est nécessaire. Il devrait s'appuyer sur un réseau d'expertises capable de faire la jonction entre l'informatique et différents métiers en étudiant avec soin la pluralité des tâches à entreprendre. La normalisation de l'informatisation de la langue écrite française est un bon terrain d'étude des enjeux de la normalisation de la numérisation des écritures du monde. Les solutions techniques existent et rendent possibles la présence nécessaire d'une diversité de langues dans les TIC, outils de travail, d'apprentissage et d'accès au savoir. La façon dont les tables de caractères sont organisées révèle que l'analyse est d'abord techno-linguistique. Elle met en relation les caractères avec les systèmes d'écriture. Elle est aussi géolinguistique : les caractères se rapportent à des groupes de langues écrites d'une région globalement – écritures du Moyen-Orient, du Sud et Sud-Est asiatique, par exemple. La dernière approche des tables dépasse les usages purement linguistiques. Des groupes ont imaginé une façon d'utiliser le jeu universel des caractères qui leur est propre. Les jeux partiels européens en constituent un exemple normalisé mais on peut imaginer que des usagers particuliers tentent ou ont tenté la même expérience. La langue française au cours de son histoire a côtoyé une multitude de langues auxquelles elle a réussi à s'allier et avec lesquelles elle entretient des liens de diverses natures. Elle les rassemble aujourd'hui autour d'actions concrètes en faveur de la diversité culturelle, d'échanges économiques et politiques entre les pays du Nord et du Sud, de l'enseignement, etc. Elle a fait naître un attachement particulier chez des locuteurs qui au lieu d'y voir un point commun avec d'autres cultures, auraient pu la considérer comme langue de domination. Il est certes impossible de renier une langue maternelle ou une langue d'enseignement, cependant la langue française est plus qu'un repère historique ou identitaire dans le contexte de la francophonie. Par certains aspects (les aspects politiques plus que les autres) le sujet de la définition de la francophonie a été délicat pourtant la légitimité de son existence ne pose plus question. Ce groupe est un centre de convergence de points de vue, une expérience de la diversité culturelle dont on reconnaît généralement qu'elle est un patrimoine à préserver. Pour ce faire, il ne suffit pas de laisser vivre les cultures. Il faut explorer ce qu'est le multiculturel, le définir. La mondialisation des technologies de l'information nous confronte à la diversité culturelle comme jamais nous ne l'avons été. Elle prône l'universalité par une prise en considération d'un maximum d'exigences techniques assurant la communication. La normalisation des TIC est un miroir de cette démarche. Mais il faut savoir exactement ce que sont les cultures pour espérer que le partage de l'information aura vraiment lieu par ces nouveaux moyens. L'expérience francophone de la diversité est plus qu'une expérience puisqu'elle se donne les moyens de mettre en place des expertises. Nous avons cité dans cet article un grand nombre d'organismes, d'associations, de manifestations francophones… En suggérant une utilisation du jeu universel des caractères basée sur l'existence de la francophonie, nous ne nous appuyons pas sur le fait qu'il serait légitime qu'une telle association possède un jeu de caractère adapté à ses besoins. Notre approche est scientifique. Il n'existe pas d'observatoire des usages d'Unicode et ISO/CEI 10646 or il semblerait essentiel d'en mettre un en place. La francophonie formant déjà un réseau humain 28 bien constitué devrait offrir un cadre approprié pour réaliser le processus d'implémentation d'Unicode qui s'impose logiquement; une implémentation de « proche en proche », par sous-ensembles. La langue française connaît un nombre important de situation de bilinguisme. Son ingénierie est suffisamment développée pour participer à des réflexions sur l'informatisation des langues écrites. Notre proposition n'élude pas la question du droit de tout groupe à disposer de standard pour l'expression de sa langue d'ailleurs stipulée par les droits linguistiques 29. On peut penser que les pays de la francophonie ayant le plus de poids politique et économique à l'heure actuelle sauront jouer de leur influence pour que soit prévue l'informatisation de langues minoritaires ou dont les locuteurs ont peu de moyens. Sur ce point il est dommage de constater qu'il n'y a pas de présence française dans les réunions de normalisation européennes et internationales traitant du codage des caractères parce qu'il n'y a pas de commission de normalisation à l'AFNOR sur le sujet 30. C'est un problème de ressources humaines, il n'y a pas encore d'implication forte dans le domaine. Personne ne s'engage dans la création d'une telle commission. Or la langue française est une des langues officielles de la normalisation 31. D'ailleurs les usages en France et dans la francophonie témoignent d'une réelle difficulté. La lourdeur prévisible des investissements freine la mise en place de l'informatique multilingue. Il n'y a pas lieu d' être pessimiste mais il faudra encore fournir de nombreux efforts et surtout accompagner les recherches techniques touchant davantage aujourd'hui les programmations de logiciels de rendu des langues écrites que le codage des caractères, d'un travail d'analyse scientifique des besoins. Depuis cinq ans, la prise de conscience a évolué positivement. On prévoit en général l'usage d'Unicode dans les systèmes d'information des établissements où la demande vis à vis du multilinguisme est forte. Ailleurs elle n'est pas une priorité. Pourtant le multilinguisme informatique ne peut pas se faire sans concertation large. Les spécialistes de même domaine doivent être assurés de la cohérence de leurs actions, des passerelles doivent exister entre différents univers, les usages des particuliers être respectés. Dans le prolongement d'Unicode et de l'ISO/CEI 10646, les solutions proposées ne peuvent que conserver un caractère universel qui ne le sera que s'il y a des allers-retours fréquents entre conception théorique et conception technique. Or il faut prévoir l'adaptation de ces solutions à un environnement donné. L'appropriation de la numérisation des écritures ne pourra se faire que si les besoins sont clairement formalisés. Ce n'est pas le rôle des informaticiens et les usagers ont des attentes qu'ils ne peuvent pas toujours formaliser seuls au regard de la technique qui leur est proposée. Il faudrait entre les usagers et les informaticiens un intermédiaire qui établisse la cohésion. Le réseau francophone regorge d'expertises qui pourraient être mises à profit dans une telle dynamique. Il ne s'agit pas de dire qu'il faut un « Unicode francophone », ce serait avouer que le JUC est un leurre. Or, il est trop tôt pour le dire. Il s'agit de proposer une option à l'encontre du morcellement de l'utilisation d'Unicode qui ne suit pas la logique avec laquelle il est construit, puisque son application d'emblée coûte trop cher. La portabilité et l'interopérabilité entre systèmes ne seront pas assurés si chacun en fait un usage limité. Étant donné qu'Unicode est sensé être universel, on peut croire qu'il suffit d' « écrire en Unicode » et de prévoir des conversions. Or la conversion est un code ajouté dont les autres n'auront pas forcément la clé. Un jeu de caractère international répertoriant les caractères nécessaires à l'écriture des langues partenaires de la langue française et de cette dernière pourrait encourager quelques réalisations multilingues. Les codes attribués seraient ceux d'Unicode. La normalisation a un rôle important à jouer car elle propose des codes complémentaires à ceux -ci, des codes de noms de langues, d'écritures, des normes sur l'internationalisation. On peut voir aussi dans les normes donnant un langage de structuration des documents (XML, TEI…) une possibilité d'ouvrir tous ces codes les uns sur les autres pour accéder à des informations significatives sur un document numérique. Ce type de langage peut être utilisé pour le rendu des écritures. La place de la normalisation, dans ce que l'on peut considérer comme une nouvelle organisation des savoirs, pose question. La normalisation s'assure de la disponibilité des solutions techniques. Son rôle n'est pas de répondre aux questions culturelles. Cependant en élaborant une norme universelle, elle a pris des responsabilités. La performance de réunir tous les caractères dans une même table doit s'accompagner de la possibilité pour un individu de puiser dans ce fonds commun ce dont il a besoin et de pouvoir le faire sien. La disponibilité des caractères de toutes les écritures a des répercussions qui ne se limitent pas à une performance technique. Elle intéresse une variété de secteurs qui parfois semblent très éloignés les uns des autres : les préoccupations culturelles et les intérêts des constructeurs, par exemple. Pourtant tout est lié. Avec des normes comme ISO 10646 on assiste à l'émergence de normes génériques dont les différents acteurs de la normalisation s'accordent à penser qu'elles sont nécessaires au bon déroulement des échanges mondiaux de données. Cela signifie que le concept de normalisation a changé. L'influence des TIC est indéniable. On peut penser qu' à travers la normalisation du codage des caractères, l'universalité des TIC est visée. De plus, la possibilité de développer l'internormativité [BAS 01] grâce aux échanges facilités entre groupes de travail normatif internationaux, n'est pas étrangère au phénomène. Des comparaisons de démarches normatives, leur recoupement sont plus aisés. Ne pas s'impliquer dans un sujet aussi crucial que la numérisation de l'écriture fait prendre le risque de ne pas participer aux définitions construisant les TIC dont l'universalité ne serait alors qu'une illusion. D'un point de vue culturel, l'accès aux savoirs nécessaires à la survie d'une société (alphabétisation, accès à l'information, aux échanges économiques) dans le contexte géopolitique actuel est un enjeu primordial. Le processus de mondialisation est le fruit de transactions financières et commerciales de plus en plus nombreuses durant ces dernières décennies. Les TIC ont contribué au phénomène en favorisant des échanges planétaires économiques et politiques. On a du mal à imaginer que l'accès à l'information pourrait être limité. Il y aurait même une contradiction dangereuse à faire vivre des systèmes d'information aux ressources apparemment illimitées, fenêtres ouvertes sur un monde déconnecté de la réalité, ignorant complètement une partie de l'humanité .
La langue française a toujours évolué dans des environnements plurilingues, en France et dans le monde. Être en contact avec d'autres langues n'est pas une situation linguistique exceptionnelle mais le français permet à un large ensemble de personnes de procéder à des échanges culturels, économiques et politiques internationaux. De ce fait le français est une langue de réseau. Le standard Unicode et la norme ISO/CEI 10646 sont le fruit d'un consensus sur le codage des caractères graphiques mais leur mise en application est coûteuse et complexe. En général, seul un sous-ensemble est implémenté sur un ordinateur selon les besoins des utilisateurs. Les écritures dont les usagers ont les moyens de développer la numérisation, sont les plus présentes dans les TIC. Il pourrait être profitable d'utiliser l'expérience de la langue française en matière d'échanges multilingues pour élaborer un sous-répertoire d'Unicode qui ne serait pas simplement lié à une situation géolinguistique ou économique mais à une communauté multiculturelle. L'étude du cas particulier des usages d'Unicode en France et dans la francophonie permet de saisir à quel point l'approche culturelle est essentielle à l'appropriation d'Unicode, donc au processus d'informatisation des écritures.
sciencesInfo_06-0253623_tei_DN_063_0255.tei.xml
termith-338-communication
Chaque secteur professionnel manipule et gère des dossiers, plus ou moins évolutifs, plus ou moins complexes et plus ou moins volumineux. Dans le secteur des bibliothèques, on gère des périodiques et des monographies qui ont un cycle de vie (acquisition, catalogage, prêt, etc.) et pour cela on utilise des « dossiers ». Mais plutôt que d'associer un dossier à chaque ouvrage, chaque étape du cycle de vie de ce dernier engendre la création ou la mise à jour d'un document dans un ou plusieurs dossiers (fichier de commande, livre d'inventaire, catalogue matière, catalogue auteur, etc.). Aujourd'hui, on s'imagine mal que pour trouver un livre, il faut se déplacer jusqu' à la bibliothèque, chercher les fichiers (physiques), ouvrir des tiroirs en acier et faire défiler des fiches cartonnées rédigées selon un format peu convivial et classées par ordre alphabétique. Pourtant, dans la période de transition qui caractérise actuellement la production et la diffusion de l'information scientifique et technique, tous les pays ne se trouvent pas au même niveau (Guinchat et al., 1989). Le passage du papier au numérique est un projet ambitieux dont la complexité est difficile à prévoir et à gérer. Dans cet article nous nous intéressons aux problèmes posés par la mise en œuvre pratique d'un tel projet dans le secteur des bibliothèques. Nous commençons par définir les catalogues bibliographiques, puis la problématique de leur mise en réseau. Nous abordons par la suite les modalités et les difficultés de leurs numérisation. Nous terminons enfin cet article par une étude de cas et une conclusion. Pour qu'il soit disponible pour les lecteurs, tout document doit être catalogué. Cataloguer un document consiste à créer et lui associer une notice bibliographique dans un catalogue. Il existe des formats normalisés de structuration et de représentation de ces notices. Un exemple de notice bibliographique du « Dictionnaire critique de la révolution française de F. Furet », telle qu'elle figure dans le catalogue de la Bibliothèque nationale de France (BNF, 2002) selon le format UNIMARC (BNF, 1994) est illustré par la figure 1. Si un tel format est très utile pour des catalogueurs professionnels, il est loin de l' être pour les lecteurs qui voudraient rechercher à un ouvrage et y accéder dans une bibliothèque. Pour cela, il existe un autre format plus restreint et plus lisible pour présenter une notice aux lecteurs, c'est le format ISBD (International Standard Bibliographic Description). La figure 2 illustre la même notice bibliographique que la figure 1 mais exprimée en format ISBD. Ces deux formats justifient la gestion et la maintenance de deux catalogues : le catalogue professionnel et le catalogue public (destiné aux lecteurs) Un catalogue se présente comme un ensemble de fiches classées par ordre alphabétique. Suivant le mode d'accès (titre, auteur, localisation…) on a besoin de catalogues différents. On distingue ainsi, du côté des lecteurs, le catalogue matière, le catalogue auteur, le catalogue géographique, etc., et du côté des professionnels le catalogue topographique (nécessaire à l'inventaire), le catalogue chronologique (classement par numéro d'entrée du document dans le fonds documentaire), etc. L'élément d'accès à la notice dans un fichier (ou catalogue) s'appelle la vedette ou l'autorité. On parle alors de vedette-matière, vedette-auteur, etc. Les données bibliographiques d'une notice se répartissent en : zones descriptives permettant d'accéder à la notice par le titre; zones d'accès normalisé permettant d'accéder à la notice le plus souvent par l'intermédiaire de la liste de vedettes ou des autorités et zones de liens permettant de lier une notice bibliographique à une autre notice bibliographique (pour faire référence à l'ouvrage en langue d'origine s'il s'agit d'une traduction par exemple). La création d'une notice se fait selon deux processus. Le premier est quasi automatique; il consiste à remplir les champs descriptifs de la notice tels qu'ils figurent sur le document à cataloguer (titre exact, auteur, maison d'édition, etc.). Le second consiste à décrire par un ensemble de mots, de quoi parle le document; c'est l'indexation. L'indexation d'un document est un processus intellectuel assez délicat qui dépend fortement du catalogueur. De la compétence de ce dernier et de sa maîtrise du sujet traité dépend la qualité de l'indexation et donc la facilité de retrouver le document par les utilisateurs suite à une recherche par thème ou par sujet. L'indexation consiste à associer des descripteurs au document. Ces descripteurs peuvent être des mot-clés librement définis par le catalogueur suite au seul examen du document à indexer, ou un ensemble de termes issus de la confrontation du document au notions déjà présentes dans un référentiel, c'est-à-dire un langage documentaire (liste de vedettes-matières, thésaurus ou classification) (Aitchison et al., 2002; Chan, 1994; Markey, 1986; Mortimer, 1999). On parle alors d'indexation libre et d'indexation contrôlée. La notice ainsi établie est appelée notice bibliographique. Pour gérer les exemplaires, on crée en général des notices d'exemplaires qu'on rattache à la même notice bibliographique. La notice d'exemplaire et sa notice bibliographique constituent une notice catalographique. Cette dernière contient des informations concernant le numéro d'exemplaire, le statut (prêtable, exclus du prêt, etc.), la situation (en reliure, en prêt, disponible, etc.), la cote qui indique l'emplacement physique de l'ouvrage sur les rayons, etc. En plus des notices bibliographiques, la bibliothèque gère des notices d'autorité. Les autorités définissent la forme qui fait autorité pour une entité (personne physique, collectivité, titre uniforme, mot-matière) et qui doit être utilisée comme vedette dans les notices bibliographiques. Pour donner un exemple, nous avons cherché comment s'écrit le nom de la personne la plus recherchée sur terre en ce moment, nous avons trouvé six formes différentes en écriture latine : Usama Bin Laden, Osama Bin Laden, Oussama Ben Laden, Osama Ben Laden, Osama Bin Ladin et Ussamah Bin Laden. Un accès au catalogue par auteur, doit refléter tous les ouvrages écrits (ou traduits) par un même auteur quelle que soit la transcription de son nom. Le fichier d'autorité définit pour cela la forme retenue et les formes rejetées. Comme les notices bibliographiques, les notices d'autorité ont aussi des formats normalisés. La figure 3 illustre la notice autorité-matière liée à la notice bibliographique de la figure 1; le symbole « < » désigne les termes exclus, « >><< » désigne les termes associés et « >> » désigne les termes spécifiques. La coopération et l'échange des données et des informations sont des concepts ancrés dans l'esprit et les pratiques des professionnels des bibliothèques. D'une part, parce que dans ce domaine on a toujours été conscient du fait qu'il est impossible de se procurer, par ses propres moyens, tous les documents dont on aurait besoin, et, d'autre part chaque ouvrage étant édité en centaines d'exemplaires, pour tout document qui arrive dans une bibliothèque, il y a de très fortes chances qu'un exemplaire ait déjà atterri dans une autre bibliothèque et qu'il y soit déjà catalogué. Pour éviter le travail en double du côté des professionnels et rendre de meilleurs services aux lecteurs ou chercheurs, les bibliothèques s'organisent généralement en réseaux d'information. Il s'agit de réseaux et de services de diffusion, d'échange ou de commercialisation de notices bibliographiques. Dans tout système de gestion de bibliothèques (même manuel) on retrouve donc la notion d'import et d'export de notices. Ceci engendre deux modes de catalogages : le catalogage originel et le catalogage dérivé. Dans le premier mode le catalogueur créé lui -même toute la notice bibliographique alors que dans le second mode il importe (ou copie) une notice existante (à partir d'un listing, d'un cédérom, d'une base de donnée ou d'un site web) et l'adapte localement. Ces réseaux nécessitent, au-delà des problèmes classiques de mise en œuvre d'une infrastructure connectique, l'établissement d'une organisation intellectuelle et matérielle basée sur le développement et le respect de standards et de normes pour chaque étape du cycle de vie d'un document. La normalisation touche notamment la structure et la forme des notices. La première traduction informatique des normes bibliographiques remonte aux années 1960 avec l'arrivée, aux Etats-Unis du format MARC (Machine Readable Cataloguing) (Piepenburg, 1999). Plusieurs autres formats en ont été dérivés depuis (CanMARC au Canada, USMARC aux Etats-Unis, INTERMARC en France, etc.) et on converge aujourd'hui vers un format universel qui est l'UNIMARC. Précisons que ces formats s'appliquent aux documents imprimés (livres et périodiques) et qu'une bibliothèque peut aussi gérer d'autres types de documents, tels que, les documents sonores, vidéos, multimédias, électroniques, images numérisées, cartes, partitions, etc. Pour décrire ces documents il faut créer d'autres catalogues qui font appel à d'autres standards basés sur le concept de métadata, dont Dublin Core (DublinCore, 2002; NIS, 2001) et RDF (Resource Description Format) (Brickley, 2000; Hjelm, 2001). Une autre norme toute aussi importante est l'ISO 239.50 mieux connue des professionnels sous le nom de Z39.50 (Michael, 1994NIS, 1996). Créée en 1989 et gérée par la bibliothèque du Congrès aux Etats-Unis, cette norme a pour objet de faciliter l'interconnexion entre des clients et des serveurs et ce indépendamment des différences entre leurs systèmes respectifs et des différences entre les bases de données auxquelles le serveur donne accès. La norme définit un ensemble d'attributs permettant d'organiser le lien entre le logiciel serveur Z39.50 et la base de données bibliographiques à laquelle il donne accès. En général, chaque système informatisé implémente une partie de ces attributs selon l'application qu'il met en place. Il définit ainsi un profil et une interface spécifique qui interprète une requête et sa réponse. La première adaptation nécessaire pour les notices importées concerne la langue de catalogage. Suivant que la langue de catalogage est le français, l'arabe, l'allemand ou l'anglais par exemple, une traduction des champs non descriptifs est nécessaire. Il est à signaler cependant que ceci nécessite d'autres niveaux de normalisation pour les systèmes de catalogages informatisés; il s'agit du codage des caractères et de la gestion de plusieurs alphabets ou scripts. A défaut de ces fonctionnalités, les bibliothécaires se trouvent obligés de noter les champs dans une notice par translittération et non par traduction. Une seconde adaptation, toute aussi importante, concerne l'indexation, c'est-à-dire les descripteurs du contenu sémantique du document. L'adaptation est d'abord culturelle (un livre concernant la Méditerranée, par exemple, ne pourra jamais être indexé de la même manière au Canada, en Italie et en Chine). Elle concerne ensuite le langage documentaire adopté; ainsi, des mots-clés issus d'une indexation libre par exemple doivent être transformés en descripteurs autorisés dans une indexation contrôlée; de même, lorsqu'on change de liste de vedette matières ou de thésaurus, les descripteurs autorisés et leur hiérarchie peuvent aussi changer. Enfin, l'adaptation doit aussi se faire au niveau de la précision de l'indexation; ainsi, on ne pourra pas indexer un livre par le descripteur « santé » dans la bibliothèque d'une faculté de médecine. Suivant que la bibliothèque est spécialisée ou pas il faudra parfois préciser une indexation trop encyclopédique ou généraliser une indexation trop spécifique. Lorsqu'il s'agit de créer une bibliothèque virtuelle par la mise en réseau de plusieurs bibliothèques, leurs catalogues respectifs sont fédérés en un seul : le catalogue collectif. Ce mode de travail suppose une plus grande rigueur quant aux règles de catalogage. Un même document peut être acquis par plusieurs bibliothèques du réseau, cependant, à tout document, quels que soient le nombre d'exemplaires disponibles et leurs localisations, doit correspondre une seule notice. Il faut alors définir des règles et des protocoles permettant de gérer les modes et la qualité du catalogage. Plusieurs scénarios sont possibles; en général il faut se mettre d'accord sur : la grille ou bordereau de saisie : définissant les champs considérés comme obligatoires dans une notice bibliographique; le nombre minimum et maximum de descripteurs pour chaque document; le langage documentaire à utiliser : l'indexation libre étant à exclure, lesmembres du réseau de bibliothèques adaptent un même outil documentaire (liste de vedettes-matières, thésaurus…). Dans certaines situations, les seuls descripteurs autorisés ne suffisent pas à faire une indexation précise et correcte, pour cela, une commission est en général chargée de mettre à jour et faire évoluer le langage documentaire sur propositions des différents catalogueurs; la qualité des notices : avant de créer une notice, le bibliothécaire consulte le catalogue collectif, si le document a déjà été catalogué, a -t-il le droit de modifier la notice existante ? En général, on adopte la règle de première initiative; c'est-à-dire que la première notice soumise par quelqu'un dans le catalogue collectif est implicitement validée par tous les catalogueurs, cela dit, des réunions périodiques (annuelles ou semestrielles) sont généralement programmées pour discuter de la qualité de certaines notices et, le cas échéant, de leur rectification; le niveau d'indexation : dans le cas où une bibliothèque spécialisée participe à un réseau de bibliothèques, il peut être nécessaire, voire même indispensable de gérer deux niveaux d'indexation; une indexation encyclopédique en respectant les règles générales du catalogue collectif et une indexation locale plus détaillée pour une recherche plus spécialisée par le public concerné. La numérisation des catalogues change l'art du possible dans le domaine des bibliothèques. En effet, elle permet la création de nouveaux services aussi bien pour les lecteurs que pour les professionnels. Cependant, le passage des catalogues papiers aux catalogues informatisés pose le problème de la rétroconversion des données. C'est cet aspect qui nous intéresse dans la présente section. Par « rétroconversion » nous entendons la transformation des catalogues papiers en dossiers numériques et leur intégration dans un seul dossier qui représente le catalogue collectif. Nous ne traitons ni de la transformation des notices bibliographiques ou d'autorités d'un codage informatique à un autre, ni des problèmes liés à la reconnaissance des images numérisées de notices tels que étudiés par Belaïd et al. (Belaïd, 1997; Belaïd, 1998a; Belaïd, 1998b; Chenevoy, 1996). La difficulté de la création du catalogue électronique dépend fortement de l'état de l'existant. Selon la taille de la bibliothèque, les moyens dont elle dispose et la compétence de son personnel, la qualité de ses catalogues peut varier aussi bien au niveau informationnel qu'au niveau des caractéristiques physiques du support. Plusieurs situations peuvent ainsi se présenter : une bibliothèque dispose normalement d'un catalogue pour l'accès au public (OPAC OPen Access catalogue) au format ISBD mais il arrive qu'elle ne gère pas de catalogues professionnels, au format MARC ou un de ses dérivés. Dans plusieurs cas, la génération du catalogue électronique doit alors se faire à partir de l'OPAC; suivant la politique de prêt, les documents peuvent être disposés dans la salle de lecture pour l'accès libre et/ou en magasin. Dans certaines petites bibliothèques (universitaires notamment), il n'existe même pas d'OPAC au vrai sens du terme. Certains bibliothécaires gèrent des fichiers Excel et éditent des catalogues papiers sous forme de listings qu'ils mettent à la disposition de leurs lecteurs. Parfois, tous les documents sont en libre accès et aucune forme d'OPAC n'est disponible. Chaque exemplaire contient alors une fiche (en général manuscrite) qui permet de gérer les prêts; les fiches cartonnées formant un OPAC peuvent avoir été éditées par un traitement de texte ou même par machine à écrire, cela explique parfois le fait que sur certaines de ces notices, le catalogueur inscrit à la main des données dans une langue qu'il n'a pu taper avec sa machine (comme l'arabe sur certaines fiches en français); quand l'OPAC existe, sa qualité informationnelle peut aussi être très différente d'une bibliothèque à l'autre. Certains professionnels ne respectent pas à la lettre les normes de catalogage, ainsi il arrive souvent qu'ils ne prennent pas la peine de mentionner l'identificateur unique standardisé qui est l'ISBN (International Standard Book Number) du document dans sa notice. La rétroconversion des notices consiste à transformer un ensemble de catalogues papiers (fiches cartonnées) en un catalogue collectif numérisé. Pour cela, on peut procéder à la resaisie de toutes les fiches, leur numérisation puis conversion du mode image en mode texte ou le téléchargement de notices électroniques. En général, il s'agit plutôt d'une combinaison de ces trois approches. Cette construction s'inscrit dans un processus comportant un nombre relativement élevé d'étapes organisationnelles, techniques ou « intellectuelles » et faisant appel à des compétences diversifiées. Il ne suffit pas de budgéter un tel projet, il faut aussi se donner les moyens techniques et humains de le faire. Dans ce qui suit, nous exposons quelques choix techniques, leurs prérequis et leurs limites. Avant toute étape, il convient par ailleurs de choisir la structure des données, c'est-à-dire le format des notices qui formeront le catalogue collectif électronique. Cette méthode ne peut s'appliquer que lorsque l'OPAC existe réellement sous la forme d'un ensemble de fiches et que celle -ci sont dans un bon état. Cette méthode est en général réalisée en sous-traitance et ce pour deux raisons essentielles. La première est qu'une bibliothèque, ne peut en général se permettre d'investir dans la création et la gestion d'un atelier composé d'équipements souvent coûteux et vite dépassés par les évolutions technologiques rapides et qui ne peut s'amortir par les seules activités de la bibliothèque. La deuxième raison est que pour numériser les fiches, il ne suffit pas de les scanner, il faut par la suite transformer les « images numériques » des fiches en notices au format texte; le volume important des fiches à traiter et leur état physique et typographique nécessite alors le recrutement et la formation d'un personnel qualifié. Selon la durée prévue pour cette opération, la solution prestataire de services peut s'avérer plus rapide et plus professionnelle que la mise en œuvre un atelier interne. Le rôle du prestataire consiste à numériser, en mode image, sur la base d'un cahier des charges très précis les fiches qui lui sont fournies. Puis de les transformer en fiches catalographiques selon le format indiqué dans le cahier des charges (par un processus de reconnaissance de caractères et/ou de correction de chaque fiche individuellement). Cette solution de numérisation/conversion, qu'elle soit faite en local ou outsourcée, pose plusieurs problèmes logistiques. Une des difficultés majeures concerne précisément la définition du cahier des charges et le contrôle qualité du résultat fourni. Ce contrôle qualité, effectué systématiquement sur toutes les fiches, mais plus souvent par échantillonnage, vu le volume important à contrôler, pose le problème de l'élaboration des critères de qualité qui sont demandés aux prestataires et qui sont ensuite repris pour juger la qualité du travail fourni. En plus, ce contrôle doit aussi toucher la complétude du travail; il faut vérifier que toutes les fiches du catalogue papier existent réellement dans le catalogue électronique livré. Rappelons à ce stade que tout document non catalogué est un document inaccessible et donc définitivement perdu. Un autre problème tout aussi important est celui de l'accès aux fiches à cataloguer. Les fiches à numériser doivent être fournies au prestataire de service (fournisseur ou atelier interne). Faut-il envoyer les fiches et arrêter l'exploitation de la bibliothèque jusqu' à la fin des travaux ou plutôt dupliquer les fiches ? S'il faut dupliquer les fiches, faut-il le faire par photocopie, photographie et que faut-il donner au fournisseur : la copie ou l'original car de meilleure qualité ? Et s'il faut ainsi manipuler les fiches une à une, pourquoi ne pas les numériser à ce moment -là ? Si c'est le cas, qui doit faire cela, la bibliothèque ou le prestataire de service ? Et qui définit alors les caractéristiques techniques de la numérisation, puisque de la qualité des images des fiches dépend, en partie, la facilité de leur traitement pour la génération du catalogue électronique ? Cette méthode consiste tout simplement à saisir les fiches du catalogue une par une lorsque l'OPAC existe réellement sous la forme d'un ensemble de fiches, ou à saisir les différents champs à partir d'un listing édité sous la forme d'un tableau Word ou Excel. Elle peut se faire par les ressources propres de la bibliothèque ou en sous-traitance. Cette technique pose les mêmes problèmes logistiques et de contrôles de qualité et de complétude discutés ci-dessus. Les risques d'erreur ne sont pas dus aux erreurs éventuelles de la reconnaissance de caractères, mais simplement au erreurs de frappe ou de saisie. Plutôt que de construire le catalogue électronique à partir des fiches du catalogue papier, cette méthode consiste à importer les notices à partir d'une ou de plusieurs bases bibliographiques et de les compléter en insérant les cotes. Par opposition aux deux méthodes précédentes, la qualité des notices importées est en général supérieure à la qualité informationnelle du catalogue initial. Cependant elle pose encore d'autres problèmes. En effet quelle que soit la base bibliographique choisie il est quasiment impossible qu'elle contienne toutes les notices recherchées. Se pose alors le problème de la couverture de la base; il s'agit de la proportion des notices contenues dans la base par rapport à celles qui constituent le catalogue papier. Notons toutefois que si une base pouvait contenir toutes les notices, il y a de fortes chances que ce soit celle de l'OCLC (Online Computer Library Center) (OCLC, 2002), mais cette base étant uniquement en anglais, le problème de la langue de catalogage restreint son utilisation. Ainsi, il faudra choisir plusieurs bases plutôt qu'une. Quand ces bases sont disponibles sous la forme de cédéroms les incidences budgétaires sont moins importantes que lorsqu'elles ne sont disponibles qu'en ligne, et ce même si l'on ne paye que la notice que l'on télécharge, à cause du coût de la connexion. Sur le plan pratique, il faut pouvoir repérer quelles sont les notices trouvées et celles qui ne le sont pas et compléter le traitement de ces dernières par une autre méthode. Cette méthode de rétroconversion, bien qu'a priori très intéressante, car indépendante de la qualité du catalogue papier, ne peut être appliquée dans tous les cas. En effet, l'accès à une base se fait par un identifiant, c'est l'ISBN qui joue normalement ce rôle. Or, si les fiches de l'OPAC initial ne contiennent pas l'ISBN comment peut-on accéder aux notices de la base et être certain qu'il s'agit des notices recherchées ? Il y a toujours moyen d'accéder par titre et auteurs par exemple, mais cela devient beaucoup plus pénible et les risques d'erreurs augmentent considérablement. Ces trois méthodes sont beaucoup plus complémentaires que concurrentes pour la construction du noyau du catalogue électronique à partir d'un catalogue papier. En effet, nous parlons de noyau, car à ce niveau il reste encore les étapes d'intégration des catalogues des différentes bibliothèques pour la construction du catalogue collectif et l'adaptation sémantique des notices. L'intégration consiste en fait à enlever les doublons, généralement par fusion des notices identiques afin de garantir qu' à toutes les notices traitant d'un même ouvrage dans les catalogues papier différents correspond une seule notice dans le catalogue collectif. Cette notice doit faire référence à toutes les cotes contenues dans chacune des notices papier initiales, généralement préfixées par un code identifiant la bibliothèque d'origine pour éviter qu'une cote se produise plus d'une fois. La fusion des notice est une fonctionnalité offerte par la majorité des modules de catalogage des différents logiciels de gestion de bibliothèques. Il suffit donc, de se doter d'un tel module et de faire en sorte que le noyau du catalogue électronique respecte bien l'une des normes de structuration de données (MARC ou ses dérivées) supportées par ce module. Par ailleurs, pour reconnaître, d'une manière automatique, que deux notices sont identiques, il faut aussi disposer d'une clé d'accès qui est normalement l'ISBN. A défaut de l'ISBN, il faudra gérer (fusionner) les doublons manuellement en attendant d'avoir le courage de parcourir tous les rayons et de consulter les ouvrages un à un pour compléter cette information dans le catalogue électronique, en faisant attention à ne pas oublier les ouvrages absents des rayons (en prêt, en reliure…). Après l'intégration des différents catalogues et la suppression des doublons, il faut finalement procéder à l'adaptation de l'indexation comme décrit dans la section précédente et puis éventuellement gérer le lien entre les notices bibliographiques et leurs notices d'autorités si celle -ci sont déjà disponibles dans un format électronique et normalisé. Comme nous pouvons le ressentir à partir de ce qui précède, la numérisation des catalogues papiers, pour la création du « dossier numérique » qu'est le catalogue collectif, est une opération délicate, lourde et coûteuse. Pour minimiser les coûts, surtout lorsqu'il s'agit de bibliothèques universitaires, on peut procéder à une bibliothèque par secteur, par exemple une seule faculté de médecine, une seule école d'architecture, etc., et utiliser le noyau ainsi construit comme base bibliographique pour la numérisation des catalogues des autres bibliothèques de la même spécialité. Une autre manière de diminuer le budget en étalant le projet dans le temps, consiste à définir des priorités, tel le fait de sous-traiter la numérisation des notices des ouvrages les plus consultés et prendre le temps d'enrichir le catalogue localement par les notices des autres ouvrages avec une équipe plus restreinte. Malheureusement, quand on travaille uniquement en mode papier, il est difficile de disposer de statistiques fiables et à jour pour pouvoir identifier les fonds documentaires les plus urgents à traiter. Il va sans dire que l'informatisation des bibliothèques universitaires (BU) et leur interconnexion sont indispensables pour tirer profit de toutes les ressources documentaires et de rationaliser leur évolution. Dans cette section nous illustrons à travers la description d'un cas réel, les étapes et les problèmes d'un tel projet. Le projet que nous décrivons consiste à informatiser et interconnecter toutes les BU d'un pays. Nous supposerons qu'une étude préalable a été réalisée pour évaluer le budget nécessaire et définir la durée ainsi que les étapes du projet, et que cette étude a révélé les résultats suivants : il existe près d'une centaine de bibliothèques, une dizaine pourraient être considérées comme grandes bibliothèques, une dizaine comme moyennes et le reste comme petites bibliothèques; la plus grande majorité des bibliothèques sont plus ou moins spécialisées; quelques bibliothèques disposent d'un système informatisé de gestion de bibliothèques (SIGB), certaines utilisent des tableurs comme outils de gestion et les autres sont totalement manuelles; aucune bibliothèque n'est raccordée à l'internet et aucun réseau physique n'est encore installé à cet effet; la gestion des acquisitions est réalisée d'une manière autonome d'une bibliothèque à l'autre; les collections de revues sont rarement complètes, certains abonnements ne sont pas renouvelés, certains numéros sont perdus; le personnel est assez souvent formé sur le tas, peu de bibliothèques disposent de documentalistes ou conservateurs diplômés; le personnel (diplômé ou non) ne maîtrise pas les nouvelles technologies de l'information et de la communication; dans la plupart des cas, le nombre d'ouvrages disponibles est au-dessous du minimum nécessaire par rapport au nombre des étudiants de chaque établissement. Nous supposerons par ailleurs, que nous nous trouvons dans un contexte où les BU sont gérées uniquement et directement par les établissements d'enseignement supérieur (écoles, instituts, facultés, etc.) auxquels elles sont rattachées et où elles se trouvent physiquement et que ces établissements sont sous la tutelle d'un ministère de l'enseignement supérieur (MES). Ainsi, suite à cette étude, le MES lance un projet (appelons -le BIRU pour bibliothèques informatisées pour la recherche et l'université) pour l'informatisation et l'interconnexion des BU. L'étude préalable, qui a duré deux ans, a estimé le budget nécessaire au projet à quelques millions d'euros, sa durée de mise en œuvre à trois ans et l'a divisé en quatre volets : formation, connectique et matériels, fonds documentaire, logiciels, normes et standards. Un comité de pilotage a été désigné ainsi que quatre comités techniques, un pour chaque volet avec pour objectifs respectifs : comité de formation (CF) : mettre en place un DESS (diplôme d'études supérieures spécialisées) et un programme de formation continue pour la formation de nouveaux bibliothécaires et la mise à niveau du personnel existant; les diplômés seront appelés « informatistes » et non pas « documentalistes »; comité connectique et matériels (CCM) : définir l'architecture physique du réseau ainsi que le nombre et les configurations des serveurs et des postes de travail pour les professionnels et pour la consultation; comité fonds documentaire (CFD) : harmoniser les procédures d'acquisition, proposer des scénarios et des protocoles pour la mise à niveau des ressources documentaires, les revues et les ressources électroniques et pour le prêt inter-bibliothèques; comité logiciels, normes et standards (CTLNS) : définir les normes et les caractéristiques techniques nécessaires à l'acquisition d'un logiciel de gestion intégrée d'un réseau de bibliothèques. Trois directives principales ont été prises : les logiciels existants dans certaines bibliothèques ne seront ni mis à jour ni interfacés mais simplement ignorés; le logiciel à acquérir sera le même pour toutes les bibliothèques qu'elles soient grandes, moyennes ou petites, spécialisées ou généralisées; à la fin des trois ans, il faut avoir dépensé tout l'argent alloué au projet. Le projet BIRU allait fournir le remède à tous les maux des BU et faire ainsi le bonheur de milliers d'étudiants, de bibliothécaires de chercheurs et de professeurs. Mais sur le plan pratique, les problèmes techniques ont été maîtrisés alors que plusieurs problèmes organisationnels ont surgi tels que : aucune personne affectée au projet ne l'était à plein temps; tous les membres de tous les comités étaient fonctionnaires ou enseignants et leur affectation au projet n'a été accompagnée d'aucune réduction de leurs charges professionnelles; la plupart des intervenants étaient donc des consultants; le chef de projet, un de ces principaux initiateurs, qui par ses qualités professionnelles et sa notoriété pouvait assurer le trait d'union entre le technique et l'administratif a quitté le comité de pilotage peu après le démarrage du projet; la coordination entre les différents comités était quasi inexistante; le comité de pilotage, essentiellement formé par des hauts fonctionnaires du MES responsables du suivi budgétaire, pensait que les travaux des uns et des autres étaient indépendants et de ce fait, personne ne s'est occupé du problème des données; la définition des fichiers d'autorité matière, auteur, etc., à utiliser à l'échelle de tout un pays relève normalement des activités de sa bibliothèque nationale (BN). La BN n'ayant pas été directement impliquée dans le projet BIRU, aucune ressource n'a pu être récupérée, d'autant plus que les bibliothèques publiques n'étaient pas informatisées et que leurs collections documentaires n'étaient ni aussi importantes ni aussi techniques et spécialisées que le fonds documentaire des BU; la définition de l'architecture du réseau et sa mise en œuvre physique relève des activités du ministère des communications. Ce dernier n'étant pas directement impliqué dans le projet BIRU, la coordination a été très difficile et les contraintes de délais n'ont pu être maîtrisées. L'acquisition d'un seul logiciel pour tout un pays est une opération très délicate; le CTLNS avait bien conscience de la nécessité de disposer d'un noyau du catalogue collectif pour choisir les sources bibliographiques, pour estimer le pourcentage de recouvrement des fonds documentaires, pour tester les différents logiciels étudiés pendant la phase de rédaction du cahier des charges. En réponse à l'une de ses requêtes, le comité de pilotage a demandé à chaque bibliothèque de lui fournir un fichier au format XML, contenant un échantillon de 1 000 (ISBN, cote); ces fichiers devaient être fusionnés et servir pour le téléchargement des notices correspondantes. Aucune suite n'a pu être donnée à cette idée puisque l'équipe de 20 contractuels, la salle et les postes de travail que le MES proposait de mettre à disposition du projet n'ont jamais vu le jour. De plus, pendant la période d'étude et de développement du projet BIRU, le MES a gelé toutes les acquisitions informatiques (matériels et logiciels) dans les BU, il était alors impossible de demander aux responsables des différentes bibliothèques, déjà à court de personnel, de participer par un moyen ou un autre à la construction du noyau du catalogue collectif national. Pour définir un cahier des charges qui tienne compte de toutes les contraintes techniques évoquées dans les sections précédentes, le CTLNS a mis deux ans. Il a rédigé un document sous la forme de 2 800 questions pour lesquelles chaque soumissionnaire devait présenter des réponses nettes et précises précédés d'une série de 25 questions à réponses booléennes qui concernaient l'implémentation des normes et standards requis et qui traduisaient donc des critères éliminatoires. Un appel d'offres a été lancé et une commission de dépouillement a été désignée. Les principaux fournisseurs de logiciels mondiaux étaient représentés par les offres reçues, mais les critères éliminatoires étaient tellement stricts qu'une seule offre a été retenue sur le plan technique; le dépouillement financier n'était alors que formel. Après la rédaction des contrats et information du fournisseur, retenu quelques semaines avant la fin du délai de trois ans, la situation était telle que : un seul logiciel semblait répondre à tous les critères demandés, mais suffit-il de croire sur parole le fournisseur ? Il fallait bien évidemment tester le produit, mais qui allait le faire, avec quelles données et sur quelle configuration ? sur le plan de la formation, les étudiants n'ont pas spécialement été formé pour ce logiciel -là et le MES ne pouvait pas encore les recruter… sur le plan de la connectique, les liaisons n'étaient pas encore mises en place et sur le plan matériel on ne savait pas combien est -ce qu'il fallait acquérir de postes de consultation : fallait-il comptabiliser en fonction de la taille du fonds documentaire existant (or on sait qu'il est largement inférieur au standard et que l'un des volets du projet BIRU était justement de le mettre à jour) ou du nombre d'étudiants ? Et puis à quoi bon acquérir des PC qui seront largement dépassés dans quelques mois alors qu'il n'y a même pas d'OPAC à consulter ? sur le plan des modalités de la fédération des bibliothèques (protocoles de prêts, règles de catalogages, commissions de validation…) le CFD avait, semble -t-il, rendu un rapport au comité de pilotage; on n'en saura pas plus ! Quelques jours plus tard, le fournisseur retenu a été informé que le marché a été annulé pour vice de procédure. Le dernier chef de projet, dans un moment de panique ou d'inspiration, avait découvert qu'un membre du CTLNS, n'ayant tout de même pas participé au dépouillement, avait des relations professionnelles avec le fournisseur en question. Ce dernier pouvant avoir bénéficié d'informations supplémentaires, il y avait un risque de non-respect des règles de la concurrence… En dépit des raisons déclarées de l'arrêt du projet, il y a des chances que les responsables administratifs aient enfin pris conscience de l'ampleur du projet et qu'ils aient réalisé que sans données ni réseau, il n'y avait pas moyen de tester le logiciel choisi ni d'espérer que tous les problèmes de configuration et d'exploitation soient résolus avant la fin de la période de garantie et que sans budget pour la maintenance du système il était insensé d'embarquer dans une telle aventure Aujourd'hui on ne parle plus de BIRU, les budgets ne sont plus disponibles mais on ne sait pas si le projet a été annulé ou reporté. S'il fallait le refaire pensera -t-on suffisamment à l'avance que le cœur d'un réseau de bibliothèques est un « dossier numérique » et que sa création est un projet à part entière ? Dans cet article nous avons présenté les catalogues bibliographiques et leur importance dans le fonctionnement d'une bibliothèque et dans un réseau de bibliothèques. Nous avons évoqué leur fédération et la difficulté de leur numérisation. Nous avons illustré enfin par une étude de cas réelle, comment, lorsqu'on ne fait pas partie de ce secteur professionnel, il est difficile se rendre compte de l'importance de la numérisation des catalogues dans un projet d'informatisation et d'interconnexion de bibliothèques et que cela peut être fatal à tout le projet. Le catalogue collectif d'un réseau d'information est amené à évoluer comme tout dossier. Le respect des normes et des standards ainsi qu'une rigueur au niveau des procédures de travail sont indispensables pour la bonne gestion d'un tel dossier. Suivant le niveau d'informatisation des bibliothèques, le type de services rendus au lecteurs ainsi que les types de collections et de documentations gérées dans plusieurs dossiers numériques (des catalogues différents) peuvent s'avérer nécessaires. Dans ce cas, les nouvelles technologies de l'information et le développement de modules spécifiques peuvent aider à mieux exploiter ces dossiers et en faciliter l'utilisation .
Dans le secteur des bibliothèques, toutes les activités professionnelles reposent sur la création et la gestion des catalogues. Le passage des catalogues papiers aux catalogues numériques est un projet ambitieux dont la complexité est difficile à prévoir et à gérer. Dans cet article nous nous intéressons aux problèmes posés par la mise en oeuvre pratique d'un tel projet. Nous commençons par définir les catalogues bibliographiques, puis la problématique de leur mise en réseau. Nous abordons par la suite les modalités et les difficultés de leur numérisation. Nous terminons enfin cet article par une étude de cas et une conclusion.
sciencesInfo_03-0023742_tei_DN_061_0081.tei.xml
termith-339-communication
Le domaine de Samovar est le processus des validations des prototypes au cours d'un projet-véhicule. Ce processus complexe soulève un grand nombre de problèmes constituant un frein au raccourcissement du cycle, du fait des validations à refaire. Il en résulte une augmentation des délais et des coûts. L'observation des validations amène à croire qu'une partie des échecs est due à la perte d'informations et d'expériences produites. Samovar vise à améliorer l'exploitation de ces informations et de les rendre disponibles pour les projets à venir. Le cycle de développement des produits automobiles se décompose en de nombreux sous-cycles itératifs (conception/réalisation/validations, de courte et/ou longue durée). L'ensemble de ces cycles est ponctué par des jalons et vagues prototypes qui marquent les sorties des versions successives des maquettes et prototypes. Au cours d'un projet-véhicule, sont effectuées des validations pendant lesquelles les services d'essai vérifient la conformité d'une pièce ou d'une fonctionnalité par rapport aux exigences précisées dans le cahier des charges : i.e. finesse du grain de la planche de bord, bruit que fait une portière en se fermant, comportement de la voiture roulant sur des petits pavés, sa résistance à des hautes ou basses températures. .. Ces validations sont réparties tout au long du projet-véhicule et effectuées successivement par des services d'essai, en commençant par les fonctionnalités les plus élémentaires pour aboutir aux tests de synthèse. Le projet commence par des tests avec les services d'essais liés aux bureaux d'étude en rapport avec les pièces validées, et se finit par des tests de performance, de vitesse et de crash. Les validations permettent de relever des problèmes de non-conformité. Ces problèmes sont documentés dans un système de gestion unique – système de gestion des problèmes (noté SGPb), depuis leur détection jusqu' à leur résolution. Ce système inclut une base de données (BD), avec les informations nécessaires au processus de gestion des problèmes : informations sur les acteurs intervenants, et surtout descriptions et commentaires sur les problèmes apparus. L'apparition des problèmes engendrant des coûts supplémentaires et allongeant les délais, une solution envisagée vise à exploiter l'information contenue dans la base SGPb, pour l'utiliser non seulement comme un système de gestion de problèmes mais aussi comme un véritable gisement d'informations : ses champs textuels sont extrêmement riches et pas suffisamment exploités. Les acteurs s'y expriment librement, en décrivant les problèmes, les différentes solutions proposées ou les contraintes pour la mise en œuvre d'une solution. Il existe aussi d'autres sources d'informations, tel un référentiel officiel de l'entreprise ou de nombreuses bases locales des services d'essai : on pourrait recouper leurs informations avec le contenu de la base SGPb. Il s'agira de proposer des moyens pour extraire, structurer et rendre réutilisable par des projets cette grande quantité d'informations. Les projets-véhicules en cours ont ainsi exprimé des besoins liés à la recherche d'informations au cours des validations : i.e. similitudes entre les incidents, détection des corrélations avec d'autres incidents, afin de pouvoir s'inspirer des solutions existantes au sein d'un même projet, voire entre des projets différents. Il est important de souligner la grande diversité et hétérogénéité des sources d'informations existantes. Le processus des validations des projets-véhicule est complexe. Il met en œuvre une grande quantité d'informations reparties à travers des systèmes d'information divers et hétérogènes. Chacun des systèmes est dédié à un segment déterminé des validations (en amont du cycle, au cours de la vague Pre-Série, etc.), et concerne une population spécifique (bureaux d'étude, le Centre des Prototypes, l'usine, etc.). De plus, il existe de véritables bases locales où les experts stockent leur propre expérience. L'information est donc de nature diverse (documentation, BD, experts) et distribuée dans différents systèmes qui sont gérés par des services (acteurs) différents. Samovar vise à corréler les démarches et les informations indépendantes, localisées dans différents systèmes, éloignées les unes des autres, et dédiées à des tâches particulières, à travers une démarche fédératrice et coopérative orientée retour d'expérience dans un objectif de mise à disposition aux acteurs des validations. Nous nous sommes intéressés en particulier au référentiel contenant toute la nomenclature de l'entreprise, les composants cités dans le SGPb étant souvent identifiés avec les noms officiels du référentiel. Notre vision des validations est celle d'un système dynamique fondé sur des échanges. Capitaliser un savoir-faire d'acteurs dans un processus d'échanges techniques, concernant essentiellement des problèmes/solutions, revient à identifier et à capturer les échanges entre les acteurs de ce processus. L'identification des processus d'échanges permet d'amorcer le domaine de capitalisation que l'on veut étudier et modéliser. Les échanges fournissent non seulement l'information sur l'aspect dynamique du système (flux d'information ou workflow) mais indiquent aussi les populations qui coopèrent et les systèmes support de cette coopération. Un échange est en premier lieu caractérisé par un émetteur et un récepteur. L'émetteur et le récepteur appartiennent à une organisation hiérarchique de l'entreprise – ils sont ainsi définis par le rôle qu'ils jouent dans l'entreprise. Le service auquel chacun d'eux appartient fournit les premières indications sur le périmètre fonctionnel (ou compositionnel) et le périmètre de prestation. Une solide analyse du processus des validations est donc indispensable, notamment afin de définir les périmètres techniques et fonctionnels de chacun des acteurs d'entreprise (responsable pièce, service essai, architectes), coopérant au cours des validations, les périmètres représentant les zones de responsabilité, respectivement en termes de pièces et de prestations. La gestion des problèmes dans la base SGPb se déroule selon les phases de relevé, analyse, pilotage et résolution d'un problème. Selon l'avancement, différentes acteurs interviennent : service d'essai, animateur, responsable pièce, architecte. Autrement dit, les directions Etudes, Méthodes, Achats, Qualité, Après-vente, etc. De plus, la base SGPb est utilisée sur différents sites géographiques (directions ou usines) : Flins, Douai, Lardy, Aubevoie. Le système se présente donc comme un espace de collaboration et coopération des entités diverses et variées, reparties géographiquement, intervenant à des moments différents et employant souvent un vocabulaire différent. Divers métiers participent au processus des validations : l'acoustique, l'aérodynamique, l'ergonomie, la géométrie, etc. Chaque métier emploie son propre vocabulaire, avec des termes spécifiques pour qualifier les problèmes et les solutions : par exemple dans le cas d'un problème de bruit sur la planche de bord, deux personnes de métiers différents – le métier de planche de bord et celui de l'acoustique – sont amenées à collaborer. Chacune d'elles possède un vocabulaire spécifique. A travers le dialogue existant entre ces métiers, le SGPb constitue un espace de gestion coopérative entre ces différentes populations. L'hétérogénéité du vocabulaire constitue un problème pour le cogniticien qui ne possède aucune connaissance du domaine, ni le vocabulaire propre à l'entreprise. On peut parler d'un « technolecte », vocabulaire de l'entreprise, et puis d'un « idiotechnolecte », celui qui est propre à l'expert. Mais la variation du vocabulaire d'un service à l'autre est surtout un problème reconnu au sein de l'entreprise même, et elle est à l'origine de nombreux problèmes de communication. Ce vocabulaire peut varier selon le contexte (par le contexte il faut entendre tout ce qui évolue autour de l'activité d'essai). Le vocabulaire peut donc varier en fonction du service d'essai (synthèse, design, montage, responsable pièce, architecte), de l'endroit où il est effectué (plateau, Centre de réalisation des prototypes, usine, service d'essai), de l'objet de l'essai (maquette, prototype, banc d'essai, l'ensemble des prestations), des critères d'essai (prestations fonctionnelles objectives/subjectives, techniques), de l'envergure de l'essai (plateau – sur un prototype ou sur un sous-ensemble des pièces) ou du type de problème. La diversité et la richesse du vocabulaire va conditionner les techniques et outils à employer. De plus, si certaines informations sont assez simples à extraire du SGPb, il n'en est pas de même pour les données textuelles de SGPb. Comme il a été mentionné précédemment, il est fréquent qu'un même terme dénotant une pièce (existant dans le référentiel officiel), ou un problème, aient des appellations différentes selon le service, voire selon l'avancement dans le projet. Par exemple, on peut observer qu'un terme peut être utilisé à la place d'un autre dans le cas d'une variation terminologique, ou encore, dans le cas où il existe une relation sémantique entre les concepts qu'il désigne (méronymie, proximité géographique, etc.). Ainsi un Climatiseur peut avoir diverses variantes sémantiques méronymiques ou holonymiques : conditionnement d'air, fonction chauffage, commande de répartition de chauffage, commande de répartition de ventilation, boîtier bloc chauffage, capteur de température raccord ventilation, etc. L'objectif linguistique sera donc de détecter un terme sémantiquement intéressant, de le classer par rapport au processus des validations, et d'y attacher toutes les variations rencontrées. La problématique concerne ici l'extraction des termes (puis, en deuxième temps, des relations) et leur structuration. Elle nécessite l'emploi d'outils et de techniques adaptés, en l'occurrence ceux de traitement automatique des langues naturelles (TALN), qui se prêtent bien au traitement des matériaux textuels où les connaissances sont exprimées dans une langue naturelle. Une synthèse sur les outils TALN dédiés à l'extraction des termes et relations à partir des textes est proposée dans (Aussenac-Gilles et al., 2000). Il existe plusieurs outils d'extraction des candidats termes : Lexter (Bourigault, 1994), Nomino (http :// www. ling. uqam. ca/ nomino), Ana (Enguehard, 1992). Pour l'acquisition de relations sémantiques, il existe des approches basées sur l'exploitation des contextes syntaxiques (Grefenstette, 1994), ou sur l'utilisation des patrons lexico-syntaxiques (Hearst 1992; Jouis 1993) ainsi que quelques outils, Coatis (Garcia 1998) pour des relations causales, Cameleon (Seguela 1999; Seguela et Aussenac-Gilles 1999, Seguela 2001) pour des hyponymes et méronymes. Samovar (Golebiowska, 2000) permet de structurer les connaissances des champs textuels de la base SGPb, et d'y effectuer des recherches afin de trouver des questions similaires. A partir des diverses BDs de l'entreprise, nous avons construit une ontologie offrant plusieurs vues sur le processus des validations : problème, projet, prestations, pièces. Après avoir ainsi amorcé manuellement l'ontologie, nous l'avons complétée progressivement avec les éléments issus des données textuelles de SGPb à l'aide de techniques et outils linguistiques. Cette étape est automatique, mais l'aide de l'expert est nécessaire tout au long du processus. Puis les problèmes de la base SGPb ont été annotés automatiquement avec les concepts de ces ontologies. En utilisant le moteur de recherche Corese intégré dans Samovar, l'utilisateur peut alors accéder à la base des problèmes pour effectuer des recherches guidées par l'ontologie. L'ontologie de Samovar prend en compte les 4 composantes du processus des validations : composante Pièce : basée sur le référentiel officiel d'entreprise, et correspondant au découpage fonctionnel d'un véhicule en sous-composants; composante Problème : contient une typologie de problèmes reflétant les différents types de problèmes décrits dans le système de gestion des problèmes SGPb; composante Prestations :correspond aux prestations recoupées avec le découpage organisationnel de l'entreprise; composante Projet :reflète la structure d'un projet et est construite avec des connaissances acquises sur le fonctionnement d'un projet-véhicule, suite aux interviews que nous avons menées auprès des différents acteurs du projet. Chaque sous-ontologie se présente comme une hiérarchie de spécialisation de n niveaux. Chaque sous-ontologie (ou ses composantes) reflète l'un des points de vue principaux sur le processus des validations. Ainsi la composante Projet est représentative du cycle d'étude d'un véhicule, de son jalonnement, des options du véhicule, etc. Ce point de vue permet de comparer l'évolution d'un projet par rapport à un autre via les problèmes sur la même vague, même tronçon ou même support. La composante Projet contient, entre autres, les références aux différents acteurs comme les responsables pièces ou encore les architectes. Les deux permettent des points de vue correspondant aux découpages possibles des pièces d'un véhicule : point de vue par zone d'architecte et point de vue par zone de responsable pièces. Par exemple, grâce aux références au responsable pièces Planche de Bord il sera possible de connaître les pièces du périmètre Planche de Bord : tableau de bord, console, aérateur, etc. La composante Prestation reflète un service rendu au client et correspondant à ses attentes. Par exemple, l'aspect ergonomique d'un véhicule : le confort d'un siège, l'acoustique du poste de conduite, les performances d'endurance ou son comportement dans des conditions extrêmes : hautes ou basses températures, fort ensoleillement, etc. Les prestations reflètent, entre autres, l'organisation métier des services d'essai (endurance, bruit, ergonomie, etc.). Ainsi, les différentes composantes de l'ontologie de Samovar fournissent les points de vus spécifiques pour l'ensemble du processus des validations. Ces points des vue permettent de gérer et d'accéder à l'information de façon sélective, facilitant par là leur exploitation. Ils facilitent aussi l'identification et la détection du vocabulaire propre à chaque métier. Ils améliorent ainsi l'interaction entre les différents acteurs du processus des validations au cours de la gestion d'un problème. La construction de l'ontologie se passe en deux temps, en fonction du type de données et des moyens impliqués : une première extraction des informations contenues dans des bases de données, une seconde extraction avec des techniques et outils linguistiques, pour découvrir les informations « cachées » dans les textes. Soulignons qu'avant la première phase il est nécessaire d'établir un modèle préliminaire du domaine (1) qui va guider la construction de l'ontologie. L' « ossature » de l'ontologie est amorcée avec les données des bases existantes (cf. figure 3) : Une première extraction des données d'origine (2) est effectuée suivant le modèle du domaine. Elle fournit ainsi un sous-ensemble de la base d'origine (3) que l'on traduit ensuite sous forme d'ontologie (4), en respectant le format RDFS (prévu pour Corese). En parallèle, une autre extraction est faite à partir du référentiel Pièce (5), afin de compléter les données précédentes avec les informations supplémentaires. Une fois l'ontologie construite, elle sert pour annoter les données extraites (3) avec les éléments de l'ontologies (4). On obtient ainsi la base initiale annotée (6). Un deuxième processus traite les données textuelles (l'objectif final étant d'enrichir le résultat de la première extraction avec l'information issue des textes). Ce processus exploite les sorties obtenues après application de l'outil linguistique Nomino sur les données textuelles issues des commentaires textuels dans la base SGPb. Nomino 1 est un outil d'extraction des groupes nominaux (GN) d'un corpus représentatif d'un domaine. Nomino prend un corpus textuel en entrée et produit en sortie un ensemble de « lexiques » – listes de noms, unités complexes nominales (UCN), unités complexes nominales additionnelles (UCNA), verbes, adjectifs, adverbes. Les UCN(A) correspondent aux groupes prépositionnels (GP) ou groupes nominaux (GN). Les lexiques des UCN(A) sont accessibles sous forme de graphes qui illustrent les dépendances existantes pour un GP ou GN. Nous utilisons les lexiques et graphes produits par Nomino afin de : détecter les termes significatifs (i.e. correspondant à des points sensibles des validations), enrichir l'ontologie Problème à l'aide des graphes de Nomino, en exploitant la régularité de leurs structures. Dans un premier temps, nous avons analysé les lexiques produits par Nomino afin de détecter les termes les plus fréquents que l'on peut supposer être les termes plus représentatifs du domaine (câblage, montage, tuyau, fixation, centrage, pièce, mise en place, conformité, dérivation, trou, agrafe, vis, contact, maintien, serrage, patte, position, géométrie, écrou, visser, hygiène, raccordement, etc.). Ces termes structurés nous ont permis d'amorcer l'ontologie Problème. Sa structuration initiale (cf. figure 2) reposait sur la validation par les experts. Les termes retenus pour l'amorce sont tous ceux qui sont exploitables en tant qu'indices sémantiques pour un problème : par exemple un problème de Centrage va être détecté grâce à la présence d'indices comme indexage, coaxialité, entraxe, etc. La validité des termes a été confirmée par des experts. L'amorce de l'ontologie étant ainsi constituée, pour l'enrichir, nous avons utilisé les groupes prépositionnels issus de Nomino. En plus de substantifs, Nomino produit des groupes nominaux et prépositionnels. Nous avons exploité les structures des cas les plus fréquents : L'analyse de ces UCN nous a fourni les structures que nous avons exploitées pour construire les règles heuristiques. Ces structures sont composées d'un terme Indicateur de probleme, indiquant l'existence d'un problème (difficulté, effort, impossibilité), suivi par ce problème (chaussage, clipsage). Ainsi on peut trouver des cas comme : difficulté de … (par exemple difficulté de mise en place) dureté de … (par exemple difficulté de connexion) effort de … (par exemple effort de clipsage) impossibilité de … (par exemple impossibilité de mep) gêne pour … (par exemple gêne pour fixation) mauvais … (par exemple mauvais centrage) difficile … (par exemple mep difficile) Nous avons exploité ces régularités structurelles pour construire des règles heuristiques qui vont permettre d'alimenter de façon semi-automatique l'ontologie. Ces règles vont refléter les structures existantes dans le corpus, et une fois activées, vont permettre d'enrichir l'ontologie Problème en y attachant chaque nouveau terme. Les règles correspondent donc aux combinatoires possibles entre les éléments des ontologies Pièce et Problème, et attestées dans les textes. Une règle se présente comme une suite de catégories, chacune pouvant être décorée avec un ensemble de traits (par exemple type=Problème pour signifier que l'élément fait partie de l'ontologie Problème, type=Pièce pour un élément de l'ontologie Pièce, etc.). Prenons comme exemple, la règle heuristique R1. Elle précise que si l'on rencontre l'expression <terme1> de <terme2> où <terme1> est déjà connu comme correspondant à un concept concept1 de l'ontologie Problème, alors le système peut suggérer de rattacher un concept dénoté par <terme2> comme un fils de concept1 dans l'ontologie Problème. R1 : Nom [type= Problème,n=i] Prep [lemme= « de »] Nom{type → Problème, n=i+1 }; Cette règle appliquée à l'UCN(A) bruit de frottement du volant pendant son reglage en hauteur permettra de proposer un concept « Frottement » comme fils du concept « Bruit » déjà connu de l'ontologie Problème. Remarque. — une notation différente (accolades et flèche →) permet de distinguer la partie déduction de la règle. R2 : Nom{type → Problème} Prep [lemme= « de » || lemme= « sur » || lemme= « sous »] Nom [type= Pièce]; La règle heuristique R2 précise que si le système rencontre l'expression <terme1> de <terme2> où <terme2> est déjà connu comme dénotant un concept concept2 de l'ontologie Pièce, alors il suggérera de rattacher un concept désigné par <terme1> comme un concept dans l'ontologie Problème. Cette règle appliquée au UCN(A) Broutement du bras-balais Ar sur PPP3 permet de découvrir le concept « Broutement », connaissant la pièce « Bras-balai AR ». R3 : Nom [lemme= « difficulte » || lemme= « effort » || lemme= « durete » || lemme= « risque »] Prep [lemme= « de »] Nom{type → Problème} La règle heuristique R3 précise que si le système rencontre l'expression <terme1> de <terme2> où <terme1> est soit difficulté soit effort soit dureté, soit risque, alors il suggérera de rattacher un concept désigné par <terme2> comme un concept dans l'ontologie Problème. Cette règle appliquée à l'UCN(A) Difficulte d'encliquetage tuyaux carburant sur reservoir permet de découvrir le concept « encliquetage » Ces trois types de règles reflètent trois façons d'enrichir l'ontologie : l'ontologie peut être enrichie à partir d'elle -même, elle peut l' être en exploitant l'ontologie Pièce, elle peut l' être en exploitant les indicateurs de problèmes. Comme le résume la figure 5, après avoir amorcé l'ontologie Problème, nous l'avons complétée progressivement prenant en entrée les sorties Nomino, l'ontologie Pièce et la base d'heuristiques, le système analyse les GN correspondant aux sorties Nomino, pour voir avec quelle règle chacun peut s'apparier. En sortie, on obtient des candidats-problèmes à placer dans l'ontologie Problème. L'utilisateur valide chaque candidat et décide si l'endroit proposé pour l'insérer dans la hiérarchie existante est correct : le terme est alors inséré dans l'ontologie et acquiert le statut de concept. Pour formaliser l'ontologie, nous avons choisi le langage RDF Schema (RDFS) proposé par le W3C pour décrire l'ontologie à laquelle sont relatives les annotations RDF décrivant des ressources accessibles par le web. Or de telles annotations RDF sont aussi pertinentes pour décrire les ressources faisant partie de la mémoire d'un projet-véhicule, comme les descriptions des problèmes rencontrés dans ce projet. De ce fait, nous avons développé un parseur qui, à la fin du processus, génère une version de l'ontologie dans RDF Schema. Après la génération de la version RDF(S) de l'ontologie, les annotations des problèmes de la base SGPb sont mises à jour automatiquement. Les ontologies construites servent à l'annotation des documents pour le moteur de recherche Corese (Corby et al., 2000). Celui -ci implémente un processeur RDF/RDFS basé sur les graphes conceptuels (GC) : il utilise en entrée et en sortie les langages RDF et RDFS pour exprimer et échanger des métadonnées sur des documents, et il propose un mécanisme de requêtes et d'inférences basé sur le formalisme des GC. On peut le comparer à un moteur de recherche permettant des inférences sur des annotations RDF, grâce à leur traduction en GC et grâce à la traduction RDF des GC réponses aux requêtes des utilisateurs. Comme on peut voir sur la figure 5, la démarche de Corese repose sur la correspondance entre deux formats : RDF(S) et les GC, les RDF Schema étant traduits dans le support de GC et les annotations RDF dans la base des GC. Une requête se présente comme un énoncé RDF, traduit en un graphe requête qui est ensuite projeté sur la base des GC afin d'isoler les graphe s'appariant. Les graphes résultats sont ensuite traduits en retour vers RDF. Le mécanisme de la projection prend en compte les hiérarchies et les relations de spécialisation décrites dans les schémas RDF et traduites en GC. Pour pouvoir exploiter Corese, nous avons traduit automatiquement l'ontologie de Samovar dans le langage RDFS et annoté automatiquement en RDF les problèmes de la base SGPb avec des concepts de ces ontologies. Après ces 2 étapes, l'utilisateur peut faire des recherches (cf. figure 6) : les réponses aux requêtes prendront en compte les liens modélisés dans l'ontologie de Samovar. Les 2 exemples suivants montrent que les problèmes issus des textes et structurés avec des liens hiérarchiques permettent de retrouver des doublons de descriptions-de-problèmes. Soit l'extrait de l'ontologie Pièce illustré par la figure 7, et l'ontologie Problème illustré par la figure 8. Dans le premier exemple, l'utilisateur cherche à retrouver les problèmes de fixation sur le soufflet de levier de vitesse. Une seule réponse est obtenue : Pb_Fixation rdf :about= libelle DIAMETRE DU SOUFFLET AU NIVEAU DU BOUTON PRESSION NON EN CONCORDANCE AVEC LE DIAMETRE DU POMMEAU DU SELECTEUR DE VITESSE (VOIR PS-00193) piece SOUFFLET_DE_LEVIER_DE_VITESSE En revanche, en étendant la requête aux termes plus généraux, suivant les liens des ontologies (dans notre cas, Montage), on retrouve un 2ème cas, et il s'agit bien d'une description-de-problème similaire : Pb_Montage rdf :about= libelle BOUTON PRESSION DU SOUFFLET DE LEVIER DE VITESSE IMMONTABLE (GEREE PAR MO-02057) piece SOUFFLET_DE_LEVIER_DE_VITESSE Ainsi par un parcours successif des ontologies dans le sens de la généralisation ou de la spécialisation, l'utilisateur peut étendre la requête aux concepts subsumant et aux concepts « frères ». Dans l'exemple, il peut explorer, niveau par niveau, les problèmes de soufflet de levier de vitesse : partant de Fixation, remonter vers le concept-père (Montage) et redescendre ensuite sur les autres fils (MEP) (cf. figure 7). Dans le second exemple, l'utilisateur aimerait retrouver les problèmes de centrage sur les traverses de poste de conduite. Le système retourne 3 cas dont 2 s'avèrent être des descriptions-de-problèmes pointant l'une sur l'autre : Pb_Centrage rdf :about= libelle FIXATIONS PDB : FIXATIONS LATERALE G ET COMPTEUR DECENTRE SUR TRAVERSE. piece TRAVERSE_DE_POSTE_DE_CONDUITE Pb_Centrage rdf :about= libelle FIXATION : SUPPORT CARMINAT SUR TRAVERSE DECENTREE. (VOIR PS-00023) piece TRAVERSE_DE_POSTE_DE_CONDUITE Pb_Centrage rdf :about= libelle NON COAXIALITE DES TROUS DE FIXATION SUPPORT CALCULATEUR CARMINAT SUR TRAVERSE.( GEREE PAR MO-02071) piece TRAVERSE_DE_POSTE_DE_CONDUITE Si on n'obtient pas de réponses quant au problème de centrage, il est possible donc d'étendre le résultat aux concepts pères : planche de bord ou montage pour le premier cas, ou géométrie pour le second. Le parcours de l'ontologie permet donc de se déplacer dans l'ensemble de la base, suivant les axes sémantiques modélisés sous forme de liens dans les ontologies, et de retrouver des descriptions-de-problèmes similaires. De plus, via le lien hypertexte (par exemple Pb_Centrage rdf about =), l'utilisateur peut accéder au contenu intégral d'un problème, c'est-à-dire au texte d'origine. Mentionnons que la gestion de synonymes et de termes sémantiquement proches constitue une solution intéressante face au vocabulaire hétérogène, rendant ainsi possible l'exploitation du système par les acteurs de métier ou culture différents. Les tests ont été effectués sur des ontologies Pièce et Problème couvrant le corpus correspondant à un extrait de la base SGPb d'un projet-véhicule : (1) un premier lot concernait un périmètre spécifique (Planche de Bord) pour 2 jalons, (2) un second lot traitait la totalité de la base du projet. Nous avons construit ces ontologies en prenant en compte les différentes sources des données (référentiel officiel recoupé avec les pièces issues de la base des problèmes). En termes métier, le domaine correspond au processus de montage. En l'état actuel, le périmètre Planche de Bord contient 118 concepts et 3 relations, dont les 22 pièces sont structurées en 6 zones d'architectes, 12 tronçons, et 3 niveaux de granularité reflétant le référentiel officiel; l'ontologie Problème comporte environ 43 types de problèmes; l'ontologie Prestation comporte 9 prestations extraites automatiquement de la base; ces ontologies ont servi à annoter 351 descriptions-de-problèmes. La base entière contient 792 concepts et 4 relations dont les 467 pièces sont structurées de la même manière, plus une typologie en 39 responsables pièces; l'ontologie Problème complète comporte environ 75 types de problèmes; l'ontologie Prestation comporte 38 prestations extraites automatiquement de la base; ces ontologies ont servi à annoter 4 483 descriptions-de-problèmes. Les recherches des descriptions-de-problèmes similaires effectuées pour le premier lot démontrent que la démarche est intéressante : les descriptions-de-problèmes ayant des pointeurs réciproques ont toutes été retrouvées (pour tous les cas où les descriptions-de-problèmes pointées par un lien faisaient partie du périmètre couvert – les tests étant effectués pour le périmètre de Planche de Bord, les descriptions-de-problèmes traitées peuvent pointer vers d'autres appartenant au même périmètre ou bien à un périmètre différent). La validité de la démarche a été démontrée ainsi : les utilisateurs courants de la base SGPb marquaient les doublons par un code spécifique dans un des champs de la base d'une part, et d'autre part de façon explicite dans le texte du commentaire. Au cours de nos tests, toutes les descriptions-de-problèmes ayant ce marquage ont été retrouvées. De plus, le nombre de réponses s'en trouve automatiquement réduit. L'exploitation immédiate de la recherche des doublons de validations a fortement intéressé les responsables de projets-véhicule. L'annotation des descriptions-de-problèmes avec les problèmes issus des textes et leur structuration en ontologies que l'on parcourt en cours de généralisation des requêtes, donne donc des résultats intéressants. On peut constater aussi que la modélisation de l'ontologie est essentielle dans cette démarche. Des modifications dans l'ontologie Problème, faites à titre de tests, ont eu des répercussions plus ou moins heureuses sur les résultats. Il est important de s'assurer de la validité de l'ontologie auprès des experts. Plus généralement, la démarche est fortement dépendante du corpus du domaine traité : dans le cas de sa réutilisation pour un autre domaine, il sera probablement nécessaire d'actualiser les règles qui permettent d'extraire de nouveaux concepts afin de couvrir les structures non traitées. Les règles sont en effet très liées au domaine. D'autres « réglages » nécessaires sont apparus au cours du processus. Par exemple les annotations avec des problèmes se font actuellement par appariement – l'annotation avec une étiquette est déclenchée sur la présence d'indices (par exemple Centrage va être détecté grâce à la présence des indices comme indexage, coaxialité, entraxe. Selon l'ordre de déclenchement, une description-de-problèmes peut se trouver annotée avec des termes différents : il serait intéressant d'ordonner leur déclenchement. Par ailleurs, il semble qu'adjoindre d'autres outils TALN (tagger et analyseurs) raffinerait davantage les résultats dans la construction de l'ontologie Problème. En retrouvant des informations sur les validations en double, Samovar a amorcé un processus de capitalisation qu'on pourrait étendre à plus large échelle – exploiter les incidents et les solutions existantes entre les différents projets-véhicule, voire au sein de la même gamme ou même projet, et à plus long terme, exploiter cette capitalisation pour détecter les problèmes récurrents d'une entreprise en faisant remonter les points sensibles « générateurs de problèmes » aux bureaux d'étude. On peut envisager d'exploiter le principe pour d'autres projets, à condition de faire des « ajustements » notamment au niveau des ontologies. On peut ainsi généraliser notre approche à d'autres domaines, par exemple pour construire et exploiter une mémoire des problèmes rencontrés dans un projet de conception d'un système complexe, (i.e. incidents rencontrés pour la conception d'un avion, d'un satellite, voire d'une centrale électrique, etc.). Nous proposons une méthode basée sur les étapes suivantes : analyser le processus visé (dans notre cas les validations d'un projet-véhicule), afin d'établir le modèle du domaine analysé. Ce modèle va guider la construction des ontologies; s'il existe une BD ou une nomenclature décrivant les composants de ce système, l'exploiter pour construire semi-automatiquement une ontologie Composant (i.e. notre ontologie Pièce). Sinon, utiliser des outils linguistiques et une méthode telle que celle décrite dans (Aussenac-Gilles et al., 2000) pour construire cette ontologie Composant; de même, s'il existe une description des caractéristiques d'un projet dans l'entreprise (resp. une description de la structure organisationnelle de l'entreprise), l'exploiter pour construire une ontologie Projet (resp. Organisation – cf. notre ontologie Prestation); Dans les deux cas, exploiter le modèle conceptuel construit préalablement, afin de restreindre l'extraction à l'information pertinente; constituer un corpus de textes décrivant les problèmes rencontrés lors d'un ou plusieurs projets existants, et provenant de documents textuels ou de champs textuels de BDs; exploiter un outil linguistique permettant l'extraction de candidats-termes (tel que Lexter et Nomino pour des textes en français); analyser les régularités dans les candidats - termes susceptibles de décrire des types de problèmes et écrire des règles heuristiques permettant, à partir de l'observation de ces régularités et des ontologies Composant et Projet, de proposer des termes à intégrer sous forme de concepts dans l'ontologie Problème et de proposer leur position dans cette ontologie. Cette phase n'exige pas de compétences particulières, mais peut être facilitée par de l'expérience dans le domaine linguistique; valider par un expert humain les propositions du système; annoter automatiquement par les concepts des ontologies Problème, Composant, Projet et Organisation les descriptions élémentaires de problèmes (dans le corpus textuel); exploiter un traducteur en RDFS des ontologies et un traducteur en RDF des annotations, de façon à pouvoir utiliser le moteur de recherche Corese pour interroger la base ainsi annotée de descriptions de problèmes. La démarche de Samovar est une démarche de construction de mémoire de projets axée sur les problèmes de validations. Elle se base sur l'extraction et l'acquisition des connaissances à partir des sources sélectionnées (système SGPb essentiellement), et leur modélisation sous forme d'ontologie multicomponentielle. Quatre composantes constituent l'ontologie : Problème, Pièce, Prestation et Projet, offrant ainsi quatre points de vue différents sur le processus des validations. Ces quatre points de vue constituent quatre points d'accès possibles à la masse d'informations, facilitant par là une lecture et une exploitation de ces informations. Samovar permet donc une navigation « profilée », guidée via les thèmes et les axes d'intérêt choisis par les utilisateurs. Samovar peut se comparer à plusieurs approches de construction d'ontologies exploitant des outils TALN à partir de corpus textuels. Terminae (Biébow et Szulman, 1999) propose une méthodologie et un environnement pour la constitution d'une ontologie à partir d'un corpus de textes. La méthode est basée sur l'étude des occurrences des termes dans un corpus afin d'un extraire la définition conceptuelle, et l'environnement aide l'utilisateur dans sa modélisation. Lexiclass (Assadi, 1998) permet de construire une ontologie régionale à partir d'une documentation technique, grâce à un outil classant, en fonction de leur contexte terminologique, les syntagmes extraits du corpus et aidant le cogniticien à découvrir les champs conceptuels importants du domaine. (Aussenac-Gilles et al., 2000) décrivent une méthodologie générale de construction d'ontologies à partir des textes en combinant différents outils TALN existants (i.e., Lexter pour l'extraction des candidats termes, et Cameleon pour l'extraction des relations, Terminae aidant à la construction de la hiérarchie). Notre démarche s'en rapproche : nous utilisons aussi différents outils spécifiques à chaque étape du processus, mais avec un corpus d'origines diverses (des interviews et des données textuelles issues des BDs existantes). (Maedche et Staab, 2000) proposent aussi une architecture générale pour la construction d'une ontologie à partir des textes : ils exploitent (a) différents outils TALN pour construire une taxonomie de concepts et (b) des techniques d'apprentissage pour extraire d'autres relations des textes. Enfin, notons que Samovar permet la recherche des problèmes similaires comme un système de raisonnement à partir de cas (Moussavi, 1999) .
Dans cet article, nous présentons Samovar (système d'analyse et de modélisation des validations des automobiles Renault), un outil de capitalisation de connaissances dans le domaine de l'automobile. Basé sur la construction et l'exploitation d'une mémoire de projet (en particulier la mémoire des problèmes rencontrés au cours d'un projet), Samovar repose sur un ensemble d'ontologies qui structurent les connaissances et guident la recherche d'informations dans la mémoire de projet par le moteur de recherche Corese. Ces ontologies ont été construites en exploitant un outil de traitement linguistique sur un corpus textuel et en définissant des règles heuristiques sur les candidats termes obtenus grâce à cet outil. Nous généralisons notre approche à la construction d'une mémoire de projet de conception d'un système complexe quelconque.
sciencesInfo_02-0463856_tei_DN_053_0173.tei.xml
termith-340-communication
Unicode 1 est en train de devenir un gros succès mondial en matière de codage multilingue de toutes les écritures du monde. Mais certaines critiques ont d'ores et déjà été émises et ce numéro spécial de Document numérique va les approfondir. Si nombre d'entre elles sont fondées, nous avons l'impression que certaines relèvent d'ambiguïtés liées aux concepts de caractères, de codages, de normes, etc. et de ce que chacun d'entre nous attend d'un tel standard. Nous allons donc essayer de dégager, avec une vision historique, quelques-uns de ces malentendus qui existent en fait depuis des siècles 2 ! Le mot « caractère » a de nombreux sens 3. En linguistique des langues occidentales, un caractère correspond à l'unité minimale (caractère abstrait pour Unicode) ayant un sens et à laquelle correspond un graphème. – On y emploie aussi ce mot caractère pour les « idéophonogrammes ». En typographie, c'est un synonyme de « type », la pièce de métal servant à imprimer. C'est aussi l' œil, la partie en relief sur le type qui, après encrage, donne une image (la trace imprimée) qu'on appelle aussi caractère et qu'en Unicode on va appeler glyphe (voir ci-dessous section 1.2). En typographie toujours, caractère a aussi le sens de « fonte 4 » et on dira par exemple « le Garamond est un caractère qui. .. ». En informatique, on parle aussi, par abus de langage, du « caractère 41 », pour le caractère dont le code est 41; etc. On vient d'y faire allusion, la notion de caractère en linguistique rassemble au moins deux entités différentes : le caractère abstrait et le graphème physique. De même en typographie distingue -t-on l'image imprimée (par exemple « M ») de ce qu'elle représente (« M majuscule 5 »). Bien qu'implicite dans toutes les normes d'échanges de caractères, cette distinction a été fermement prononcée par Unicode qui distingue explicitement « glyphe » et « caractère ». Voici des définitions possibles, sans aucune dépendance ni relation d'ordre. Caractère unité d'information abstraite utilisée pour coder des éléments de texte Glyphe forme géométrique utilisée pour présenter graphiquement des morceaux de texte On trouvera dans ce numéro spécial de nombreux détails sur cette distinction [AND02, HAR02, RAN02 ]. Donnons -en ici quelques explications préliminaires. Ces définitions permettent donc de distinguer le caractère abstrait « M majuscule » de la quasi-infinité de glyphes que sont ses diverses formes imprimées (par exemple M Times-Italique corps 10 : « M », M Zapf-Chancery romain corps 12 : « M » ou M Courier gras italique corps 8 : « M »). Bien sûr, cette distinction s'applique aussi à des caractères autres que les lettres (tels que § [½ € ♪ ⇒✂ etc.] et n'a aucune raison d' être limitée aux langues alphabétiques européennes ! En fait cette notion de glyphe correspond à celle d' « œil » en typographie française. L'encyclopédie La chose imprimé [DRE77] donne par exemple comme première définition à œil : « Quelle que soit l'origine d'une composition (chaude ou froide), l' œil des caractères est ce que l'on voit sur le papier. L' œil d'un A ou d'un a, d'un B ou d'un b, etc. est le signe imprimé permettant d'identifier 6 chacune de ces lettres respectivement en tant que A, a, B, b, etc. ». Mais le néologisme 7 américain « glyphe » commence à être très employé aussi le gardons nous ici. D'autant qu'il a quand même l'avantage de supprimer la polysémie du mot œil ! À un caractère correspond souvent un glyphe. Mais… Il y a des caractères sans glyphes (typiquement les caractères de commande 8). Un caractère peut être représenté par plusieurs glyphes; ainsi le caractère « a accent circonflexe » peut-il être composé à l'aide du glyphe « a » et de celui « ^ ». C'est aussi le cas des caractères composites utilisés, par exemple, pour les formules mathématiques où il existe un seul caractère « intégrale », mais selon le corps de l'intégrale (l'expression qu'elle contient) on utilisera le glyphe « ∫ » ou plusieurs glyphes en nombre variable : une crosse supérieure « ⌠ », plusieurs barres verticales « │ » et une crosse inférieure « ⌡ ». Un glyphe peut représenter plusieurs caractères; typiquement la ligature « fl » peut être un glyphe pour la suite des deux caractères « f » « l ». La relation glyphe-caractère n'est pas biunivoque; par exemple le glyphe « A » peut correspondre (de façon ambiguë sans contexte) au caractère « lettre latine A majuscule » aussi bien qu' à « lettre grecque ALPHA majuscule »; de même à la vision rapide 9 du seul glyphe « o » ne peut-on décider s'il s'agit de la « lettre minuscule latine o », du symbole « degré », du « rond en chef » (le petit o au dessus de « Å »), d'un « o supérieur » comme dans l'abréviation n°, d'une « puce creuse » ou « boulet blanc », voire du « chiffre zéro 10 ». Cette relation caractère-glyphe peut dépendre de la direction d'écriture. Au caractère abstrait « parenthèse ouvrante » correspond en français le glyphe « parenthèse gauche (» tandis qu'en arabe c'est « parenthèse droite) ». La distinction caractère-glyphe est très utile pour les caractères contextuels simples (lettres initiales, médiales ou finales en arabe, grec, français ancien, etc.) ou complexes (devanagari). Cette distinction caractères-glyphes conduit à deux principes pour la création d'un jeu de caractères normé : Même si des candidats au codage sont visuellement identiques (comme le A majuscule latin et le alpha majuscule) et pourraient de ce fait être représentés par un même glyphe, ils doivent quand même être codés séparément pour avoir une correspondance biunivoque entre majuscules et minuscules dans un alphabet donné et pour garantir une invariance aller-retour des données avec les normes existantes. Les variations de forme (des glyphes multiples) exigées par une présentation de qualité supérieure d'un texte ne doivent pas être codées comme des caractères séparés si leurs significations sont identiques. Enfin, les limites de cette distinction glyphe-caractère sont parfois difficiles à discerner aussi le codage d'Unicode parait parfois incohérent [HAR02, RAN02] surtout lorsque d'autres principes d'Unicode entrent en lice. On peut dire, en première approximation, que des standards comme Unicode servent à coder les textes. Mais il y a beaucoup de façons de voir le même texte. Prenons comme exemple, en cette année de bicentenaire, un extrait des Misérables de Victor Hugo 11. Pour l'auteur, ce texte est le résultat d'un manuscrit qui a évolué dans le temps (figure 1). Le texte imprimé (figure 2) n'a bien sûr plus la même allure (typo, mise en page, etc.), mais le contenu reste le même (à quelques détails d'édition près, comme le mot zig-zags du manuscrit qui n'apparaît plus dans le texte imprimé). Toutefois, on note quelques différences importantes : les divisions (traits d'union) dans le texte imprimé (« li-gnes » et « chas-seurs ») ne sont pas présentes dans le manuscrit et pourraient ne pas être présentes (ou être différentes) avec une autre justification; de même les mots « faux rembuchement » sont soulignés dans le manuscrit (en bas dans l'édition marginale, figure 1) mais en italique dans le texte imprimé. Sur cet exemple très simple, tout se passe comme s'il y avait trois choses : Une sorte de texte abstrait 12 qui, ici, serait celui de la figure 3. Des textes « visuels » (le manuscrit, les textes imprimés ou affichés sur écran). Des « textes codés 13 » décrivant les propriétés graphiques du texte visuel. La figure-2 pourrait ainsi être décrite par le texte Word/RTF de la figure 4 ou par celui HTML de la figure 5. Enfin, le texte envoyé à une imprimante PostScript (par exemple par Word ou comme ici par LaTeX) pourra être celui de la figure 6 où on reconnaît le texte entre parenthèses (certains caractères sont codés) le reste étant des commandes de mise en page (515 623 y par exemple étant un positionnement dans la page correspondant à un changement de ligne, Fb le passage en romain et Fa en italique). La division chas-seur est implicitement commandée par la présence du signe division « - » et par un changement de ligne; un crénage est prévu de part et d'autre du « v » de avantage, etc. Dans ces codages, on retrouve le texte pur (avec des codages spécifiques pour certains caractères) mais dans RTF on trouve quelques commandes typographiques (choix des fontes, fs20, choix de l'italique, < i >, etc.) alors que HTML se voulant indépendant du formatage, les deux mots « faux rembuchement » sont simplement mis en exergue (<EM>) : le navigateur décidera de souligner, mettre en italique, en gras, etc. En revanche, ce qui est envoyé finalement à l'imprimante (figure 6) est complètement déterminé (où couper, choix des fontes, etc.). Mais un texte abstrait peut avoir bien d'autres interprétations que celles graphiques. Considérons cette œuvre de Victor Hugo en entier. Pour une bibliothèque, la notice sera par exemple celle de la figure 7. Pour un libraire ou un bibliophile, elle peut se résumer par la couverture de l'ouvrage (figure 8). Si on doit citer cet ouvrage dans une bibliographie, on écrira : Hugo Victor, Les misérables, tome 2 (Cosette), J. Hetzel et A. Quantin éds., Paris, 1881. Un philologue, lui, sera sans doute enclin à utiliser un codage comme celui de la TEI 14 tandis qu'un spécialiste de critique génétique en fera une « version diplomatique 15 ». Un lexicologue enfin sera amené par exemple à trier les occurrences des mots par ordre alphabétique en respectant les usages de chaque langue (en suédois, par exemple, Å vient après Z). Cette fois, les différences sont, a priori, plus grandes ou ne relèvent pas que de la simple différence des concepts caractère/glyphe. Selon le cas, « Hugo » s'écrit avec une majuscule et des minuscules (la notice de la BNF), des petites capitales (la référence bibliographique) ou des capitales de titrage (la couverture). Pour les uns, on écrit le nom de l'auteur puis son prénom, pour les autres c'est le contraire. L'alphabet n'est pas le même d'une vue à l'autre : la BNF écrit « Oeuvres 16 » tandis que la couverture montre bien « ŒUVRE ». De même, le titre de la couverture est en capitales, celui de la référence bibliographique en italique tandis que la notice propose une forme adaptée sans doute à la recherche (indexation) : « [Les] misérables », etc. Enfin, si on avait pris comme exemple une œuvre écrite en hébreu., la tradition bibliothécaire veut que l'on compose les notices non pas dans la langue d'origine, mais en translittérant en caractères latins selon des normes précises 17. Ces quelques exemples montrent donc qu'il y a plusieurs façons de voir un texte, celle de l'auteur et celle du typographe n'étant pas les seules ! Disons dès à présent que ce que prétend coder Unicode c'est ce texte abstrait, mais ni la mise en page, ni la structure hiérarchique ou graphique d'un texte ! En fait Unicode, comme tout codage de caractère, n'est pas concevable seul, c'est un codage utilisé par un autre format (par exemple Word, XML, des métadonnées, PostScript, etc.). C'est peut-être ça que ne comprennent pas toujours ceux qui critiquent Unicode ! Le concept de norme est très ancien et correspond souvent à des besoins industriels. Il y a quelques années, l'AFNOR avait montré l'utilité des normes par une carte de vœux où l'on voyait un Père Noël incapable de mettre un cadeau dans une cheminée : les deux n'étaient pas à la même norme point de vue dimensions ! Restons dans le contexte des caractères : le 28 février 1723, à la demande de la Chambre syndicale de la librairie, le Régent signe une ordonnance réglementant les dimensions physiques des caractères d'imprimerie et notamment la « hauteur en papier 18 » : Veut Sa Majesté que six mois après la publication du présent règlement, tous les Caractères, Vignettes, Réglets et autres ornements de fonte servant à l'imprimerie, depuis le Gros-Canon jusqu' à la Nompareille, soient fondus d'une même hauteur en papier fixée à dix lignes géométriques […] 19 Cette hauteur est toujours en vigueur avec quasiment cette même valeur et permet d'utiliser des caractères venant de n'importe quelle fonderie sur n'importe quelle presse. Toujours dans ce secteur, les caractères étaient rangés dans des « casses » où la répartition était toujours la même de façon que les typistes trouvent toujours, d'un atelier à l'autre, le même caractère au même endroit quelle que soit la fonte utilisée. Mais, cette disposition a pu varier d'une époque à l'autre (la figure 9 montre une casse française antérieure à celle dite parisienne) et surtout d'un pays à l'autre 20. Depuis quelque temps, on utilise en français deux termes 21 : Les normes sont des règles approuvées par des instances officielles; elles offrent une certaine garantie de stabilité et de pérennité. Exemples : les normes ISO-8859 et ISO-10646. Les standards sont définis par des groupes privés, en général industriels ou commerciaux (par exemple, IBM et son EBCDIC ou Adobe et son PostScript) mais aussi collégiaux (par exemple, les consortiums Unicode et W3C, voir 1.4.4.). En anglais, le même mot (standard) est utilisé dans les deux cas, quoiqu'on qualifie souvent les seconds de proprietary. Les normes sont définies soit par divers organismes nationaux (par exemple en France l'AFNOR 22, en Allemagne le DIN, etc.), soit par des organismes regroupant géographiquement divers pays (par exemple le CEN au niveau de l'Europe), soit des organismes internationaux (l'ISO, voir ci-dessous, mais aussi l'UIT Union Internationale des Télécommunications) regroupant au niveau mondial tous ces organismes. Par ailleurs ces organismes s'appuient sur des organismes sectoriels, par exemple l'ECMA (European Computer Manufacturers Association) qui a beaucoup travaillé sur le codage des caractères vers 1980. À ces derniers on peut ajouter des groupes comme l'IETF (Internet Engineering Task Force) qui produit des RFC (Request For Comment) dont MIME et le W3C (World Wide Web Consortium) et ses « recommandations » comme XML. Tous ces organismes ont leurs propres règles de fonctionnement mais finalement suivent à peu près le même processus de définition d'une nouvelle norme que l'ISO. L'ISO est l'Organisation mondiale de normalisation 23. Créée en 1947, située à Genève, elle regroupe plus de 130 pays soit « membres » (la France, par exemple, y est représentée par l'AFNOR 24), soit « correspondants » ou « abonnés » (comme certains pays en voie de développement). Ce sont ces représentants qui votent l'approbation finale des normes, mais tout le travail est fait dans le cadre de comités techniques (TC) et de sous-comités (SC). L'élaboration d'une norme prend de nombreuses années et suit le processus suivant (chaque phase se terminant par un vote) : Expression du besoin (NP : new proposal); Spécifications, avec publication d'un CD (Comittee Draft) et de DIS (Draft Inter-national Standard); Approbation, publication IS (International standard), traductions, etc. Réexamen (tous les 5 ans). Notons que les normes sont en général payantes (et souvent relativement chères), et ne sont donc pas toujours faciles à trouver (notamment sur le web !), contrairement aux standards. Il est ainsi facile de suivre le développement du standard Unicode et beaucoup moins celui de la norme ISO-10646 qui en est pourtant un sur-ensemble ! Les organismes de « standardisation » eux sont privés et il peut s'agir soit d'une entreprise comme Adobe, soit de groupes collégiaux d'utilisateurs ou d'entreprises. Citons ici deux importants organismes de standardisation : Le consortium Unicode, composé essentiellement de compagnies (telles que Apple, IBM, Microsoft, Sun, Xerox, etc.), est donc en charge du standard Unicode. On trouvera l'historique et le fonctionnement du consortium dans l'interview de Ken Whistler à la fin de ce numéro (voir aussi [AND03] et [Uni00]). Le W3C, World Wide Web Consortium, produit un certain nombre de recommandations à valeurs normatives pour le web (telles que les définitions de XML, XSL, SVG, etc.). Le W3C est formé d'instituts publics (comme l'INRIA, l'Université de Keio, le MIT) et privés (actuellement il y a près de 500 membres). Le fonctionnement du W3C est assez proche de celui de l'ISO 25. Dès l'aube de l'humanité, les hommes ont appris à communiquer par signes, par la voix, puis par écrit 26. Mais ces modes de transmission de l'information se heurtent à plusieurs problèmes dont les principaux sont liés à des problèmes de distance, de vitesse de transmission, mais aussi de sécurité (avec les deux sens de confidentialité et de fiabilité). Pas étonnant donc que ce soient les gouvernements ou les militaires qui aient le plus œuvré dans cette voie des transmissions ! Mais une troisième force, celle du commerce, née aux États-Unis au xixe siècle, a aussi joué un rôle non nul dans cette course à la transmission de l'information. Voici quelques jalons de cette histoire qui nous permettent de mieux cerner le concept d'échange de caractères ! Depuis très longtemps, les marins avaient (avant la TSF, mais c'est toujours en usage) l'habitude de communiquer à l'aide de fanions qui peuvent être vus de loin. Le principe est le suivant : À chaque lettre correspond un fanion 27 (par exemple à Q correspond un fanion tout jaune, à N un damier noir et blanc et à L un damier noir et jaune. Un fanion est en quelque sorte un glyphe ! À chaque fanion, correspond un nom, aujourd'hui ceux de la radio : alpha pour A, bravo pour B, charlie pour C, etc. À chaque caractère d'Unicode va aussi être attaché un nom… L'écriture se fait verticalement, du haut des haubans vers le bas (bel exemple d'écriture verticale dans un contexte occidental). Les messages sont codés : ainsi N signifie « je suis en détresse » tandis que « QL » veut dire que le bateau est en quarantaine (figure 10). Ce codage ne permet toutefois pas d'émettre rapidement des textes longs. Les marines de guerre ont alors conçu un autre alphabet visuel : un marin se met au pied d'une cheminée du bateau et donne à ses bras (prolongés de fanions pour être visibles) des positions correspondant à une lettre ou un chiffre. Ainsi (figure 11) le bras droit à l'horizontal signifie B et à la verticale D. Mais ce codage utilise deux nouveaux concepts : La même position de bras (par exemple droit à l'horizontal) peut avoir deux sens : B ou 2; en effet, une position de bras signifie « ce qui suit est une série de chiffres » et une autre « ce qui suit est une série de lettres ». On va retrouver cette économie de codes avec les tableaux des machines à écrire, le code du Télex. Ceci correspond au concept d'extension, sur lequel nous reviendrons en 6.1. Certaines positions ont aussi une autre signification. Ainsi celle qui sert à C en mode alphabétique ou à 3 en mode numérique signifie aussi « aperçu » en réponse à une position du sémaphoriste de l'autre bateau voulant dire « je vais émettre un message ». On va retrouver ces codes dans le Morse (p. ex. le code QRM) ou dans les codages comme Télex, Ascii, etc. (voir ci-dessous 4.2.1). Utilisé de 1793 jusqu'en 1870, le télégraphe de Chappe utilisait un principe 28 un peu équivalent à celui des sémaphores de la marine : En haut d'une tour, deux bras articulés (en 4 morceaux, figure 12) pouvant prendre une centaine de positions. Chaque position est numérotée, par exemple | = 1 ⌊ =3 ⌉=9]=41. Chaque lettre ou chiffre a un numéro, par exemple A=11. Ici encore, on trouve des codes spéciaux (dits signaux réglementaires) pour les problèmes de transmission (par exemple « je suis en attente » ou « grande urgence »). Un code secret (vocabulaire) est utilisé pour la confidentialité des messages 29; à un moment donné, les codes 63+18 peuvent signifier Paris et 89+16 troupes. Notons que ce codage ignorait les lettres accentuées. Ce système a tellement bien fonctionné que l'armée française a pris un gros retard dans l'utilisation de la télégraphie avec puis sans fil 30 … Dans la seconde moitié du xixe siècle et au début du xxe ont lieu diverses inventions qui vont profondément modifier la transmission de l'information. Le télégraphe électrique a été inventé dès le xviiie siècle 31 mais fonctionnait au départ avec 26 fils puis avec seulement 5. Vers 1840, aux USA, Samuel Morse réussit à n'utiliser qu'un seul fil grâce à un codage original. Une première version de ce codage a été utilisée dès 1844 (sous le nom de American code) puis ce codage a été stabilisé comme International Morse Code peu après et est devenu le premier alphabet international (ITA1 International Telegraph Alphabet # 1). Les principes du Morse sont les suivants : Le codage est ternaire : trois états nommés bref, long et silence. Un silence court sépare les signes et un long les mots. Chaque état peut avoir des représentations (des glyphes !) variées : visuelles 32 (point, trait, espace; un, deux ou aucun bras levé à l'horizontale; un éclat lumineux bref, long ou le noir; etc.), sonores (un son bref (ti), un son long (ta) ou un silence) voire électriques (d'où l'utilisation pour la télégraphie). Divers caractères sont codés; Morse propose (figure 13) : les chiffres ou lettres (sans distinction majuscule/minuscule), codés avec un nombre variable d'états; par exemple 2 pour A « • ▬ » et 4 pour B « ▬ • • • »; des caractères propres à certains pays qui ont pu être ajoutés (comme le CH espagnol ou le Å nordique), mais pourquoi ceux -là et seulement ceux -là ? des signes de ponctuation 33 et des commandes. Certaines combinaisons de lettres servaient pour des fonctions spéciales (par exemple QRM signalait l'annonce de la transmission d'un message). Bien que divers prototypes aient existé avant, la première machine à écrire remonte à 1870 (Sholes et Remington). Dès cette époque, on trouve, au niveau du clavier (figure 14) des caractéristiques qui vont rester pratiquement des invariants jusqu' à nos ordinateurs. Les caractères sont alignés sur plusieurs lignes, une de chiffres (notons que les chiffres 0 et 1 sont absents : on tapait la lettre O et la lettre I), trois de lettres 34, les signes de ponctuation et autres étant sur le côté. Le second modèle, 1878, offrit des lettres minuscules avec le même principe qu'aujourd'hui : une touche commande le passage d'une série à l'autre (en fait le basculement de la corbeille portant les barres minuscules ou majuscules). On retrouvera ce principe dans le codage du télex ! Il est intéressant de signaler la présence de l'esperluette « & », caractère d'origine latino-médiévale mais très en usage dans les noms d'entreprises américaines : la machine à écrire 36 a commencé par une vocation commerciale et il ne faut pas s'étonner que l'on retrouve de nombreux caractères commerciaux sur nos claviers d'ordinateurs et dans les codages de caractères ! Depuis cette époque, la machine à écrire a certes évolué sur le plan technique (vitesse de frappe, entraînement du papier par roues à rochets, boules, ordinateurs, etc.) mais relativement peu dans son ergonomie et le codage sous-jacent : à une touche (ou à une combinaison de touches) correspond un caractère ! Citons quelques points importants néanmoins : Invention de la touche escape (SUP ou MAJ) et des touches mortes permettant de composer un caractère à partir de plusieurs (la séquence « esc ^ a » par exemple permet d'obtenir « â ». Ce que permet encore Unicode ! Plus grand nombre de caractères : ainsi dès la fin du xixe siècle voit-on sur les claviers américains les caractères # @ (que l'on vient de découvrir en France il y a quelques années !) & $ etc. Adaptation du clavier à des langues non anglaises. Le clavier flamand est du type AEUZF, l'anglais QWERTY et le français du type AZERTY (figure 15). Divers autres modèles de claviers ont été proposés (outre l'américain Dvorak cité plus haut, mentionnons le français Neuville 37) mais sans succès universel ! Bien sûr ces claviers ont été adaptés aux langues alphabétiques non latines (hébreux, arabe, cyrillique, etc.) mais pas vraiment aux idéogrammes des langues orientales ! Dans ce même souci d'industrialisation et de gain de temps, sont apparues dans le de l'imprimerie 38 diverses inventions 39 qui ont aussi fortement marqué, de façon implicite, les problèmes de codage. La Linotype, inventée par Mergenthaler en 1886, permet de composer des lignes de caractères à partir d'un clavier : le linotypiste tape le texte, des matrices portant l'empreinte des caractères sont automatiquement assemblées, un système d'espaces en coins biseautés permet de justifier les lignes, le plomb est alors coulé à chaud et une « ligne bloc » est ainsi obtenue, qu'il suffit ensuite de mettre dans une galée. Ces machines ont servi dans la presse (où rapidité prime sur qualité) jusque vers 1980. La Monotype (Lanston, 1899) repose sur le même principe de composition à chaud, mais distingue très nettement deux tâches : celles de la saisie et celle du moulage et s'adresse beaucoup plus aux travaux de labeur. Mais au-delà des problèmes techniques, quelques concepts émergent de ces inventions. La saisie se fait par clavier. Même si, contrairement à ceux des machines à écrire, le nombre de touches est beaucoup plus grand (environ 300 pour un clavier de Monotype, sans tenir compte des positions spéciales, contre une cinquantaine pour une machine à écrire), le nombre de caractères est limité contrairement aux casses d'autrefois où il était toujours possible d'ajouter des casseaux 40. Même si la banalisation des usages américains a pu être, entre autres, une raison expliquant la perte des accents sur les capitales, voire sur les bas de casse, il faut reconnaître que la société Monotype (notamment avec les photocomposeuses) a tout fait pour s'adapter au marché européen (voire mondial) en offrant de très grands jeux de caractères, notamment pour la gestion des diacritiques pour 21 langues européennes 41. La communication entre les deux organes, clavier et fondeuse, de la Monotype se faisait à l'aide de rubans perforés à … 31 canaux ! En fait on y codait déjà un mélange d'ordres de composition et de données (le texte à composer). Mais ces rubans, pas plus que ceux du télégraphe automatique, ne semblent pas avoir été conservés à des fins de stockage. C'est qu'en effet ce mélange de commandes de composition, de transmission et de texte pur est très difficile à utiliser sur un autre matériel ou avec une autre mise en page que ceux spécifiquement prévus initialement. Ce que proposent les matrices des Linotype, Monotype, etc. ce sont des caractères au même sens qu'en composition manuelle. On y trouve par exemples des ligatures comme « fi ». Mais aussi toutes les déclinaisons graphiques d'un caractère (petites capitales, gras, etc.). C'est au typiste de choisir d'utiliser la ligature « fi » là où l'auteur n'a sans doute fait qu'écrire « fi », traduisant ainsi en terme de rendu (graphique) le concept de texte abstrait du manuscrit. De même pour tous les attributs typographiques ! L'invention de Morse a eu le succès que l'on sait. Mais assez vite, on s'est rendu compte que le télégraphe serait mieux utilisé si la transmission se faisait en deux phases : 1) saisie du texte codé et 2) envoi automatique de ce message. C'est ainsi qu'utilisant la technique des rubans perforés de Jacquard connus depuis le début du xixe siècle et celle des machines à écrire, apparaît le Wheatstone Automatic Telegraph où les textes à télégraphier sont d'abord saisis sur un ruban perforé à deux canaux (tiret et point). Au début du siècle, le Français Baudot modifia ce code en 5 canaux ce qui devint l'ancêtre du système TTS et du télex (voir figure 16 et ci-après 3.5 et 3.7). Si, au xixe siècle, les rubans perforés sont de plus en plus employés pour transmettre des messages ou commander des machines, c'est quand même Hollerith qui inventa la carte perforée comme support pour le stockage et le traitement de l'information (de données). Ses premières cartes utilisées pour le recensement des États-Unis ne comprenaient que des chiffres répartis sur 45 colonnes. En 1931, la société fondée par Hollerith, après divers regroupements, devint IBM (( International Business Machines) et définit le standard de carte perforée à 80 colonnes (figure 17). Chaque carte comprend donc 80 colonnes. Dans chacune on peut faire 1, 2 ou 3 trous dans les lignes appelées 12 ou 11 (dans la partie supérieure) et 0 à 9. Un trou unique dans la ligne 0 d'une colonne signifie 0 (col. 61 de la figure 14), un double trou en lignes 12 et 1 indique un A (col. 2). Des codes à trois trous permettaient de coder parenthèses, ponctuation, etc. Notons l'absence de caractères accentués, même dans les codages de la compagnie Bull qui, d'origine norvégienne, s'est installée à Paris en 1931 et a été le principal concurrent d'IBM pendant des années 42. Le réseau mondial du télex date des années 1920 et permettait de connecter entre elles des stations formées d'un clavier, d'un lecteur/perforateur de ruban, d'une imprimante 43 et bien sûr d'un dispositif de transmission. Les rubans (et la transmission) étaient basés sur un système 44 binaire à 5 moments qui est devenu l'International (Telegraph) Alphabet 2. Un ruban de télex était formé de 6 pistes dont une, appelée F (figure 16), perforée tout du long (pour l'avancement du ruban sur des picots). Les cinq autres positions 45 (numérotées 1 à 5) peuvent être perforées ou non permettant d'avoir 32 codes. Mais, comme pour les machines à écrire, deux codes (en l'occurrence ceux numérotés 29 et 30) permettent de dire quelque chose comme « ce qui suit correspond à la colonne table haute » ou « ce qui suit correspond à la colonne table basse » (voir ci-dessous la section 6.1). Donc finalement on peut coder ainsi 2×(32–6)+6=58 caractères. L'alphabet comprend relativement peu de signes : les 26 lettres de l'alphabet latin 46 et quelques signes de ponctuation (il n'y a même pas le point virgule). En revanche, on voit déjà apparaître des signes de composition (p. ex. les code 28, line feed, interligne, et 27, retour chariot, qui permettent de mettre en page les lignes) mais aussi le code 10 (appel) qui met en marche une sonnerie chez le correspondant pour qu'il sache qu'il va recevoir un message et soit prêt à y répondre. Notons que le télex est encore en usage aujourd'hui ! Combinant à la fois le télégraphe et le télex, avec des rubans perforés à 6 canaux, ce système a été très conçu vers 1930 mais pratiquement utilisé que depuis 1950, notamment entre divers sites d'un même organe de presse ou d'une imprimerie. Faisons à présent le point sur ce concept que nous avons utilisé plusieurs fois sous le nom de moment, canal, taille de codage, etc. Reprenons le code du télex (figure 18) et classons le cette fois non par ordre alphabétique mais selon les codes (figure 19). En colonne de gauche, on indique les canaux du ruban perforé (voir figure 16). La colonne suivante représente la même chose, mais avec des 0 et 1 à la place des points pour l'absence de perforation et des boulets pour des perforations. Ceci correspond à des nombres en base 2, dont l'équivalent est donné en base 10 colonne suivante. Le nombre de canaux (ou pistes) s'appelle aussi nombre de moments 47. Les chiffres 0 et 1 s'appellent des bits. On peut donc dire que le télex est un codage à 5 moments ou à 5 bits. Chacune des 5 positions binaires pouvant prendre la valeur 0 ou 1, on peut avoir 25, soit 2x2x2x2x2x donc 32 caractères différents. De façon plus générale, si un codage est fait avec n positions binaires (ou moments, ou canaux !), alors ce codage permet de traiter 2n caractères. C'est notamment en jouant sur le nombre de ces canaux (ou sur le nombre de bits) que les diverses normes de codage des caractères ont pu augmenter leurs répertoires. Jusqu' à ce jour, la seule norme de codage universellement utilisée aura été l'Ascii. Ce codage a vu le jour aux USA vers 1965 et a fourni pendant plus de trois décennies le seul codage non ambigu à 7-bits. Ses contenu et nom (ISO 646) actuels datent de 1983. Dans les années 1940 apparaissent les ordinateurs qui remplacent les machines comptables mais en gardent notamment les cartes perforées et leurs codes. Mais, très vite, la plus grande confusion règne en matière de codage des informations de façon interne (ce qui n'était pas très gênant) mais aussi externe, rendant difficile toute communication d'un ordinateur à l'autre. Ceci était même vrai pour les diverses machines d'un constructeur. Le géant de l'époque, IBM, est ainsi amené à définir peu après 1955 le codage BCD. Le codage BCD (Binary Coded Decimal) est un code à 6 bits (donc 64 caractères), basé sur celui des cartes perforées. Il ne comprenait que les lettres majuscules, les chiffres et ponctuations et quelques commandes comme CR, carriage return (figure 21). Il a donc été abondamment utilisé sur les premiers ordinateurs d'IBM et a servi de base à son successeur EBCDIC (voir ci-dessous section 5.2.1) et aux normes ISO/R646-1967 et Afnor NF Z62-010. Un autre constructeur américain, Control Data Corporation, a défini un codage à 6 bits en remplaça les caractères de commande par d'autres symboles (tels que < et >); il est resté en usage très longtemps au Canada sous le nom d'Ascii banbang. Mais IBM n'était pas le seul constructeur d'ordinateurs et vers 1960 on notait encore une très grande variétés de codages (figure 22). IBM et les autres constructeurs (dont Univac, Burrough, Honeywell, etc.) se sont regroupés pour définir un code commun vers 1960. Il a d'abord été adopté par l'ISO et le CCITT en 1963 sous le nom de IA5 (International Alphabet # 5) puis a été publié en 1967 par l'organisme de normalisation américain American Standard Association sous le nom d'Ascii (American Standard Code for Information Interchange). Le principe de l'Ascii est une structure à 7 moments (7 bits) permettant donc le codage de 27 soit 128 caractères (figure 23). Ce codage ne comprend en fait que 95 caractères « imprimables 48 » codés en positions 3310 à 12610, les autres étant des codes de commande. L'Ascii contient donc 33 caractères « de commande » : les 32 premiers (numérotés 49 de 0 à 001F16) et le dernier (007F16). Ces caractères étaient en fait des caractères de commande pour périphériques tels que écrans, perforateurs de ruban ou Télétypes. Il y a par exemple : CR (Carriage Return) pour « retour chariot » et LF (line feed) pour fin de ligne 50; Bell (sonnerie) pour activer la sonnerie d'un télex, etc.; DEL (delete) dont le code 7F16 (soit 1111111 en binaire) permettait de supprimer un code erroné en trouant toutes ses positions dans un ruban perforé; ESC (escape) et BS (backspace) permettant d'écrire la séquence E ESC ' BS pour commander l'affichage sur écran d'un É, mais ceci ne valait que pour quelques accents, ne permettait aucun tri alphabétique et aucune utilisation en dehors des écrans et n'a donc été que très peu utilisé; SO (shift out) et SI (shift in) qui, combinés avec ESC, permettaient de faire des extensions (voir ci-après section 6.1); notons qu'ils existaient déjà dans BCD. Ces caractères étaient donc très liés à une technologie aujourd'hui périmée (rubans notamment) et ne sont pratiquement plus utilisés de façon normale. Les cases correspondantes étant donc inutiles, nombre de standards propriétaires les ont utilisées pour y mettre d'autres caractères (voir section 6.4). Les 95 caractères sont les caractères dits « graphiques » car on peut les afficher sur un écran ou les imprimer. Ces 95 caractères sont eux -mêmes répartis en 3 groupes (voir figure 23) : 83 caractères obligatoires : l'espace, 52 lettres : A-Z et a-z, 10 chiffres : 0-9, 20 signes de ponctuation ou autres : ! " % & ' () * +, -. / :; < = > ? _ Deux caractères « au choix » 51 # ou £ et $ ou ¤ (symbole monétaire international dont le glyphe représente une pièce d'or où brillent quatre rayons de soleil). Dix positions réservées à des caractères d'usage national. La norme Ascii comprenait donc à l'origine : des variantes nationales (parfois plusieurs pour un même pays – c'est le cas de la France); voir figure 24; une version internationale de référence, IRV, où les positions optionnelles sont affectées d'un caractère précis. Plusieurs raisons ont amené à préciser ce codage. La version internationale de référence n'était pas la version américaine Ascii (d'ailleurs appelée, à l'époque, us-ascii) : irv contenait le symbole ¤ tandis que us-ascii utilisait le dollar. On ne trouve donc le symbole ¤ sur pratiquement aucun matériel informatique (sauf au Canada et sur certains claviers très fidèles à Latin-1, comme ceux des SUN). En revanche, les caractères @ et #, utilisés en comptabilité américaine et alors complètement inconnus en France (bien que d'origine latine), sont systématiquement sur tous nos claviers d'ordinateurs. Les informaticiens américains se sont mis à utiliser nombre des caractères optionnels (#, @, les accolades, etc.) dans leurs programmes ce qui a donné un poids anormalement fort à la version américaine Ascii. Il y avait une grande incohérence d'un pays francophone à l'autre à tel point d'ailleurs que la France a abandonné sa norme Z62010 au profit de l'Ascii en 1983. C'est pourquoi, en 1988, la norme ISO 646 a pris exactement le codage Ascii de la figure 23. Signalons que bien que diffusée par l'AFNOR, cette norme n'a pas été traduite en français ! Cette norme a aussi été publiée par le CCITT comme Recommandation V.3 et mise à jour en 1984 sous le nom de T.50 [MAR90 ]. Depuis, d'autres normes ont été définies mais, compatibilité oblige, cette norme sert de base à toutes les autres normes et en particulier à Iso-Latin-1 et par là à Unicode. Par ailleurs, comme elle est suffisante pour la majorité des Américains, cette norme Ascii reste très importante ! En revanche, ça a donné la mauvaise habitude d'envoyer des mails français sans lettres accentuées comme si on ne pouvait pas le faire ! Mais la grande force d'Ascii aura été d'avoir servi de base à des codages plus complexes pour coder notamment tous les codages à 8 bits comme ISO-Latin-1. Le principe est simplement de coder un caractère avec une succession de caractères Ascii, le premier en général étant alors un caractère réservé qui doit donc lui aussi être codé. Ainsi peut-on écrire du HTML avec le seul Ascii : le caractère & doit alors être remplacé par la séquence & ce qui permet donc d'utiliser ce symbole comme début du codage, plutôt du nommage, d'autres caractères. La figure 25 en donne quelques exemples pour des applications comme MIME 52. Ceci concerne aussi bien des lettres accentuées, des signes de Latin-1. TeX va plus loin et offre, outre des caractères aussi accessibles par HTML (comme δ) de nombreux glyphes, y compris typographiques (comme le tiret cadratin — qui n'existe de façon normative que dans Unicode). Il s'agit donc d'une norme d'échange. Mais, par abus de langage et sans doute par méconnaissance des principes de codage, certains informaticiens ont tendance à utiliser le mot Ascii avec le sens de « non formaté », voire de « texte source ». Le codage Unicode a, depuis, introduit les concepts de texte enrichi (fancy text) et de texte brut (plain text) (voir section 1.3). Ascii est un codage à 7 bits. L'expression Ascii-8bits est un abus de langage à bannir d'autant plus que selon les uns il signifie EBCDIC, selon d'autres Iso-Latin1, voire des codages propriétaires comme ceux d'Apple ou de Windows dont il existe un très grand nombre de variantes (voir RFC1345). Ascii a eu d'abord comme vocation l'échange de programmes informatiques et de données techniques ou comptables. C'est ce qui explique le fait qu'il n'y ait pas de glyphes typographiques (par exemple le blanc insécable ou le symbole paragraphe qui eux font partie de ISO-8859) ou que les caractères soient polyvalents voire ambigus (par exemple le signe « - » dont on ne sait s'il s'agit du signe moins « – », du trait d'union ou du signe division en typographie « - » ou du tiret typographique « — »). Bien qu'Unicode dise être compatible à 100 % avec Ascii, ceci n'est pas vrai : le caractère de code 002716 « ' » que l'on retrouve en Latin-1 sous le nom de APOSTROPHE existe bien dans Unicode (même code, même nom), mais avec la mention « le caractère recommandé pour l'apostrophe est 2019 ' ». Ce qui veut dire qu'un texte écrit en Ascii doit être recodé pour être utilisable en Unicode 53. Nous nous sommes un peu étendu sur ce codage car il est encore très employé mais aussi pour montrer que même sur un codage aussi simple, il peut y avoir beaucoup d'interprétations, de variances d'un constructeur à l'autre, d'un utilisateur à l'autre, etc. Toutes choses que l'on va naturellement retrouver avec Unicode ! L'anglais étant pratiquement la seule langue utilisable avec l'Ascii, de nombreux organismes ont bien sûr tenté de définir des normes plus riches. La plus célèbre est la norme, ou plutôt la série de normes ISO 8859, dont l'une est plus connue sous le nom de Latin 1. Les organismes de normalisation ont très tôt essayé de coder d'autres caractères que ceux Ascii : 1973 : norme ISO 2022 reprenant et étendant le concept des caractères d'extension d'Ascii (ESC, SO et SI). Ce sera le point de départ des normes permettant de coder le japonais par exemple Dès 1978, études « officielles » pour un codage des langues latines sur 8 bits. En 1978, norme UKPO pour le VIEWDATA character set pour symboles et lettres accentuées (pour le videotex). En 1979 norme ISO 4873 « jeux de caractères codés à 8 éléments pour l'échange d'information » En parallèle, les constructeurs définissent de leur côté des standards pour leurs propres besoins. Nous en retiendrons deux ici. EBCDIC, abréviation de Extended Binary-Coded Decimal Interchange Code, est le codage propriétaire qu'IBM a substitué à BCD en 1964 pour ses ordinateurs de la série 360. EBCDIC est défini sur 8 bits mais ne propose en gros que l'équivalent de l'Ascii. Toutefois, il existe des variantes pour de nombreuses langues (57 jeux nationaux). La figure 26 montre la présence de lettres accentuées françaises, le grand nombre de caractères de commande et … la place perdue ! Ce codage a été suffisamment important pour qu'Unicode définisse officiellement une transformation d'EBCDIC vers Unicode (UTF-EBCDIC). De son côté le constructeur américain DEC (qui a tenu une bonne part du marché mondial grâce à ses machines orientées réseau et à son Vax) a défini un codage 8 bits pour ses terminaux VT-200 : Multinational Character Set 54 qui servira de base pour Latin 1. Notons que les œ et Œ étaient dans le codage de VT200 et ont été remplacés par x et ÷ dans Latin-1… Se basant sur ces « standards de facto » la norme la plus importante pour les langues européennes a été définie par l'ISO et est connue sous le nom d'ISO/CEI 8859-n (avec, actuellement, n de 1 à 16) qui est une extension à 8 bits de l'Ascii. Le seul fait de passer de 7 à 8 bits permettait de doubler le nombre de caractères, donc de passer à 256 caractères (moins les fameux caractères de commande !). Comme les langues en usage en Europe utilisent plus de 256 caractères différents, il a été décidé de regrouper ceux -ci par affinités … commerciales. C'est ainsi qu'il y a ISO Latin-1 pour la zone occidentale, Latin-2 pour la zone orientale, etc. Pour des raisons politico-économiques, un codage spécial (Latin-5) a dû être ajouté pour la Turquie et ses partenaires ! Par ailleurs, depuis quelques années, de nouveaux codages sont proposés pour satisfaire la qualité « linguistique » de certains alphabets : c'est ainsi que le codage Latin-9 corrige les manques de Latin-1 pour le français (où « Œ », « œ » et « Ÿ » étaient absents) et que Latin-8 permet d'écrire l'ancienne orthographe du gaélique irlandais. Toutes ces normes 8859-n ont trois parties : les 128 premières positions sont rigoureusement identiques à l'Ascii, les 32 autres sont de nouvelles commandes, mais identiques dans tous les codages 8859-n, les 96 dernières positions sont spécifiques au codage 8859-n. On trouvera l'ensemble de ces codages et les langues traitées correspondantes dans l'article de Sylvie Baste dans ce numéro 55. Ici, on voit les codages liés au français. Les caractères spécifiques au codage Latin-1 sont montrés figure 27. On y remarque que les « ligatures » Œ et œ ainsi que la capitale Ÿ en sont absentes (voir à ce sujet [AND96]). Mais à part cette erreur, Latin-1 permet de coder tous les caractères français et d'Europe occidentale; c'est pourquoi elle a été adoptée par de très nombreux produits (ou d'autres normes comme HTML). Le répertoire 56 de Latin-1 comprend donc (les possesseurs d'ordinateurs n'en sont pas toujours conscients !) : tous les caractères d'Ascii, des capitales et minuscules avec signes diacritiques (comme À Ç É Ï Û, à ç é ï û, mais aussi Í ou ò, etc.), des lettres propres à certaines langues (Ø Ð Ñ å ß, etc.), des symboles monétaires (¢ £ ¥ ¤) des symboles scientifiques (± ÷ × µ, etc.) des signes typographiques (espace insécable, ° § ª, etc.) des signes spécifiques à certaines langues( « » ¿ ¡, etc.), divers symboles (© ® ¦, etc.). Pour leurs saisie sur clavier, ces caractères sont souvent directement associés à une touche ou à une combinaison de plusieurs touches; par exemple, sur les SUN/Unix, « © » se tape « composer C O ». Latin-1 est suffisamment important pour que Adobe ait créé un ISOLATIN1 Encoding vector (voir section 7) depuis longtemps, ce qui fait que tous ces caractères sont toujours présents dans toutes les fontes. Enfin, Latin-1 correspond aux premiers codes d'Unicode ! ISO Latin-1 présente quelques lacunes pour les langues d'Europe occidentale. Outre les Œ, œ et Ÿ manquants, on a regretté l'absence de caractères carons. Par ailleurs, la création du signe euro nécessitait la définition d'un code pour ce nouveau glyphe. Il n'était pas question de modifier ISO Latin-1 : une nouvelle variante ISO8859 a donc été mise en chantier et après de nombreuses années de discussions (elle était connue sous le nom de Latin-0), elles a été adoptée en 1999 sous le nom d'ISO Latin-9, ou de ISO8859-16. Pour adopter de nouveaux symboles, il a fallu remplacer certains de Latin-1. La figure 28 montre les différences entre ces deux normes. La norme ISO Latin-9 devrait donc être encore plus utilisée que ISO Latin-1 car elle offre l'intégrité des caractères français et le symbole euro. Si effectivement de nombreux constructeurs ont donné leur accord pour suivre cette norme, il se trouve qu'ils ont aussi donné leur accord pour Unicode et il est probable que ISO Latin-9, ayant tardé à sortir, ne soit pas vraiment adoptée ! Si chaque norme 8859 permet en général de couvrir plusieurs langues 57, il n'est pas possible (sauf en codant explicitement les changements de codage employés dans un texte) de mélanger deux normes 8859, par exemple d'écrire une phrase contenant du grec (ISO 8859-7) et de l'arabe (ISO 8859-6). On a vu que les machines à écrire (section 3.2) puis le télex (3.5 permettaient de faire correspondre deux caractères par touche grâce à un mécanisme (table haute ou basse pour la machine à écrire, codes d'inversion lettre/chiffre pour le télex). De même les codages BCD puis Ascii et donc Latin-1 comprenaient trois caractères de commande (ESC, SO et SI) qui permettaient d'étendre les jeux de caractères. Dès 1973, la première version de la norme ISO-2022 a explicité l'emploi de ces trois codes. Cette norme a été redéfinie en 1985 et permet de manipuler des jeux de 8 bits. Marti [MAR90, pages 247-255] donne les détails de fonctionnement de ces extensions qui sont finalement plutôt complexes. Cette norme a servi notamment à la définition des caractères mosaïques et à celle de la norme ISO-4873 d'où est issue la norme britannique de codages 8 bits BS-6006. Le même principe d'extension est utilisé par la norme japonaise JIS X 0201 (voir 6.3). Unicode a pu se passer de ce concept, grâce à l'emploi de codage à 16 voire 20 bits. L'alphabet phonétique international API 58 a été défini par l'Association Internationale de Phonétique en 1993 et révisé en 1996. Il ne s'agit toutefois pas d'un codage dans le sens où nous l'entendons ici, chaque « fonte phonétique » utilisant son propre codage. Mais, ces caractères font maintenant partie d'Unicode (rangée 02) ce qui en fait désormais un répertoire de facto. La norme Iso-8859 couvre de nombreuses langues dont notamment l'arabe, l'hébreu, le cyrillique, le thaï et le grec. Mais souvent ces langues font l'objet d'autres codages, soit pour des raisons politiques ou historiques, soit pour des problèmes d'exhaustivité. Par ailleurs, les langues extrême-orientales nécessitent des milliers de codes qui ne peuvent tenir sur 8 bits ! La figure 29 donne quelques-uns de ces codages multi-octets 59. Par ailleurs, de nombreuses RFC 60 ont été définies pour les langues concernées mais Unicode risque de périmer tous ces codages spécifiques. Divers constructeurs ou logiciels utilisent des codes « propriétaires ». Si ceci pouvait rester anecdotique il y a encore peu (de nombreux programmes de conversions existant), l'utilisation massive de l'Internet depuis des PC fait que la moindre déviance par rapport à une norme devient exaspérante dès que l'on utilise un ordinateur d'une autre marque ou un programme diffèrent (en incluant notamment sous le nom de programme les outils de lecture des textes sur le web). Voici quelques exemples de codages propriétaires, c'est-à-dire propres à un constructeur et incompatibles avec d'autres codages ! En général, les Macintosh du monde occidental utilisent le Standard Roman Character Set (à 8 bits) dont les 128 premiers codes sont identiques à l'Ascii mais dont les suivants diffèrent partiellement d'ISO Latin-1. Un codage à 2 octets est disponible pour les langues orientales. MacOS par ailleurs récupère les places des caractères de commande pour y mettre quelques caractères manquants de Latin-1 (comme œ) mais aussi des accents flottants (voir section 7). IBM a défini, entre autres, EBCDIC (voir ci-dessus 5.2.1) et pour ses PC la notion de code page qui n'est jamais que l'adaptation à un pays donné du codage voulu. codepage 850 pour le système DOS. Codage à 8 bits, dont la première partie est l'Ascii. Dans la second table on trouve diverses lettres accentuées, ligatures, mais aussi tout une panoplie de symboles graphiques (comme ╟ ▒ ►) qu'Unicode a repris dans sa rangée 25. codepage 1252 pour Windows avant 2000. Il était identique à ISO Latin-1 (mais a évolué, incluant par exemple le symbole euro qui n'est pas dans Latin-1) à cette différence près que Windows utilise les positions 0 à 5 (caractères de commande d'Ascii) pour y mettre quelques signes diacritiques et les positions 128-159 (caractères de commande de Latin-1) pour y mettre certains caractères tels que divers guillemets et apostrophes, les croix † et ‡, le caractère ‰, les tirets — et –, nos ligatures Œ et œ, etc. Actuellement, Windows utilise un sous-ensemble d'Unicode et affiche même les noms des caractères selon la norme française. Le monde de TEX et LaTEX à défini un codage, dit de Cork et utilizable par défaut avec le paquetage t1enc, qui est en fait un codage Latin-1 où les caractères de commande ont été remplacés dans la zone 010-3110 des caractères supplémentaires, comme des accents flottants, guillemets et ligatures (fi, ffi,ffl, etc.) et dans la zone 12810–15910 par des caractères de Extended Latin d'Unicode, comme d ou ğ. Notons que ces derniers glyphes sont utilisés soit automatiquement (le compilateur TeX remplaçant la séquence « fi » par la ligature « fi ») soit par nom (la séquence « ^i » créant « î » et celle « dd » nommant « đ ». D'autres paquetages permettent d'appeler d'autre codages, notamment pour les langues cyrilliques et orientales, voire pour tout Unicode (Omega). Puisque les glyphes peuvent être en nombre infini, il n'y en a bien sûr pas de norme. Toutefois de nombreux standards propriétaires essayent de modéliser les casses des fontes du temps du plomb, dont Type-1 (PostScript), TrueType et maintenant OpenType. Ils ont en commun de considérer qu'une fonte numérique est une base de données contenant des procédures de tracé de caractères qui sont appelées par nom et qui produisent le dessin d'un caractère en fonction d‘un certain contexte (corps, espace graphique, couleur, etc.). Ces bases sont indépendantes des codages utilisés, un vecteur de codage (encoding vector) permettant d'associer au code du caractère un nom de glyphe (si ce vecteur est celui de Latin-1, on associera au caractère de code 004116 le nom LATIN_A_CAPITAL). Le même jeu de caractères (par exemple Times-Roman) contient ainsi beaucoup plus de caractères que les 256 que l'on peut voir d'un coup. Le reste de ce numéro est consacré à Unicode et nous renvoyons donc le lecteur aux divers articles, notamment à celui d'introduction par Patrick Andries et à l'entretien de Ken Whistler qui raconte l'histoire d'Unicode .
La transmission de l'information s'est faite d'abord de façon visuelle (fanions de la marine, télégraphe Chappe, Morse, etc.) avant d'être électrique (Télex) puis informatique. Nous présentons l'évolution des divers codages de caractères liés et les normes associées (IAI, Télex, BCD, Ascii, Latin-n et enfin Unicode). Cet aperçu historique nous permet de préciser à l'occasion divers concepts tels que codage, caractère, glyphe, norme, standard, etc.
sciencesInfo_06-0253613_tei_DN_063_0013.tei.xml
termith-341-communication
Les services d'archives possèdent des quantités phénoménales de documents, le plus souvent manuscrits, représentant des centaines de kilomètres de rayonnage. Bien que les archivistes aient toujours construit des index, des outils de recherche, les quantités de documents sont telles qu'il en reste une grande partie difficilement accessibles. En effet, la masse de documents oblige chaque lecteur à feuilleter une énorme quantité de pages avant de retrouver les pages contenant l'information qu'il recherchait. Ce feuilletage est très souvent rédhibitoire. Dans le même temps, le nombre de lecteurs est de plus en plus important, allant jusqu' à saturer les salles de lecture. Les archives ont donc un défi important à relever : comment rendre accessibles au public ces millions de pages contenant des informations manuscrites, pour lesquelles il n'existe pas encore d'outils de recherche construits par les archivistes ? Des campagnes massives de numérisation ont commencé. Ces numérisations permettent une préservation numérique des documents, une diffusion des images via le web, un accès simultané et un feuilletage virtuel. Cependant, cette numérisation se limitant à une prise d'image est insuffisante car les difficultés d'accès sont les mêmes que sur papier ou microfilm. Il est toujours nécessaire de feuilleter (même virtuellement) un nombre trop important d'images de pages de documents. Même si une page peut être visualisée par un lecteur, le temps nécessaire pour retrouver la bonne page est tellement important que ces documents peuvent être considérés comme inaccessibles. Il est donc indispensable de définir de nouveaux outils permettant d'accéder aux documents manuscrits à partir de leur contenu. Ceci est possible en associant des informations (que l'on peut qualifier d'annotations) aux images de documents. Grâce à ces annotations, il sera possible d'effectuer une sélection automatique des documents à partir de leur contenu. Nous proposons de considérer deux types d'annotations pour les documents d'archives : annotations textuelles : une date, un lieu, un nom, un mot-clé… Toute information sur laquelle il est intéressant de pouvoir effectuer une recherche; annotations géométriques : une position dans l'image, comme une case, un champ, une zone, représentée par un rectangle ou un polygone. Bien entendu, toute annotation textuelle peut être liée à une annotation géométrique. Ceci est important, par exemple pour représenter qu'un nom particulier se trouve à l'intérieur d'une case. Rendre accessible un document par son contenu est une tâche difficile qui revient finalement à produire et stocker les annotations qui lui sont liées. Nous proposons donc dans cet article, deux manières complémentaires de produire ces annotations : automatiquement, en utilisant des techniques de reconnaissance de document; et collectivement, en utilisant internet et la saisie manuelle faite par certains lecteurs. Etant donné la très grande variété de documents d'archives, il est nécessaire, notamment pour la production automatique d'annotations, de développer des systèmes de reconnaissance capables de traiter ces différents types de documents. Cependant, la tendance la plus couramment pratiquée jusqu' à présent consiste à développer une nouvelle application pour chaque nouveau type de documents. Ce développement spécifique nécessite de déployer une énergie très importante qui n'est pas compatible avec la grande variété de documents. Nous avons donc défini la méthode DMOS (description et modification de la segmentation) qui est une méthode générique de reconnaissance de documents. Cette méthode a pu être utilisée pour produire différents systèmes de reconnaissance adaptés pour les partitions musicales, les formules mathématiques, les tableaux, les formulaires anciens… Nous présentons cette méthode DMOS dans la section 3 pour la production automatique d'annotations. La section suivante présente une plate-forme de gestion des annotations collectives construites à l'aide des annotations automatiques. Ces annotations collectives sont produites manuellement par les utilisateurs (s'ils le souhaitent) lorsqu'ils lisent un document. Elles sont ensuite disponibles pour les autres lecteurs pour accéder aux images de documents. Dans la section 5, nous montrons l'utilisation de cette plate-forme sur différents documents d'archives : des registres d'état civil et paroissiaux, des registres matricules (formulaires de recrutement militaire) du XIXe siècle et des décrets de naturalisation. Pour chaque document, nous présentons les annotations automatiques que nous pouvons produire grâce à la méthode DMOS et les annotations collectives qui peuvent être ajoutées par les utilisateurs grâce aux annotations automatiques. La production manuelle systématique d'annotations offre l'avantage de pouvoir être utilisée sur des documents de toute sorte, imprimés ou manuscrits, quelle que soit leur qualité. La seule contrainte est de trouver une personne capable de lire ou de déchiffrer le document. Même si elle est parfois utilisée, cette production manuelle d'annotations sur un lot d'images n'est pas raisonnablement envisageable sur des documents qui existent dans des quantités telles que celles rencontrées pour les documents d'archives. Cette annotation manuelle systématique est particulièrement fastidieuse, beaucoup trop longue, avec un risque d'erreur non négligeable et surtout un coût particulièrement prohibitif. Elle est donc absolument incompatible avec les quantités de documents que l'on souhaite rendre accessibles au public. La production automatique d'annotations est donc indispensable afin d'éviter une annotation manuelle beaucoup trop coûteuse. Pour la mettre en œuvre il est nécessaire d'utiliser des techniques de reconnaissance de documents. Sur des documents imprimés récents, les logiciels de reconnaissance de caractères (OCR) existants sont capables de reconnaître pratiquement l'ensemble du texte, qui peut ensuite être utilisé pour construire automatiquement des annotations textuelles. En revanche, sur des documents anciens d'archives, ces systèmes ne fonctionnent plus car le problème est beaucoup plus complexe. En effet, les documents n'ont pas toujours été conservés correctement et ils peuvent donc être altérés : tâches, bavures, déchirures, réparations avec du papier collant… Les documents peuvent avoir été conservés dans des conditions humides, ce qui les déforment. Ceci est un vrai problème car de plus en plus de documents sont numérisés à l'aide de caméras sans pression d'une vitre. Dans l'image ainsi obtenue, les zones initialement rectilignes dans le document deviennent très courbées. En outre, avec le temps, l'encre traverse le papier, ce qui fait apparaître le verso au recto. Des tampons peuvent être ajoutés sur le document, parfois des papiers (paperolles ou retombes) sont collés sur le document, ce qui masque une partie de celui -ci. Lorsque ces documents anciens sont imprimés, la qualité d'impression des caractères est trop faible, les fontes ne sont plus utilisées, ce qui rend la reconnaissance difficile. Nous pouvons ainsi trouver des travaux sur l'accès aux livres du XVIe siècle (Le Bourgeois et al., 2001) et des documents imprimés du XIXe siècle (Mühlberger, 2002). Mais lorsque les documents sont manuscrits, la mauvaise qualité des documents s'ajoute à la difficulté de la reconnaissance de l'écriture manuscrite. Ceci peut sans doute expliquer que nous n'ayons pas trouvé dans la littérature de travaux sur l'accès par le contenu à des documents anciens manuscrits. Afin de produire automatiquement des annotations sur ce type de documents, il est nécessaire, dans un premier temps, de pouvoir localiser où se trouve l'information à partir de laquelle on souhaite pouvoir accéder au document. Cette localisation permet de détecter quelle partie de l'image contient de l'écriture manuscrite et quel type d'information s'y trouve. Par exemple, il est important de pouvoir localiser dans l'image, où se trouve un nom, une date, un lieu… manuscrit sur lequel une recherche pourra avoir lieu afin de retrouver l'image de ce document. Grâce à cette localisation, il devient possible de travailler sur la reconnaissance de l'écriture manuscrite. Afin de détecter la position de certaines zones manuscrites, il est important que le document soit suffisamment structuré. Cette structure peut être relativement forte comme des formulaires, des tableaux, ou plus faible comme des documents uniquement manuscrits mais pour lesquels il existe une certaine organisation graphique à l'aide de marges, d'alignement en colonnes, de paragraphes… Certains documents manuscrits d'archives sont particulièrement difficiles à reconnaître. En effet, pour pouvoir produire des annotations automatiques sur du texte manuscrit, il est indispensable en premier lieu de localiser la position de ce texte dans le document. Lorsque le document n'est pas suffisamment structuré, il est pratiquement impossible de détecter cette position. En outre, le texte peut être tellement mal écrit qu'il est nécessaire qu'un paléographe lise le texte ou propose une hypothèse de lecture. C'est pourquoi nous proposons de compléter les annotations automatiques par des annotations manuelles. Pour éviter les annotations manuelles systématiques qui, comme nous l'avons vu à la section 2.1, sont fastidieuses, extrêmement longues et surtout trop coûteuses, nous proposons de faire produire ces annotations collectivement directement par les lecteurs. Pour un lecteur, ce n'est pas long d'entrer quelques annotations au cours de sa lecture. Toutes les annotations ainsi produites sont mises en commun, pour permettre aux autres lecteurs d'améliorer leur accès par le contenu aux documents, même s'ils sont très difficiles à lire. Comme le nombre de lecteurs est important, le nombre d'annotations produites collectivement peut augmenter très rapidement si un outil de gestion des annotations existe et si le processus est amorcé grâce aux annotations automatiques. Le nombre de types de documents à traiter est tel que, contrairement à ce que l'on rencontre dans la littérature, il ne faut pas redévelopper complètement un nouveau système de reconnaissance à chaque nouveau type de document. Nous avons donc proposé, pour des documents à forte structure dans lesquels des règles d'écriture peuvent être connues, la méthode générique de reconnaissance DMOS (description avec modification de la segmentation), constituée : d'un langage grammatical de description de documents que nous avons défini, EPF (Enhanced Position Formalism), et qui permet de modéliser la connaissance a priori; de l'analyseur associé autorisant une modification en cours d'analyse de la structure analysée. Cette modification permet d'introduire le contexte (niveau symbolique) dans la phase de segmentation (niveau numérique), afin d'améliorer la reconnaissance; de l'équivalent d'analyseurs lexicaux, afin de reconnaître les terminaux du langage présents dans l'image sous la forme de segments de droite, et sous la forme de symboles pouvant être assimilés à des caractères. Un classifieur ayant des capacités de rejet est capable de reconnaître ces symboles. Nous avons défini et développé le langage EPF, permettant de décrire un document structuré aussi bien au niveau graphique que syntaxique. Ce langage peut être vu comme une extension bidimensionnelle des grammaires dans laquelle les terminaux sont des segments ou des matrices de pixels (composantes qui représentent un symbole) au lieu d' être, comme dans les grammaires classiques, des caractères. Cette extension comporte également un certain nombre d'opérateurs spécifiques dont voici quelques exemples : Opérateur de position (encadré par AT) : A && AT(pos) && B signifie A, et à la position pos relativement à A, on trouve B, où A et B représentent un terminal ou un non-terminal et && désigne la concaténation dans la grammaire. Si, par exemple, pos prend la valeur extremiteGauche cela signifie que B doit se trouver près de l'extrémité gauche de A. Le concepteur de la grammaire peut définir à la demande des opérateurs de position, comme extremiteGauche, de la même manière qu'il peut le faire pour des non terminaux. L'opérateur définit, par rapport à A, une zone de l'image dans laquelle B doit se trouver (figure 1). Opérateur de factorisation (##, en association avec les opérateurs de position) : A && (AT(pos1) && B ## AT(pos2) && C) signifie (A && AT(pos1) && B) et (A && AT(pos2) && C). En notant par::= le constructeur d'une règle grammaticale, il est possible, grâce à cette syntaxe de décrire, par exemple, un groupe de notes (des croches reliées par une seule barre de groupe, figure 1). Cette règle groupeDeNote ne spécifie ni le nombre de notes reconnues par noteAuMilieu, ni la direction des hampes. Ainsi une seule règle peut décrire l'ensemble des groupes de notes que l'on peut trouver dans une partition. D'autres opérateurs sont présents dans le langage EPF. Ils permettent d'exprimer de manière plus large une description graphique et syntaxique d'un document (Coüasnon, 2001; Coüasnon et al., 2002). Le langage EPF décrit ci-dessus permet de définir grammaticalement le document à reconnaître. De cette grammaire nous produisons automatiquement un analyseur (Coüasnon et al., 1995a) qui possède des caractéristiques spécifiques à l'analyse de documents bidimensionnels. Ainsi, nous pouvons souligner les trois principales caractéristiques de l'analyseur que nous avons développé (à deux dimensions), par rapport à un analyseur classique (à une dimension) pour les langages formels : remise en cause de la structure analysée en cours d'analyse (pour effectuer des segmentations contextuelles); détection de l'élément suivant à analyser. En effet, pour les analyseurs classiques, l'élément suivant est simplement celui qui est en tête de la chaîne analysée alors qu'en deux dimensions, l'élément suivant peut être n'importe où dans l'image, donc n'importe où dans la structure analysée; gestion correcte du bruit. Contrairement aux analyseurs classiques où la structure analysée est peu bruitée, en reconnaissance de documents il est nécessaire que l'analyseur soit capable de reconnaître le maximum d'informations dans un flux très bruité. Nous pouvons considérer que la gestion du bruit correspond à trouver l'élément suivant, malgré le bruit. Les éléments terminaux du langage EPF permettent de représenter les informations de base de l'analyse d'un document. Ces informations, très présentes dans les documents structurés, correspondent aux segments de droite et aux symboles pouvant être assimilés à des caractères. Détection de segments de droite : la détection des segments de droite s'appuie sur un filtrage de Kalman effectué sur la position et sur la taille des empans noirs dans une direction approximativement orthogonale au tracé (Poulain et al., 1996). Cette technique permet la détection des segments de droite, même lors de forts problèmes de segmentation : intersection de segments, segments touchant des symboles… Classifieur à forte fiabilité : le classifieur de symboles que nous avons développé est constitué d'un réseau de neurones à fonctions à bases radiales (Radial Basis Functions, RBF), à trois couches, prenant en entrée des caractéristiques géométriques classiques en reconnaissance de caractères. Ces caractéristiques sont adaptées aux symboles à reconnaître grâce à la mise en œuvre d'une sélection par algorithme génétique. L'originalité du classifieur provient également de la méthode d'apprentissage, locale à chaque classe et en deux étapes, qui permet de réaliser un rejet bien défini et efficace, tout en conservant de bonnes propriétés en généralisation (Anquetil et al., 2000). DocRead est un générateur automatique de systèmes de reconnaissance de documents structurés (Coüasnon, 2001), développé grâce à la méthode DMOS. Celui -ci est constitué d'un compilateur du langage EPF (permettant de décrire un document à l'aide d'une grammaire) (section 3.1), d'un module d'analyse lié à ce langage (section 3.2), d'un module de vision précoce (binarisation et extraction de segments) et d'un classifieur ayant des capacités de rejet (section 3.3). Ce générateur nous permet une adaptation rapide à un nouveau type de document. En effet, il faut simplement définir une nouvelle grammaire (à l'aide d'EPF) qui décrit le nouveau type de document et, si nécessaire, il faut effectuer un nouvel apprentissage du classifieur pour lui permettre de reconnaître de nouveaux symboles. Le système de reconnaissance adapté est alors automatiquement produit par compilation. Grâce à ce générateur, nous avons pu développer différents systèmes de reconnaissance en définissant uniquement une description du document. Afin de valider l'aspect générique de la méthode DMOS, nous avons défini des descriptions EPF de différents types de documents. Ces descriptions ont pu ensuite produire, grâce au générateur DocRead, les systèmes de reconnaissance suivants. Nous avons développé en premier une grammaire de la notation musicale afin de produire un système de reconnaissance de partitions musicales (Coüasnon et al., 1995b; 1995c) (figure 2). Puis nous avons défini une description EPF de la notation mathématique (Garcia et al., 2001) qui nous a permis de construire un système de reconnaissance de formules mathématiques imprimées et isolées (figure 2). Toujours dans un souci de validation de l'aspect générique de la méthode DMOS, nous avons défini une description grammaticale d'un tableau-formulaire constitué de filets (segments), quels que soient le nombre de colonnes, le nombre de lignes et la dimension des cases. Cette description comporte la définition de la plus grande structure tabulaire détectable dans un tableau et la définition du tableau lui -même. De manière récursive, à l'intérieur de chaque case, un nouveau tableau est recherché. Cette description récursive permet au système produit de reconnaître l'organisation hiérarchique d'un tableau-formulaire quel que soit son placement dans un document. Certains logiciels du commerce de reconnaissance de documents peuvent traiter des tableaux, cependant, ils ne produisent que la présentation graphique de ces tableaux et ne peuvent détecter leur organisation hiérarchique. Or, cette dernière est primordiale pour pouvoir structurer et accéder aux données contenues dans un tableau. La figure 3 affiche les cases détectées aux différents niveaux de profondeur de l'organisation hiérarchique du tableau. Il nous reste à compléter ce travail par une phase de validation et par la définition d'une structure résultat pouvant contenir l'organisation hiérarchique reconnue. Nous devons également travailler sur la reconnaissance de tableaux sans filets. Nous avons également utilisé la méthode DMOS pour le traitement d'images vidéo. Ainsi, en définissant simplement une grammaire EPF d'une dizaine de règles, nous avons produit un système capable de détecter la position d'un terrain de tennis dans une image vidéo (figure 4). L'objectif de ces travaux est de permettre ensuite une indexation automatique de match de tennis en déterminant les phases de jeu grâce à la position des joueurs par rapport au terrain. Cette étude montre que la méthode DMOS peut être utilisée pour résoudre d'autres problèmes que le seul traitement de documents structurés. Nous avons défini une plate-forme sur internet pour consulter des images de documents d'archives, et pour y accéder par le contenu. Cette plate-forme propose une manière d'utiliser et de gérer les annotations automatiques et les annotations collectives. Les travaux que l'on rencontre dans la littérature sur les annotations sont principalement centrés sur XML et RDF (Ressource Description Framework). RDF (RDF, 1999) est une base pour traiter les métadonnées et permet l'interopérabilité entre les applications qui échangent des données sur le web. Les métadonnées en RDF peuvent être utilisées dans de nombreuses applications. Par exemple, il est possible d'effectuer des annotations sur des documents XML. Annotea (Kahan et al., 2001) est un projet du W3C pour les annotations partagées. Des annotations peuvent être des commentaires, des notes, des explications ou toute autre remarque pouvant être attachée à n'importe quel document ou partie de document se trouvant sur le web, sans modifier celui -ci. Lorsqu'un utilisateur consulte un document, il peut récupérer depuis un ou plusieurs serveurs l'ensemble des annotations associées au document et constater ainsi ce que les autres lecteurs en pensent. Dans le projet Annotea, un schéma RDF d'annotation a été défini pour décrire les annotations comme des métadonnées et X-Pointer est utilisé pour localiser les annotations dans le document annoté. Ce principe est bien adapté pour associer des informations à un endroit précis dans un document XML. Sur une image, cette méthode ne fonctionne plus alors que nous avons besoin de la même fonctionnalité : pouvoir associer une annotation à un endroit précis de l'image. Photo-RDF (Photo-RDF, 2002) est un projet pour décrire et retrouver des images numériques grâce à des métadonnées en RDF. Des schémas RDF ont été définis ou utilisés pour associer différentes informations aux photos : titre, date, appareil photo, focale… Le problème de ce Photo-RDF est qu'il n'est pas possible d'y associer une position précise dans l'image, mais seulement l'image toute entière. Hunter et Zhan proposent d'inclure des métadonnées dans des fichiers PNG (Hunter et al., 1999). Les métadonnées sont également définies avec RDF. Dans ce schéma, il est possible de définir une région dans l'image à l'aide d'un identificateur, un titre, un peu de texte et ses coordonnées. Même si ceci offre la possibilité d'associer une annotation à une position précise dans l'image, cette position n'est qu'un attribut d'une annotation textuelle. Or dans le cadre de l'accès aux documents, il est nécessaire de pouvoir considérer une position dans l'image comme une annotation au même titre qu'une annotation textuelle. Les annotations multivalentes (Phelps et al., 1997) offrent un cadre d'annotations de documents sous des formats très variés : images de documents numérisés, HTML, DVI… Cependant, une position dans l'image n'est toujours pas considérée comme une annotation à part entière. Ainsi, les loupes (utilisées pour des annotations de régions géométriques) offrent une manière de transformer le document se trouvant sous un rectangle, mais ne correspondent pas au rectangle luimême. De plus, il n'est pas possible d'associer par exemple plusieurs annotations textuelles à une même zone de l'image. Nous proposons donc une plate-forme pour l'accès par le contenu aux documents d'archives, qui puisse gérer au même niveau les annotations textuelles et les annotations géométriques. En outre, cette plate-forme est capable de créer des relations entre des annotations textuelles et géométriques pour préciser qu'une information textuelle se trouve dans une zone de l'image du document. Comme plusieurs informations textuelles (ou plusieurs interprétations) peuvent se trouver dans la même zone de l'image, il est primordial de pouvoir représenter autant de liens que nécessaire entre des annotations textuelles et géométriques. De manière complémentaire, une annotation textuelle peut être associée à différentes zones d'une ou plusieurs pages de documents, soit une ou plusieurs images. Il n'est donc pas possible de stocker les annotations dans le fichier image. Elles doivent être stockées de manière externe comme cela est fait dans Annotea pour les documents XML. Afin de permettre l'accès aux documents à un public le plus large possible, cette plate-forme doit pouvoir être utilisée dans un navigateur internet. Nous avons décidé de développer la plate-forme selon une architecture classique : un serveur de servlet (Tomcat) accédant à une base de données relationnelle (PostGreSQL) qui stocke l'ensemble des annotations. Les servlet Java envoient les images et les annotations à une applet (fonctionnant dans un navigateur) pour notamment les visualiser. Nous avons choisi d'utiliser XML et RDF pour importer et exporter les annotations de la base. Afin d' être le plus générique possible pour l'accès par le contenu aux documents d'archives, nous considérons qu'une annotation correspond à la plus petite information pouvant être ajoutée indépendamment, de manière automatique par reconnaissance de document ou de manière manuelle par un lecteur. Cette plus petite information peut être une annotation textuelle non structurée (un nom, une date…) ou bien une annotation géométrique non structurée (un rectangle, un polygone…). Ces annotations peuvent ensuite être structurées logiquement (par exemple un acte de naissance contient un nom, une date, un lieu…) ou physiquement (un registre est constitué de doubles pages contenant deux pages…). Une ou plusieurs annotations textuelles peuvent être associées à une ou plusieurs annotations géométriques. Nous proposons donc de considérer une annotation (géométrique ou textuelle) comme étant constituée des informations suivantes : où le <type> est choisi parmi l'ensemble des types autorisés dans une DTD adaptée aux types de documents annotés par la base. Les <données> peuvent être un nom, une date, les coordonnées d'un rectangle… Le <nb confirmation> s'incrémente lorsqu'un lecteur, différent du créateur confirme cette annotation. Afin de pouvoir, par exemple, représenter qu'une annotation de structure logique (comme un acte de naissance) peut être liée à trois annotations géométriques (des rectangles) sur trois pages (images) consécutives, il est nécessaire de stocker les liens entre les annotations avec les informations suivantes : Grâce à cette représentation des annotations et à la plate-forme, un utilisateur peut, sur un navigateur internet, feuilleter les images des pages de documents d'archives. Lorsqu'une page est affichée, l'ensemble des annotations associées sont présentées par l'interface de consultation : les annotations géométriques sont dessinées sur l'image, les annotations textuelles sont représentées par des onglets pour les nœuds de la structure d'annotations (acte de mariage par exemple) et par des champs éditables pour les feuilles (nom, date…) (figure 6). Le lecteur peut également consulter les annotations, ajouter ou modifier une annotation (s'il a le droit de le faire) au cours de sa lecture, mais il est limité par la structure d'annotations définie par la DTD associée au type de documents consultés. Ce système peut également stocker différentes interprétations si un lecteur n'est pas d'accord avec celles existantes. Une recherche structurée ou plein texte est possible sur l'ensemble des annotations quelle que soit la manière dont elles ont été produites : automatiquement ou manuellement. Nous présentons dans la section suivante des exemples d'utilisation de cette plate-forme sur différents types de documents d'archives. Nous montrons l'intérêt des annotations automatiques et la complémentarité des annotations automatiques et manuelles. Ces travaux ont été réalisées en collaboration avec les archives départementales d'Ille-et-Vilaine et les archives départementales de la Mayenne, avec le soutien des régions Bretagne et Pays de la Loire dans le cadre d'un projet Mégalis. Sur ces documents (figure 5), il est particulièrement difficile de produire automatiquement des annotations car la structure est très faible voire inexistante et l'écriture manuscrite est souvent de très mauvaise qualité. Les documents sont numérisés en double page. Nous avons donc défini une grammaire EPF décrivant la notion de page. Grâce à la méthode DMOS et au générateur de systèmes de reconnaissance de documents structurés, nous avons pu produire par compilation un système de reconnaissance capable de détecter la position de chaque page et de produire automatiquement les annotations géométriques correspondantes. Un premier test a été effectué sur 1 407 images de doubles pages : aucune erreur ne s'est produite. Grâce à ces annotations, alors que les images sont en double page (donc non lisibles sur un écran en pleine largeur), un lecteur peut feuilleter de manière très confortable un registre page par page avec un zoom automatique adapté à la largeur de page et donc lisible sans zoom supplémentaire. En s'appuyant sur ces annotations géométriques automatiques (pages), des annotations collectives peuvent être ajoutées par les lecteurs (figure 6) comme par exemple le type d'acte (naissance, mariage…) ou une mention marginale… Ensuite, pour chacune de ces annotations, un ensemble de sous-annotations autorisées est défini. Par exemple, pour un acte de naissance, on pourra trouver le nom et prénom de l'enfant, la date de naissance, les noms et prénoms de la mère… L'acte peut être associé à une annotation géométrique (un rectangle par exemple) définissant sa position dans l'image, ou bien être simplement associé à l'annotation automatique page. Bien entendu, il n'y a aucune obligation pour le lecteur de remplir tous les champs d'un acte. Une démonstration en ligne de cette plate-forme sur les registres d'état civil et paroissiaux d'une commune d'Ille-et-Vilaine et d'une commune de la Mayenne est disponible à l'adresse http:// imadoc-ar. irisa. fr Ces registres matricules sont des registres de formulaires d'incorporation militaire du XIXe siècle. Ces documents sont constitués à partir de formulaires préimprimés. La structure de base de chaque fiche est stable sur une quarantaine d'années, en revanche, la taille de chaque case peut varier d'une année sur l'autre (déplacement de 1 à 2 cm). En outre, ces registres militaires contiennent dans certaines cases des informations médicales protégées pendant 150 ans, ce qui empêche de les mettre encore actuellement à disposition du public. Ces documents présentent un certain nombre de défauts : la numérisation introduit de petites rotations; le papier présente une certaine transparence, le verso est donc partiellement visible; les fiches ont été endommagées, déchirées, recollées, tachées; des tampons viennent perturber l'aspect visuel de la page; et surtout, en raison de la guerre de 1914, certaines cases se sont avérées trop petites à l'usage. Les militaires ont donc collé de petites feuilles annexes (paperolles ou retombes) qui masquent largement la structure du document (figure 7 ci-dessus). Ces travaux ont commencé en collaboration avec les archives départementales de la Mayenne, avec les soutiens du ministère de la culture et de la communication et des régions Bretagne et Pays de la Loire, et se poursuivent avec les archives départementales des Yvelines avec le soutien du conseil général des Yvelines. L'objectif est de pouvoir localiser précisément la position des différentes cases du formulaire afin de détecter l'emplacement de certains champs manuscrits et l'emplacement des cases susceptibles de contenir des informations médicales. De nombreuses méthodes ont été développées pour reconnaître des structures tabulaires (Lopresti et al., 2000). Quelques méthodes utilisent une détection bas niveau de points spécifiques comme les croisements, les coins… Cependant, ces techniques ne peuvent gérer correctement les filets partiellement effacés. Xingyuan (Xingyuan et al., 1999) a proposé un système plus robuste mais qui ne peut, en revanche, fonctionner lorsque certaines parties de la structure sont masquées. En outre, nous n'avons pu trouver de résultats dans la littérature évoquant des formulaires anciens, altérés ou partiellement masqués. Nous avons donc construit la description des fiches au moyen d'une grammaire EPF en inspectant quelques fiches issues de quatre registres. Cette grammaire s'appuie sur l'axe central du formulaire. Elle débute ainsi : Nous avons ensuite défini le cadre extérieur en nous basant uniquement sur ses quatre coins afin d'accepter des ruptures dans les filets de ce cadre, puis nous avons complété la grammaire par la description de chaque case placée par rapport à l'axe central : Grâce à cette unique description et à DocRead, nous avons produit un système de reconnaissance capable de traiter l'ensemble des registres. Ce système produit en sortie des annotations automatiques sous la forme d'une description de la structure avec la localisation précise des cases. Il peut également signaler qu'il a été incapable de reconnaître la structure dans la page à analyser en expliquant la raison de l'échec. Nous avons traité l'ensemble des registres de 1878 à 1900 des archives de la Mayenne, soit 60 223 pages réparties dans 140 registres. Les formulaires ayant des retombes ont été numérisés plusieurs fois afin de conserver les informations sous les retombes. Pour les 60 223 pages, la numérisation a produit 76 986 images. La grammaire construite en étudiant quatre registres étant suffisamment souple dans sa définition, il n'a pas été nécessaire d'effectuer des modifications pour absorber les variations de format du formulaire. Le traitement des documents s'est effectué en deux phases : le rejet automatique des pages dans lesquelles la structure n'est pas présente (images non traitables), puis la vérification de la cohérence des dimensions des cases d'un même registre. L'objectif est d'obtenir au moins une image pour laquelle la structure a été reconnue pour chacune des 60 223 pages. Sur ces 60 223 pages, 239 pages ont été considérées comme non traitables (environ 0,4 %). Il s'agit effectivement de pages mal numérisées ou trop abîmées (figure 8). Nous pouvons mentionner qu' à ce niveau du traitement, le système n'a produit aucun faux rejet. En effet, aucune des 239 images n'aurait pu être traitée manuellement. Le système détecte la structure permettant d'effectuer une séparation entre la partie publique et la partie médicale protégée, afin de pouvoir rendre ces documents accessibles au public (figure 8). Nous considérons que la structure est correcte si les filets des cases demandées sont localisés au millimètre près. Dans ce contexte, le taux de reconnaissance sur les 59 984 pages restantes est de 99,6 %, même en présence de retombes et avec un taux d'erreur nul (0 %). Il est important de noter que dans tous les cas, même avec un taux de reconnaissance si élevé, le système n'a pas produit de fausse reconnaissance. Ceci est primordial dans un contexte industriel dans lequel il devient impossible d'effectuer une détection manuelle des erreurs restantes dans les images reconnues puisque des centaines de milliers de pages peuvent être traitées. Le traitement d'une page en niveau de gris à 200 dpi (2 000 x 3 000) nécessite environ 18s (6s de traitement d'image et 12s d'analyse) sur un Sun SunBlade 100. À partir de la détection de la structure du formulaire, nous produisons automatiquement des annotations géométriques (polygones pour chaque case) et des annotations textuelles (le nom de la case). Ces annotations permettent, entre autres, le masquage des cases non publiques sur ces registres militaires. Ceci rend possible leur mise à disposition du public sans attendre les 150 ans qu'impose la loi, et de démasquer automatiquement au fur et à mesure que les 150 ans s'écouleront. Ainsi, les images des registres matricules de la Mayenne ont pu être mis en ligne sur le site http:// www. cg53. fr/ Fr/ Archives/ (suivre Archives en ligne, puis Conscrits de la Mayenne), après un découpage automatique de la partie publique et une indexation manuelle sur le nom effectuée par les archives départementales de la Mayenne. En outre, cette structure, grâce à un placement précis, permet d'envisager des travaux sur la reconnaissance de certains champs manuscrits, afin d'éviter cette phase d'indexation manuelle beaucoup trop fastidieuse et coûteuse. Ces travaux sont en cours, en collaboration avec les archives départementales des Yvelines. L'objectif est de produire automatiquement des annotations sur les noms manuscrits afin de permettre à un lecteur d'accéder automatiquement, à partir du nom manuscrit, à l'image du document le contenant. Ainsi, le lecteur peut saisir une requête (un patronyme) et le système sélectionne automatiquement les images contenant ce patronyme sans qu'il y ait eu auparavant une seule indexation manuelle (figure 9). Ce système est capable de fonctionner sans dictionnaire, ce qui est indispensable vu la diversité des patronymes. Les premiers résultats présentés dans (Camillerapp et al., 2004) permettent, par exemple, de sélectionner un patronyme dans un registre en moins d'un dixième de seconde. Cet accès par le contenu manuscrit sera mis en place en salle de lecture et sur le site internet des archives des Yvelines après l'inauguration de leur nouveau bâtiment. 35 000 pages de registres matricules seront dans un premier temps accessibles par le contenu manuscrit (patronyme). Une seconde phase permettra de tester la production automatique d'annotations sur 350 000 pages de registres matricules. Avec la modification de la DTD définissant les types d'annotations, il est possible de choisir ceux qui pourront être utilisés sur ces registres matricules. Ainsi, par exemple, la case contenant des informations d'état civil, ou la case décrivant la personne pourra être annotée collectivement par les lecteurs. Les annotations automatiques permettent de zoomer naturellement sur une case afin de la rendre lisible en pleine largeur pour pouvoir y associer plus facilement des annotations textuelles. Toutes ces annotations pourront ensuite être utilisées lors d'une requête faite par un autre lecteur. Ces travaux sont réalisés en collaboration avec le Centre historique des archives nationales, afin de permettre l'accès du public aux images des décrets de naturalisation de la fin du XIXe et du début du XXe siècle. En effet, ce sont des documents uniques qui sont les seuls à pouvoir justifier de la nationalité française de certaines personnes. Un décret contient en moyenne une dizaine de pages, généralement manuscrites, organisées en paragraphes, où chaque paragraphe concerne la naturalisation d'une seule personne. En outre, le patronyme de la personne concernée est placé en début de paragraphe. La recherche d'une personne dans ce type de document est difficile car il faut feuilleter l'ensemble des décrets. Il n'existe pas de table récapitulative permettant de savoir pour un patronyme donné quel est le décret qui le concerne. Or la demande du public est très forte pour retrouver une personne dans l'ensemble de ces décrets, et la constitution manuelle de tables récapitulatives n'est pas envisageable car trop fastidieuse et trop coûteuse. Par rapport aux registres matricules, la structure est beaucoup plus faible puisque constituée uniquement par l'organisation en paragraphe de l'écriture manuscrite. Grâce à la généricité de la méthode DMOS, il a été possible de définir une grammaire EPF décrivant l'organisation de ces documents en lignes de texte manuscrit, paragraphes et colonnes, en utilisant uniquement les composantes connexes calculées dans l'image. Cette description a permis par compilation de produire un système de reconnaissance capable de détecter la position du nom et d'un numéro de dossier (figure 10). A partir de la structure XML produite, par transformation avec XSLT, le système génère une page XML contenant les imagettes du numéro de dossier et du nom, présentées sous forme de tableau. Ceci permet de feuilleter beaucoup plus rapidement un ensemble de décrets pour retrouver une personne et d'accéder à la page la concernant (figure 10). À partir de cette structure, il reste à produire des annotations géométriques. Les premiers tests ont porté sur 234 pages de décrets, qui contiennent 1 918 noms ou numéros. Seul un numéro n'a pas été détecté, ce qui représente un taux de détection des noms ou numéros de plus de 99,9 %. En revanche, le système a produit 203 fausses reconnaissances de noms ou numéros soit 10,6 %. Ces fausses détections ne sont pas très gênantes dans ce contexte applicatif, puisque l'utilisateur aura simplement un peu plus d'imagettes à consulter. Pour diminuer ces fausses détections il faudrait être capable de reconnaître les inscriptions manuscrites. Nous avons montré ainsi que la méthode DMOS pouvait également être utilisée sur des documents ayant une structure plus faible sans présence de filets, et contenant uniquement du manuscrit. Grâce à la modification de la DTD associée à la plate-forme pour définir les types d'annotations autorisées, le lecteur, après avoir feuilleté les décrets par imagette de nom grâce aux annotations automatiques, peut annoter collectivement sur l'image de la page, le nom, le numéro de dossier, la date et lieu de naissance… L'intérêt pour le lecteur d'annoter est non seulement de contribuer à la collectivité, mais aussi de pouvoir retrouver plus tard, par une simple requête, la page du document qu'il cherchait. Nous avons présenté dans cet article, une plate-forme pour accéder par le contenu à des documents d'archives contenant des informations manuscrites. Pour permettre cet accès, il est nécessaire de produire des annotations. Nous avons montré que les annotations pour l'accès par le contenu aux documents d'archives peuvent être géométriques ou textuelles. La plate-forme que nous proposons présente l'intérêt de gérer des annotations produites de deux manières complémentaires : automatiquement grâce à la reconnaissance de documents et collectivement, grâce à l'aide des lecteurs au cours de leur consultation. Les différents documents (registres paroissiaux et d'état civil, registres matricules et décrets de naturalisation) sur lesquels nous avons présenté la plateforme d'annotations, montrent l'importance de définir des systèmes génériques de reconnaissance de documents. Il est en effet impensable d'avoir à redéfinir un nouveau système de reconnaissance pour chaque nouveau type de document. Grâce à la méthode DMOS, nous avons pu produire de nouveaux systèmes de reconnaissance adaptés avec un minimum de temps d'adaptation. Nous avions simplement à définir une description du type de document à l'aide du langage EPF pour obtenir, par compilation, un nouveau système de reconnaissance. La méthode DMOS a pu notamment être testée à grande échelle sur 60 000 pages de registres matricules. En outre, la méthode DMOS a pu être utilisée aussi bien sur des documents structurés comme les registres matricules que sur des documents faiblement structurés comme les décrets de naturalisation. La plate-forme d'annotations et la complémentarité des annotations automatiques et collectives sont importantes pour permettre un accès par le contenu à des documents manuscrits, même s'ils sont difficiles à lire. En fonction de la complexité du document, la partie annotation automatique est plus ou moins importante .
Cet article présente l'accès par le contenu aux documents d'archives manuscrits. Cet accès doit s'appuyer sur des informations (annotations) associées aux images de documents. Nous proposons deux manières complémentaires de produire ces annotations : automatiquement en utilisant la reconnaissance de documents, et collectivement sur internet par une saisie manuelle effectuée par les lecteurs eux-mêmes. Une plate-forme de gestion de ces annotations est présentée, ainsi que des exemples d'annotations automatiques sur des registres paroissiaux et d'état civil des formulaires militaires (registres matricules) et des décrets de naturalisation, en utilisant une méthode générique de reconnaissance de documents. Cette méthode a été validée sur plus de 60 000 pages de documents. Des exemples d'annotations collectives construites sur des annotations automatiques sont donnés.
sciencesInfo_04-0290034_tei_DN_073_0061.tei.xml
termith-342-communication
L'espace public est généralement décrit par son rôle politique dans la démocratie, end'autres termes par la manière dont il peut faciliter ou, au contraire, rendredifficile la participation des citoyens au débat social. Vus sous cet angle, lesmédias et, en particulier, le journalisme d'information peuvent être analysés entermes d'idéaux normatifs pour l'information. Ainsi les commentaires et les débatsmédiatiques apparaissent-ils comme nécessaires à la démocratie. Cependant, l'espacepublic joue un rôle qui n'a pas nécessairement un rapport explicite avec les idéauxciviques et avec la participation démocratique. Plus fondamentalement, il doit aussiaider les citoyens à contrôler un environnement social et physique de plus en pluscomplexe qui peut avoir un impact sur leur condition physique ou mentale. Les médiasont ainsi la responsabilité d'informer les publics sur les risques ou au contraireopportunités qui existent dans leur environnement, et ils doivent les accompagnerdans des choix et des situations qui peuvent influer sur leur santé. Cet article s'appuie sur une étude menée en Suède (Sandberg, 2004) portant sur lamanière dont la presse quotidienne présente le thème de l'excès de poids (ouobésité). Si, dans une analyse récente, nous considérions la sphère publiquesuédoise sous l'angle politique et démocratique (Dahlgren, 2004), il s'agit ici dedéplacer la problématique pour se concentrer sur le thème de la santé et plusparticulièrement de l'obésité, bien que les thématiques de la démocratie et desdroits des citoyens n'en soient pas entièrement absentes. En Suède, plus d'un tiersde la population est estimée en excès de poids (scb ,2002). La tendance à l'obésité et au surpoids – en particulier parmi les enfants etles adolescents – augmente tous les ans, au niveau national comme au niveau global .De nombreuses analyses du poids en tant que problème de santé publique suggèrentl'existence d'une « épidémie » qui se propage à travers les nations, certainesexpertises allant jusqu' à affirmer que le surpoids serait aujourd'hui un problème desanté plus grave que la malnutrition (Sjöblom, 2000). Ces scénarios suggèrent unehausse de la mortalité due aux maladies du cœur, au diabète (type II) et au cancercausés par l'excès de poids. La prise de conscience de ce problème englobe aussi lessouffrances liées à l'obésité, qui dépassent le plan strictement médical pourtoucher aux plans psychologique, ainsi que sociologique (sbu, 2002). Enfin, le surpoids et l'obésité contribuent à l'augmentationdes coûts des soins médicaux, constituant de ce fait un problème pour chaqueindividu, qu'il soit en surpoids ou non. En premier lieu, la question de l'obésité sera abordée en prenant en compte lamultiplicité des perspectives de recherche pouvant être mobilisées. Les deuxcadrages dominants de la construction de l'obésité seront ensuite traités : lepremier fait appel à la raison et à la rationalité, le second mobilise émotions etaffects. Enfin, les deux dernières parties de l'analyse présenteront respectivementl'importance du genre (masculin/féminin) et l'opposition structurante divertissementvs information dans la construction médiatique du surpoids. Cette recherche emprunte théories et concepts à quatre domaines de recherchedifférents : la consommation, la problématique corporelle, la société de risqueainsi que les médias et journalisme. Il ne s'agit pas ici d'entrer dans ledétail de chacune de ces traditions de recherche, mais de mentionner lesprincipales sources d'inspiration et d'influence. En ce qui concerne laconsommation et le corps, Pierre Bourdieu (1984), Robert Bocock (1993), PeterCorrigan (1997), Don Slater (1997) et Steven Miles (1998) seront mobilisés afind'esquisser le concept de modernité tardive et quelques-unes de sescaractéristiques importantes : la consommation de masse, le consumérisme, lesidentités réflexives, le culte du soi et le corps mince. Par ailleurs, ladiscussion de notre propre vision du corps (en tant que réalité biologique etconstruction sociale) est notamment inspirée par Bryan S. Turner (1984; 1991) ,Mike Featherstone (1991), Arthur Frank (1991), et Chris Shilling (1993), maiségalement par d'autres sources comme Michel Foucault, Erving Goffman et JudithButler. Concernant la société de risque et les rechercher en médias et journalisme ,plusieurs sous thèmes sont abordés : le rôle des médias dans la société derisque, le concept de risque, la conscience du risque, la communication derisque, le journalisme (responsabilités et dilemmes dans la société de risque) ,l'ordre du jour, le cadrage, la logique médiatique et ses conséquences. Nousfaisons ici référence à plusieurs sources suédoises : Olof Petersson et IngridCarlberg (1990), Stig Arne Nohrstedt (1996), et Lars Hultén (1993; 1999), maiségalement aux sources internationales comme Ulrich Beck (1992), Anthony Giddens( 1996), Deborah Lupton (1999), James M. Dearing et Everett M. Rogers (1996) ,John B. Thompson (1995), David L. Altheide et Robert P. Snow (1979; 1991) .L'approche adopte un point de vue général de type constructiviste, et nousabordons deux questions principales. L'une s'interroge sur la représentation dusurpoids dans les médias; l'autre, sur les conséquences que celles -ci peuventavoir sur la perception publique du surpoids. L'objectif est donc de présenter, d'analyser et de problématiser la manière dontle surpoids est présenté quantitativement et qualitativement via les médias .L'ambition n'est pas simplement de décrire la couverture médiatique à un niveauexplicite, mais aussi de saisir les valeurs et les normes latentes en rapportavec le surpoids. En l'absence d'une analyse de la réception des lecteurs, nousne pouvons pas faire d'hypothèses sur la façon dont les personnes interprètentet comprennent les représentations médiatiques. Cependant, les perspectives, lesqualités et les caractéristiques variées du matériel permettront de proposercertaines extrapolations, même si c'est avec prudence. Plusieurs perceptions dusurpoids coexistent dans les médias ainsi que dans la société. On peut trouverdes discours divers à ce sujet dans des médias et des genres différents, parexemple la fiction, la publicité magazine et l'information sur la santépublique. Cette étude prend en compte le contenu médiatique concernant lesurpoids dans les quotidiens suédois sur une période de cinq ans, de 1997 à2001. En tout, 1925 articles de journal de quatre quotidiens différents ont étéanalysés, les articles étant téléchargés des bases de données accessibles surl'internet (PressText et Mediearkivet). Les quatre journaux sélectionnés représentent des secteurs différents de lapresse quotidienne au Suède. Deux de ceux -ci ont une distribution nationale :Dagens Nyheter, journalindépendant libéral, premier journal national et le plus important de Stockholm ,la capitale de la Suède, et Aftonbladet, « le journal qui parle pour lesmasses », un quotidien social-démocrate du soir qui est également le plus lu enScandinavie, et qui compte plus d'un million de lecteurs. Les deux autres sontd'importants supports de presse locaux : Helsingborgs Dagblad, politiquement indépendant au sud de la Suède, etVästerbottens-kuriren, un journal libéral ouvert dunord. Aftonbladet est vendu au jour le jour, tandis queles trois autres sont surtout des journaux à abonnement du matin. Il estimportant de préciser que les titres sélectionnés ne représentent pas latotalité de l'espace public suédois, mais leur choix est une sélectionstratégique. L'analyse consiste en trois sous-études. Dans la première partie, les 1925articles sont en totalité analysés quantitativement et représentés par desstatistiques descriptives. Ce corpus est constitué de tous les articles queles moteurs de recherches ont trouvés pendant les cinq années où les mots« surpoids » ou « obésité », ou bien des variations sur ces thèmes ,apparaissaient. L'analyse quantitative de contenu a été inspirée par lemodèle dramaturgique (voir Jarlbro, Jönsson, Windahl, 1992; Larsson, 1992) ,qui identifie les dimensions manifestes et latentes dans les textesd'information. Ce modèle soulève des questions comme : quelle est la scène ?Quand s'est passée la pièce ? Qui est l'acteur principal ? Qu'est -ce qui estdit et sur quel ton ? Ce modèle est complété par des questions quantitativestraditionnelles : combien d'articles trouve -t-on dans chaque catégorie ?Quelle est la taille de ces articles ? Combien de fois les reportersmentionnent -t-ils le terme surpoids ? Et ainsi de suite. Une observation importante de cette étude est que le surpoids est un risquesous-estimé dans la presse quoLes deux autres sous études utilisent uneapproche qualitative, herméneutique. Dans la seconde, les éditoriaux et lesarticles de débats – 74 articles en tout – sont examinés. Des questions sontposées sur les acteurs, leurs propos et le style de ceux -ci. La troisièmesous-étude est concentrée sur des textes d'information générale quiconstituent la majorité du matériel. Cette analyse se réduit à certainesannées (1997, 1999, 2001) et uniquement à des articles où l'obésité ou lesurpoids sont le thème principal; les articles où ce sujet est seulementmentionné ont été exclus, par conséquent 407 textes d'information généraleont été analysés en profondeur. Étant donné l'étendue du matériel, il a étéimpossible de faire une analyse détaillée de chaque texte. Celle -ci a étéréduite à un macro-niveau plus compréhensif, et l'accent a été mis sur descaractéristiques génériques, plutôt que sur les spécificités. Un objectifimportant a été de repérer les thèmes dominants dans les contenus desjournaux afin de pouvoir présenter une image globale de la manière dont lesurpoids était représenté dans le matériel étudié. Ces thèmes représentent ,selon nous, une dimension fondamentale récurrente et abstraite dans untexte, qui fonctionne également comme principe d'ordre pour la direction ducontenu. Nous présenterons les résultats les plus significatifs ainsi queles conclusions de cette étude, et nous tenterons, en fin d'article, decomprendre pourquoi la couverture se présente d'une telle manière. Enfin ,nous discuterons brièvement le rôle du journal et sa responsabilité dans lacommunication de santé publique. tidienne par rapport à ses proportionsréelles. Il est surprenant que le sujet ne bénéficie pas de plus d'attentionétant donné le grand nombre de gens qui souffrent d'excès de poids et desrisques que cela implique pour la santé. L'obésité est rarement présentéesur la première page pendant la période étudiée et les articles analyséssont, dans une proportion importante, de petite taille. Qui plus est, trèspeu d'éditoriaux et d'articles de débat ont été trouvés concernant ce sujet .Dans les articles de débat, deux thématiques importantes ont étéidentifiées. L'une est plutôt alarmiste et l'autre sous-estime laculpabilité et la responsabilité. Dans les textes d'information générale ,figurent plusieurs thématiques : des définitions scientifiques, des modèlesd'explication de l'obésité, la signification de la nourriture, l'importanceculturelle, les risques pour la santé, la recherche dans le domaine de lasanté, la promesse d'action, les intérêts commerciaux et finalementl'importance du facteur de genre. Des études ont montré que les publics pensent que le hiv, les drogues et la violence sont les menaces les plusimportantes pour la santé publique (Jarlbro, 1999). Cela peut s'expliquer ,selon la théorie de l' « agenda setting » (McCombs ,2004; Dearing, Rogers, 1996), par le fait que ces sujets accaparentdavantage l'attention des médias que le surpoids. Une conséquence de tousces facteurs pourrait être que ni le public ni les acteurs politiques (oules institutions médiatiques) ne considèrent que le surpoids est un sérieuxproblème de santé. Pourtant, il semblerait qu'une nouvelle évaluation dusujet se mette en place. L'étude montre que le nombre d'articles alarmistesa augmenté chaque année et cela pourrait indiquer que les médias vonttraiter différemment les thèmes du surpoids et de l'obésité dans lefutur. La presse tabloïd est souvent accusée d'avoir un ton excessivement alarmiste .Pourtant, un résultat intéressant est que Aftonbladet, le quotidien tabloïd choisi dans cette enquête, est assezrassurant lorsqu'il s'agit de surpoids. On sait que ce problème de santérelève d'une problématique en lien avec une classe sociale. Il est plusfréquent dans les milieux moins éduqués et de bas revenu (Socialstyrelsen ,2001; sbu, 2002). Ce que sont les lecteurs de Aftonbladet (Lithner, 2000). Une explication à cecipourrait être que le journal ne tient pas à choquer ses lecteurs ou à lesalarmer inutilement. Les textes les plus alarmants sur le sujet figurent dans les articles dedébats et sont écrits par des médecins et des chercheurs. Mais ces articlessont rarement lus par un large public et sont surtout consultés par lesjournalistes et par l'élite politique et culturelle, à savoir les groupessociaux qui ont une situation aisée ainsi qu'une bonne éducation. Autrementdit, ceux qui sont moins affectés par le surpoids et l'obésité : cesgroupes -là ne sont pas la cible prioritaire pour l'amélioration de la santépar rapport aux groupes moins favorisés. Cependant, l'élite est, bienentendu, un groupe puissant, et il semble important d'exercer sur lui uneinfluence lorsqu'il s'agit de problématiques politiques. Dans les journaux, le thème du surpoids se construit de façon très typique parl'intermédiaire de métaphores inspirées par des phénomènes tels que la guerre ,le sport, les désastres naturels, la peste, les crimes et la technologie. Cetteconstruction utilise également des dichotomies et des structures narrativesspécifiques, par exemple la « success story » quiconsidère la transformation du corps comme un idéal vivant. Le surpoids peutencore être présenté comme une maladie ou comparé à un problème financier .Enfin, il est considéré parfois comme une condition physique normale, tandisque, par ailleurs, il apparaît comme un stigmate social. Deux perspectives du surpoids dominent les reportages d'information. Le plussouvent il est présenté comme un risque pour la santé, du moins quand onprend en compte le nombre total des articles, mais il est également souventprésenté comme un dilemme de la beauté. Le premier cadrage fait appel à laraison et à la rationalité, le second mobilise émotions et affects. Lorsque le surpoids est présenté comme un risque pour la santé, il estmentionné de manière incidente dans de petits articles ou paragraphes. Lemême thème présenté comme un risque n'est pas le sujet principal desreportages et le lecteur non attentif risque de ne pas lire l'information .De plus, l'information qui accompagne cette représentation est souventdifficile à comprendre. Des évaluations du risque sont présentées dans unjargon uniquement accessible aux chercheurs et à d'autres experts. Parexemple, les chercheurs parlent de l'activité physique en terme defréquence, de durée et d'intensité. Il parlent également des variablesconfondues, du paradoxe français, de l'obésité de type IL-6, des acidesgras, des tests à double contrainte, du virus AD-36, des hypothèses ducholestérol, de la cytologie, des lipoprotéines, des gènes économes, etainsi de suite. L'information est aussi assortie de chiffres, destatistiques et d'argumentations abstraites. Ceci est un problème généralpour la communication du risque. Les experts argumentent souvent et font desévaluations en des termes spécialisés, tandis que le public ordinaire aspireà une information plus accessible. Sans cette accessibilité, l'informationne sera ni comprise ni utile pour une personne qui veut réagir par rapportau sujet (Jarlbro, 1993; Nordlund, 1994). De ce fait, les textes desjournaux étudiés sont emplis de contradictions (voir infra), ce qui rend d'autant plus difficile une évaluation et unusage de l'information par le lecteur. À l'inverse de ce type de cadrage, on en trouve un autre, celui du dilemme dela beauté ou de l'esthétique. Cette perspective comprend beaucoupd'éditoriaux, de titres sensationnels et elle est amplement illustrée. Dansce cas de figure, le surpoids est au centre de l'article, et lamédiatisation du sujet est plus légère et divertissante. Pour l'évoquer, lesjournalistes utilisent des hyperboles, un vocabulaire effectif et affectif ,et des dichotomies, ce pour créer des conflits intéressants et des tensionsdont l'ensemble augmente la probabilité que l'article soit vu, lu etmémorisé (Van Dijk, 1988). Le contenu est souvent plus descriptif, peucritique, presque naïf, parfois un peu ironique et rédigé sur un tonhumoristique. En soi, l'information est souvent d'une qualité faible, voiredouteuse. Ainsi la santé est-elle réduite à une problématique de l'apparencephysique. Les partisans de cette perspective sont les reporters et lescitoyens eux -mêmes, par exemple des individus autrefois en surpoids, ouobèses, qui témoignent de leur expérience. Cette représentation peut êtreidentifiée dans tous les journaux étudiés, mais Aftonbladet est celui qui lui donne la priorité. La médiatisation de l'obésité comporte de nombreux paradoxes et desaffirmations contradictoires lorsqu'il s'agit de la juger, de l'expliquer etde la comprendre. Certains acteurs sociaux expliquent qu'il n'y a aucuneraison de s'inquiéter au sujet de l'obésité. tre en surpoids ou obèse neconstitue pas un danger tant que l'on fait de l'exercice physique. D'autresparlent du surpoids et de l'obésité comme étant les plus grands dangers pourla santé publique aujourd'hui. Certains affirment aussi qu'il est dangereuxde perdre du poids et expliquent que l'on peut mourir en faisant desrégimes, un expert soutenant même l'idée que le fait d' être obèse n'est passi terrible car cela prévient la friabilité des os. Il existe également des opinions différentes quant aux causes du surpoids .Certains experts suggèrent un modèle d'explication de type génétique .D'autres préfèrent parler des forces structurelles et de différencessociales, des styles de vie différents. Dans certains cas, nos corps sontprésentés comme étant préprogrammés et, par conséquent, l'individu ne peutpas agir pour prévenir l'obésité, ce qui légitime la passivité. Celaimplique que nous confions à d'autres la tâche de résoudre le problème del'obésité (par exemple les chercheurs). Cette idée est soutenue par lacouverture médiatique. Le message est clair : « Accrochez -vous ! Bientôt unesolution miracle ! Les médecins et les ingénieurs y travaillent ». Dansd'autres cas, nous sommes invités à manger la « bonne » nourriture ou àmanger des portions plus petites et à faire du sport afin de prévenirl'obésité. Ainsi sommes -nous encouragés à nous occuper de notre corps et àpenser que nous sommes capables d'agir contre notre surpoids. Finalement ,l'objectif est de regagner une apparence agréable et non pas une bonnesanté. En opposition avec les messages qui nous conseillent de moins manger, desmessages liés à l'industrie alimentaire nous incitant à consommer davantagesont récurrents. On nous demande alors de nous amuser et de prendre duplaisir, mais avec modération. En d'autres termes, nous devons manger notrepart de gâteau, et la garder en même temps ? Mais que devons -nous manger etqu'est -ce qui est à éviter ? Certains experts nous conseillent de renoncer àla graisse. D'autres disent que la graisse est utile pour notre santé .Certains conseillent d'éviter le sucre, tandis que d'autres affirment que lesucre « n'est pas l'ennemi ». Différentes méthodes pour maigrir et diversrégimes sont présentés dans les journaux, les uns plus efficaces que lesautres. Il semble pourtant étrange que les journaux décrivent la perte depoids comme quelque chose de facile et de rapide, tandis que lesstatistiques officielles démontrent le contraire. Ainsi ces articlesprésentent-ils de nombreux paradoxes. Il est difficile pour le lecteur de seretrouver parmi ces messages contradictoires. On lui fournit très peu d'aidepour qu'il puisse décider de son comportement. En définitive, il y a unmessage pour chacun et, par conséquent, l'individu peut choisir de retenirles messages qui lui conviennent le plus et qui sont en accord avec sesopinions personnelles et avec ses comportements. Ce qui veut dire que ,finalement, rien ne change. Dans les journaux étudiés, les personnes en surpoids et obèses sont souventprésentées comme stupides, laides, naïves, paresseuses et répugnantes. Dansles textes, des stéréotypes négatifs sont reproduits au niveau expliciteautant qu'implicite, tant par des experts et que par des gens ordinaires. Lesurpoids est associé avec les notions de surplus et de gaspillage, les genstrop gros sont vus comme un fardeau pour le service médical public et sontparfois considérés comme des parasites. Non seulement ils mangenténormément, mais ils ne semblent pas se faire le moindre souci pourgaspiller le budget des hôpitaux. Une observation intéressante – lue dans les journaux – est que les anciensobèses contribuent souvent à la stigmatisation du surpoids et de l'obésité .Les gens qui ont été trop gros confirment les malheurs des personnes ensurpoids en se dissociant eux -mêmes de leur ancienne condition avec mépriset dégoût. Leur propre perte de poids en constitue une révélation. Commentpeut-on réagir contre les préjugés, lorsque les personnes qui ont souffertd'un excès de poids manifestent autant de mépris pour le surpoids ? Desindividus qui savent ce que cela signifie d'appartenir à ce groupe sontprésentés comme ne semblant ni comprendre ni compatir avec ceux qui sont ensurpoids. Les médias constituent un lieu important de l'expression (ou de laproblématisation) des relations de genre (masculin/féminin). Par conséquent, ilest très intéressant de voir comment les médias traitent le genre quand il estquestion de surpoids. À la lecture des messages médiatiques, il est frappant deconstater que les corps des femmes et des hommes sont décrits et valorisés assezdifféremment. Par exemple, les hommes ont des « poignées d'amour », tandis queles femmes ont des « bourrelets » autour de la taille. Les femmes ont des« rides », les hommes ont des « marques », les femmes ont des cheveux « gris » ,mais lorsque l'on parle des hommes, ils possèdent un « charme des tempesgrisonnantes ». Les mêmes types de changements corporels ou de traits physiquessont présentés de manière différente. Cela est valable aussi pour lesurpoids. Si l'obésité des hommes est acceptée, celle des femmes ne l'est certainement pas .La guerre contre l'obésité mobilise les femmes plus que toute autre guerre. Lesurpoids est constamment présenté comme un enjeu principalement féminin. Celaest évident aux niveaux explicite et implicite dans les articles, les titres etles manières de s'adresser au lecteur, bien que ce soit plutôt des hommes quimeurent des conséquences de l'obésité. Une idée soutenue dans les articles estque les hommes ne sont ni intéressés par le décompte des calories ni par lesport et que, par conséquent, ils n'en ont pas besoin. Le leader syndical d'uneorganisation majoritairement masculine affirme dans un article que : « Leshommes ne peuvent pas se mettre au régime. C'est quelque chose que les femmesfont pour rentrer dans leur maillot » (Aftonbladet ,16/08/98). Ainsi renforce -t-il l'opinion selon laquelle le surpoids est un enjeuféminin et qu'il s'agit surtout d'un dilemme de beauté, non pas d'une questionde santé. En fait, les hommes en surpoids sont souvent décrits de manière positive. Ilsont « un poids confortable » et leurs corps sont « comme il faut ». Enrevanche, le corps des femmes n'est jamais – ou très rarement – présentédans les journaux comme étant « comme il faut », quand il est question depoids et de mensurations. Au contraire, les femmes en surpoids sont décritescomme « trop grosses et négligées », « suantes », « dégoûtantes ». Le corpsféminin en surpoids est présenté comme désagréable et indésirable. Lesfemmes trop grosses sont des bêtes et non pas des belles, tandis que leshommes trop gros ne sont pas traités avec ce genre de mépris. Dans lesarticles analysés, le corps de la femme est surtout un corps de mère, ce quiimplique pour les femmes une grande responsabilité. Elles doivent plaire àleur environnement par leur apparence agréable et aussi garantir la surviedu plus fort. Dans ce cas, cela signifie que les femmes ne sont pas censéestransmettre les gènes de l'obésité à la génération suivante. La femme estaussi présentée comme le principal modèle pour l'image corporelle desenfants ainsi que pour leurs perceptions du corps et, comme si cela nesuffisait pas, elle doit également se charger des habitudes alimentaires desenfants – de la famille entière d'ailleurs – et de l'éducation pour lasanté. L'homme a un seul défi : s'assurer que le surpoids ne le rende pasimpuissant. En ce qui concerne les histoires de succès de perte de poids auxquelles nousavons fait référence, il y a également des schémas de genre. La plusimportante des différences est que les hommes perdent du poids à cause deleur santé, et que les femmes en perdent à cause de leur apparence. Lesfemmes perdent du poids pour plaire à leurs hommes (ou à quelqu'un d'autre) .La raison qui pousserait les hommes à le faire peut aussi être liée au désirde trouver ou de garder un emploi particulier. Dans les reportages, leshommes sont liés au monde du travail, tandis que les femmes sont associéesau foyer et à la famille. De même, tandis que les histoires de succèsstigmatisent le surpoids et renforcent l'ordre établi des rôles de genre ,elles peuvent aussi inciter les gens à agir contre leur propre excès depoids. L'ancien obèse agit dans le sens des modèles de rôles. Une distinction importante entre les sexes est que les femmes sont présentéescomme étant complètement transformées après avoir perdu du poids. La pertede poids des hommes n'est rien que la perte de quelques kilos superflus ,même s'il s'agit bien de 30 ou de 40 kilos. La vie continue comme avant .Rien ne change en fait pour eux, tandis que pour une femme, la réalité esttransformée : elle devient une star. Une inconnue devient connue, et le« nouveau » corps lui ouvre les portes du bonheur, d'une nouvelle carrièreet du succès. Puisqu'elles ont autant de choses à gagner, il n'est passurprenant que les femmes de tous les âges et de toutes les classes socialescommencent à pratiquer des régimes. Et il n'est pas étonnant non plus queles hommes se désintéressent des régimes : qu'ont-ils à y gagner ? Lapréoccupation pour son corps peut donc être regardée comme étant beaucoupplus importante pour les femmes que pour les hommes. Cela contribue à lareproduction des rôles traditionnels de genre : l'homme est toujours vucomme le prestataire, la femme comme une ménagère. La femme est son corps ,mais le pouvoir sur son propre corps est limité. Le corps de la femme estsurtout en rapport avec le regard de l'homme; il est là pour luiplaire. Le pouvoir sur le corps est constitué et reproduit à différents niveaux dans lasociété et par diverses institutions souvent dominées par des hommes (parexemple la politique, la science, le système législatif, la médecine et lesmédias). Cela suscite des questions : si la presse devait traiter l'obésitécomme un enjeu plutôt masculin, serait-elle analysée différemment par lesacteurs politiques ? Y aurait-il un plus grand intérêt politique pour cettequestion de santé si elle n'était pas si fortement associée à la beauté féminineet au bonheur ? Ou bien est -ce que ce sont les différences sociales qui font quele surpoids est un sujet si controversé que les élites essaient de l'éviter ?Car il est certainement étrange que des célébrités parlent plus souvent dans lesmédias du surpoids que ne le font les politiciens, les acteurs des décisionsofficielles ou les autorités de la santé. Pourquoi en est-il ainsi ? Cesderniers ne sont-ils pas suffisamment intéressés par le sujet, ou bien lespremiers sont-ils considérés par les journaux comme plus intéressants pour lepublic ? Les lecteurs ont des besoins d'information différents, et ce que les médiasoffrent peut être utilisé de façons différentes. Il est également important decomprendre que, même si les journaux offraient la « meilleure » médiatisationpossible, cela ne garantirait pas pour autant une communication réussie. Il estdifficile de prédire comment un lecteur utilise une information. Des obstacles ,tels le manque de connaissances antérieures, d'intérêt ou de faibles capacitésde lecture peuvent détériorer la transmission de l'information. L'attitudeantérieure du lecteur est également importante : est-il plus attiré par ledivertissement ou par l'information ? Le lecteur qui désire davantage êtrediverti est probablement plus ouvert et peut voir autre chose que celui quidésire être informé. Le résultat de la lecture, la possibilité de comprendre etd'utiliser un message, dépendent des connaissances antérieures, des expériencespersonnelles et des aspirations que le lecteur projette dans l'acte delecture. Quand il s'agit de transmettre des messages de santé, le journalisme dedivertissement peut s'avérer aussi efficace que celui d'information. Lesrecherches ont montré que l'information accrocheuse et le format dramatiqueaugmentent la possibilité d'influencer la perception des risques chez lesindividus (Snyder, Rouse, 1995). Mais les formats de divertissement peuvent nepas fonctionner pour tous les types de public. Certains résultats indiquentqu'ils peuvent fonctionner plus efficacement pour les moins éduqués. Parconséquent, les reportages souvent sensationnalistes et dramatiques de Aftonbladet peuvent, en dépit de notre critiqueantérieure, influencer la perception que les individus ont du surpoids. L'humourest souvent utilisé dans les reportages; en utilisant un ton humoristique etléger, les articles peuvent davantage attirer de lecteurs. Pourtant, des véritésimportantes peuvent être cachées derrière l'humour et l'ironie. L'humour estsystématiquement utilisé par les reporters de manière non réflexive lorsqu'ilsdécrivent l'obésité et les personnes en surpoids. De cette manière « innocente »et apparemment inoffensive, le journalisme contribue à la reproduction desstéréotypes et des préjugés. Les acteurs repérés – ou non – dans les articles des journaux sont un indice .Les acteurs dominants dans la couverture médiatique sont des journalisteseux -mêmes, des médecins et des chercheurs. Le fait que les journalistessoient des acteurs si importants dans les journaux étudiés peut expliquerpourquoi le surpoids est souvent présenté comme un problème de beauté. Lesurpoids en tant que dilemme esthétique est un contenu médiatique qui sevend bien. Quant aux médecins, si nous savons qu'il existe des controversesau sein de cette profession, les journalistes présentent ce groupe commeétant assez unanimes : il paraîtrait que la science parle d'une seule voix .Le consensus scientifique est construit dans les journaux en mettantl'accent sur certaines opinions scientifiques et médicales et en enmarginalisant d'autres. Plusieurs recherches ont montré (Altheide, 1991 ;Ekström, Nohrstedt, 1996; Hukltén, 1999; McCombs, 2004) comment les médiastravaillent et présentent l'information en tenant compte des sujets le plussouvent favorisés par les journalistes. Enfin, les acteurs de l'industrie alimentaire ne semblent pas intéressés parle fait de participer à la formation de l'opinion publique. Cette industrieest rarement présente en tant qu'acteur dans les journaux. De plus, ellen'est pas tenue pour responsable par les journalistes et ne semble ainsiavoir aucune responsabilité quand il s'agit de surpoids. Ce qui est encoreplus surprenant est que ce traitement médiatique s'applique également àl'Autorité nationale de la santé publique suédoise (Statens folkhälsoinstitut), àl'Administration nationale de l'alimentation suédoise (Statens livsmedelsverk) et à d'autresinstitutions des services de santé. Le journalisme est rarement apprécié par les chercheurs. Cependant, il estimportant de dépasser la critique pour considérer le sens de l'offremédiatique. Pourrait-il y avoir une autre manière de présenter les choses ?Celle -ci serait-elle assez efficace ? Les journalistes ont uneresponsabilité personnelle vis-à-vis de leur production, mais l'ensemble dela presse a aussi une obligation collective. Les journalistes ne sont pas audessus des critiques, mais il faudrait comprendre qu'ils sont contraints pardes conditions spécifiques de travail et par des principes économiques quiles empêchent souvent d'atteindre leurs idéaux professionnels, tels lesimpératifs commerciaux, la pression du temps, ou encore le traitement desecteurs dont ils ne possèdent qu'une connaissance restreinte. Cescontraintes les empêchent souvent d'atteindre leurs idéaux professionnels .Parce que les journalistes manquent d'habitude et de compétences pourévaluer l'information médicale, ils risquent de devenir de simples relais dela profession médicale, incapables d'avoir une vision critique. De manièreidéale, les journalistes devraient pouvoir parler et réfléchir à la manièredont ils présentent le surpoids (ainsi que d'autres aspects de la réalité) ,par exemple lors de séminaires, de sessions de formations, mais aussi parl'intermédiaire de discussions internes. Cela s'est déjà avéré efficace pouraider les journalistes à sortir de schémas standardisés et destéréotypes. Les professionnels de la santé ainsi que les journalistes ont uneresponsabilité quand il s'agit d'informer le public de manière satisfaisantesur le surpoids et les risques qui en découlent. Dans un certain sens, laprofession médicale doit être un élément responsable au sein de l'espacepublic. Elle doit se maintenir à un certain idéal pédagogique et éducatifmais, tout comme les journaux, elle échoue dans cette tâche. L'une commel'autre ne réussissent pas à transmettre l'information nécessaire àl'individu non avisé. La profession médicale semble plutôt s'intéresser à lacommunication entre pairs et à la présentation des derniers résultats dansun langage crypté sans aucune considération pour un large public. Si laprofession médicale ne s'acquitte pas de la mission d'informer le public, ily a un risque réel que des institutions moins avisées s'en occupent. Quantaux journalistes, ils semblent souvent oublier leur rôle critique dans leurambition de populariser et de vendre des informations. Dans certains cas ,ils ne possèdent pas la compétence pour traduire les affirmations desexperts dans un langage compréhensible. Le rôle de l'espace public dans lasociété ainsi que la confiance des publics dans les médias demandent unecertaine normativité dans la présentation de l'information. Celle -ci se doitd' être précise, équilibrée et pertinente. Le surpoids et l'obésité sont desenjeux trop graves pour qu'ils soient traités tel qu'ils le sontactuellement. Il faudrait donc qu'ensemble, journalistes et membres desprofessions médicales améliorent leur contribution. Les médecins et leschercheurs doivent mieux adapter leurs manières de s'exprimer et des'adresser au public. Ils doivent aussi apprendre comment les médiasfonctionnent et comment collaborer avec les journalistes de façonproductive. Il y a bien sûr beaucoup d'exemples de journalisme pertinent dans les journauxétudiés. En revanche, la présence avérée d'un journalisme de moindre qualité estpréoccupante. Cependant, nous devons mettre les choses en perspective. Lepouvoir des médias ne doit être ni sous-estimé ni exagéré. Les médias neconstituent qu'un acteur parmi de nombreux autres sur le marché des opinions. Deplus, il est difficile de différencier les effets médiatiques des effets de lacommunication interpersonnelle par exemple, car les deux sont en interaction .Nous parlons à des amis, à la famille et à nos collègues de ce que nous lisonsdans les journaux et de ce que nous regardons à la télévision. L'espace publics'étend dans la réalité de la vie de tous les jours. Il est important de retenirque les lecteurs ne se limitent pas à la vision de la réalité qu'en offre lapresse quotidienne. En outre, le paysage médiatique est plus riche que jamais etde plus en plus complexe. Et pourtant. .. Les médias et les professions médicales ne sont pas seulsresponsables de la définition de l'espace public ayant trait à la santé. Dans leflux de la communication, le quotidien reste central dans la construction de laconfiance des individus, ainsi que dans la formation de l'opinion publique. Lesquotidiens sont des indicateurs importants. Ils nous accompagnent dans nosdécisions et dans nos existences, et indiquent des directions à suivre dansnombre de secteurs de la vie. Si nous ne sommes pas satisfaits de la façon dontils informent sur les questions de santé publique, la question est de savoir quipeut faire mieux et qui relever le défi ? Des recherches ont montré que lepublic fait davantage confiance aux professionnels de la santé et aux autoritésdu service médical qu'aux médias en ce qui concerne l'information sur desthématiques de santé. Pourtant, les individus ne reçoivent pas l'informationprovenant de cette source, mais bien des médias. Nous ne pouvons pas affirmerque la responsabilité de ce phénomène revient aux professionnels de la santé etaux autorités qui seraient trop passives, invisibles ou incompréhensibles. Maisil est à craindre que si personne ne se charge de l'information sur la santépublique, les problèmes risquent de devenir plus graves. Il est habituellement plus économique de prévenir la maladie que d'agir sur elleet, dans le travail de prévention, la communication pour la santé est un élémentimportant. La couverture médiatique des risques de santé reste en principe unmoyen rentable et efficace pour promouvoir des changements de comportements. Ilsemblerait cependant qu'en pratique, les impératifs de la logique médiatique s'yopposent .
Partant du constat que l'espace public n'a pas nécessairement toujours un rapport explicite avec les idéaux civiques, et que les médias ont la responsabilité d'accompagner les publics dans des choix pouvant influer sur leur santé, cette contribution étudie la manière dont la presse quotidienne présente le thème de l'excès de poids (ou obésité) en Suède. Après une prise en compte des multiples perspectives de recherche concernant le problème de l'obésité, deux cadrages dominants de la construction de l'obésité sont ensuite traités (raison et rationalité, émotions et affects). Enfin, l'importance du genre (masculin/féminin) et l'opposition structurante divertissement vs information dans la construction médiatique du surpoids sont analysées. Au terme de cette étude se dessinent les difficultés d'une collaboration fructueuse entre journalistes et membres des professions médicales sur le problème de l'obésité. Pourtant, « It takes two to tango » [Il faut être deux pour danser le tango]. Médecins et chercheurs doivent mieux adapter leurs manières de s'adresser au public et apprendre comment collaborer avec les journalistes de façon productive. Mais journalistes et médias ont aussi une responsabilité: si le public fait davantage confiance aux professionnels de la santé en ce qui concerne leur information, ce n'est pas de ceux-ci que les individus reçoivent l'information, mais bien des médias.
sciencesInfo_10-0245713_tei_1098.xml
termith-343-communication
Depuis l'étude pionnière de Craig Silverstein (1998) sur le moteur de rechercheAltavista jusqu'aux récents travaux de Sherry Koshman, Amanda Spink et Bernard J .Jansen (2006) sur le métamoteur Vivisimo, plus d'une centaine d'études ont étéconsacrées, principalement dans le monde nord-américain, à l'analyse des pratiquesd'accès des internautes aux sources d'information en ligne. En France, plusieursauteurs se sont également intéressés à cette question. Citons Thomas Beauvisage ,Valérie Beaudoin et Houssem Assadi (2007) qui ont utilisé la technique des panelspour effectuer une analyse des pratiques des usagers selon leur profilsociodémographique (âge, sexe, CSP, socio-style, etc.), ou encore Josiane Jouët( 2003) qui propose une analyse critique de ces dispositifs de mesures et d'étudesd'audience. Ces travaux se caractérisent par leur diversité, tant méthodologiquequ'en lien avec les objectifs qui les animent – scientifiques et commerciaux –, etles cadres théoriques dans lesquels ils s'insèrent. À côté des études de naturescientifique, il en existe également de nombreuses autres, réalisées par dessociétés de conseil en médiamétrie (Nielson/Netrating, Xiti, etc.), dont lesrésultats sont notamment présentés dans l'ouvrage de François-Xavier Hussherr etSophie Neron (2002). Quelques grandes tendances émergent. Ainsi constate -t-on que, désormais ,l'utilisation d'un moteur de recherche est une pratique courante de la viequotidienne des individus et que les internautes ont tendance à être fidèles à unvoire deux outils. Déjà en 2002, un peu plus d'un cinquième du trafic de l'internetétait généré par les outils de recherche (Hussherr, Neron, 2002). La majorité desusagers sont également confiants dans la probité des annuaires et des moteurs derecherche. En revanche, il apparaît qu'ils sont peu au fait des implicationspolitiques, culturelles et économiques liées à l'utilisation de ces outils; parexemple, selon l'étude de Deborah Fallows pour le Pew Internet& American Life Project, en 2005, 57 % des internautes ignoraient que les moteursconservent des données relatives à leur navigation et que celles -ci peuvent êtreréutilisées dans un cadre commercial. Dans le cadre de cette contribution, le premier objectif est de savoir ce qu'il enest de l'usage des moteurs de recherche et, plus précisément, la manière dont lesétudes visant à identifier et expliciter ces usages correspondent à des objectifsplus ou moins avoués (elles ne sont pas neutres, sont souvent limitées, parfoisdiscutables dans leurs fondements méthodologiques et, de plus, difficilementcomparables). Dans ce contexte, la réflexion est triple. Il s'agit d'abord d'identifier les grands courants auxquels correspondent ces études .Nous en avons identifié quatre et les avons structurés de la manière suivante : lepremier correspond à l'analyse des tactiques et stratégies de recherche mises enœuvre par les usagers; le deuxième à l'analyse des modes de lecture et dequalification des résultats; le troisième à l'analyse par catégorie d'usagers; lequatrième à l'analyse par différenciation du contexte. Les deux premiers axescorrespondent aux approches qui utilisent l'analyse des logs comme outil principalde collecte des données. Les deux derniers privilégient des méthodologiesexpérimentales et/ou qualitatives pour le recueil des données. Le deuxième objectif est de montrer que cette grande variabilité méthodologiqueinflue directement sur les résultats de l'analyse des données et pose des problèmesd'interprétation. En effet, la méthode choisie pour recueillir les données influeplus particulièrement sur l'analyse des usages. Elle n'est donc pas neutre, maisdépend des objectifs de l'analyse qui, pour leur part, sont plus ou moinsexplicites. Certains sont de nature commerciale (toucher une cible pour affiner unestratégie marketing), d'autres visent à améliorer les moteurs. En ce sens, nous nenous situons pas dans le cadre de l'évaluation de la performance des moteurs( contrairement aux campagnes d'évaluation de type trec) nide l'analyse comparative des fonctionnalités de recherche. Le troisième objectif vise à montrer que les études sur les moteurs de recherches'inscrivent à la fois dans un mouvement de continuité par rapport aux étudesconsacrées aux cédéroms, aux catalogues de bibliothèques en ligne (OPAC) et auxserveurs commerciaux, et dans un processus de rupture. Indiscutablement, la questionde la recherche d'information n'est pas nouvelle, mais on peut avancer qu'elle sepose en des termes neufs. Rappelons les études notamment publiées dans la revue cd-Rom and Online Review dans les années 8 et qui portaient principalement sur l'usage professionnel des serveursd'informations tel que Dialog ou STN, puis sur les usages des cédéroms d'informationspécialisée. Aujourd'hui, on constate une rupture, induite par un certain nombre demutations, dont l'extraordinaire croissance du nombre d'usagers des outils derecherche, leur appropriation par le « grand public » – qui influe désormais, mêmesi c'est indirectement, sur l'évolution technologique des moteurs, y compris à usageprofessionnel –, la volonté d'accéder directement au contenu informationnel primaire( le texte intégral) et non plus aux seules références bibliographiques, uneévolution des habiletés informationnelles requises (les internautes n'ont plusbesoin de maîtriser les langages documentaires pour interroger un moteur derecherche). Dans un premier temps, nous présenterons les quatre axes identifiés, en ne retenantque ceux qui permettent de discuter quelques points saillants. Introduites dans lapremière partie, ces questions seront synthétisées dans la seconde. Les études recensées sont regroupées en quatre axes qui correspondent à la foisaux « objets » analysés, aux variables étudiées et à la méthodologieretenue. Compte tenu de la spécificité méthodologique de l'approche, les études quirelèvent de la première catégorie permettent de caractériser le comportementdes internautes à travers la diversité des fonctionnalités des moteurs derecherche. Elles présentent des résultats sur le nombre de sessions et demots clés saisis, la reformulation des requêtes, l'usage des opérateurs ,etc. Dans leur ouvrage sur les usages des moteurs de recherches, AmandaSpink et Bernard J. Jansen (2004) montrent que les requêtes des usagers necomportent qu'un, voire deux mots. Les utilisateurs n'ont presque jamaisrecours aux fonctionnalités avancées et il est fréquent de trouver desfautes d'orthographe dans la requête. Les auteurs constatent également quela grande majorité des requêtes ne contiennent pas d'opérateurs booléens (5à 10 % seulement en contiennent) et que les usagers ont encore desdifficultés à maîtriser l'usage des opérateurs. Ils montrent également quel'opérateur booléen and est de loin le plus utilisé et que les utilisateursrecourent très rarement à la possibilité de créer des expressions (termesentre guillemets). Des travaux plus récents sur d'autres moteurs de recherche confirment cesdonnées. Bernard J. Jansen et Amanda Spink (2006) présentent une comparaisonde neuf moteurs – quatre européens et cinq américains sur une période desept ans. On constate des similitudes et des différences dans chacune desutilisations. Les utilisateurs réagissent de la même manière pour ce qui estde la durée des sessions, de la taille des requêtes et du nombre de pages de résultats lus. En revanche, les opérateurs derequêtes américains sont un peu plus utilisés par les usagers des moteursaméricains (quel que soit leur lieu de connexion). Dans une session, ladistribution du nombre de requêtes indique qu'environ 71 % des sessions secomposent d'une ou deux questions. De leur côté, Soyeon Park, Joon Ho Lee et Hee Jin Bae (2005) ont analysé lecomportement de recherche d'informations sur la toile des utilisateurscoréens du moteur de recherche Naver. À partir du recueil de logs portant sur plus de 40 millions de requêtescollectées sur une semaine, ils montrent que 83 % des sessions se composentd'une ou deux requêtes et que près de 90 % de celles -ci sont composées d'unseul mot. Dans le cas d ' AOL (Beitzel, 2006), le nombre de termes parquestion est de 2,7 alors qu'il est de 3,14 pour le métamoteur Vivisimo( Koshman et al., 2006). La même étude montre que laplupart des utilisateurs conduisent plusieurs recherches successives sur unmême sujet mais de manière discontinue, modifiant plusieurs fois leurrequête et complétant leurs informations. Concernant la reformulation desrequêtes, Amanda Spink et Bernard J. Jansen (2004) montrent que près de lamoitié des requêtes sur le moteur Excite sont modifées. Cette reformulationporte d'abord sur la substitution d'un ou plusieurs termes de la requête ,puis sur un ajout et, enfin, sur une suppression. Bien qu'Excite soit unsystème capable de retourner des pages similaires à un lien donné enrésultat, il s'avère que seulement 5 % des utilisateurs utilisent cettepossibilité (Jansen, Spink, 2006). D'autres études se sont intéressées aux aspects multilingues des moteurs derecherche. Ainsi Hae-Young Rieh et SooYoung Rieh (2005) montrent-ils que leschercheurs n'utilisent pas les capacités multilingues des moteurs : ils enfont un usage monolingue, essentiellement en anglais. À cet égard, on peutse demander si cette pratique linguistique est due aux contraintestechniques des moteurs de recherche ou à la représentation que s'en font lesusagers. Comme le montrent Judit Bar-Ilan et Tatyana Gutman (2005), lestrois moteurs – Alltheweb, Altavista et Google – ignorent lescaractéristiques des langues autres que l'anglais, en particulier les signesdiacritiques. De son côté, Haidar Moukdad (2004) a testé six moteurs( Alltheweb, Altavista, Google, Albahhar, Ayna, Morfx) et montré quel'utilisation des formes exactes de mots arabes dans les moteursgénéralistes aboutit a une perte d'information, du fait de l'absence d'unanalyseur morphologique dans ces systèmes. L'ensemble des recherchesconduites montrent que les pratiques d'accès sont en-deçà desfonctionnalités proposées. Cela correspond aux usages des systèmesd'informations traditionnels (Markey, 2007). Au-delà des résultats concernant le nombre de sessions, de mots clés utilisésou l'usage des opérateurs booléens, l'analyse des logspermet de constater des pratiques « détournées » de certainesfonctionnalités des moteurs de recherche. En effet, ces derniers sontparfois utilisés comme des outils de vérification orthographique ou commedes outils de localisation d'un site dont on connaît l'url, mais que l'on nesouhaite pas saisir dans le champ approprié (Ravid etal., 2007). Ce mode d'appropriation correspond à une forme de« braconnage » de fonctionnalités pour reprendre un concept développé parMichel de Certeau (1990). Un deuxième groupe d'études est centré sur l'appropriation des résultatsfournis par les moteurs et leur validation par les usagers. Beaucoup portentsur le nombre de pages lues, telle celle de Steve Beitzel (2006) qui montreque, dans le cas d ' Technology, 79 % des usagers ne regardent que le premierécran, 15 % le second, et 6 % trois écrans ou plus. En moyenne, les usagersvisualisent 1,7 page de résultats par session pour Excite, 2, pour Alltheweb( Jansen, Spink, 2006), 1,1 page pour le moteur coréen Never (Park, Bae ,2005). Une analyse oculométrique (méthode du eyetracking )menée sur msn et Google montre que si les internautes lisent linéairementles résultats d'un moteur de recherche, le temps de lecture décroît trèsrapidement entre le premier et le dernier résultat (Pan et al., 2007). La lecture du premier dure 2,2 secondes, contre0,2 seconde à 0,3 seconde pour le dernier. Ce sont donc les premiersrésultats qui captent le plus l'attention de l'internaute. La même étuderévèle que les utilisateurs de l'internet accordent une confiance exagéréeau système de classement des résultats utilisé par le moteur de rechercheGoogle. Ce constat a des conséquences importantes du point de vue des enjeuxcommerciaux, ce qui explique que certaines techniques de référencement desites utilisent le spamming pour améliorer artifciellement lepositionnement de leurs sites dans les pages de résultats. L'une des solutions apportées pour aider les usagers à « lire » et naviguerdans l'espace des résultats est la catégorisation et la classification .C'est le cas de Vivisimo, étudié par Sherry Koshman, Amanda Spink et BernardJ. Jansen (2006). Ce métamoteur regroupe automatiquement les réponses, aussibien en listes qu'en catégories thématiques potentiellement intéressantes .L'analyse de l'interaction des usagers indique que la moitié seulement desinteractions consiste en l'affichage d'une catégorie. En revanche, lesusagers n'interagissent pas avec l'arborescence pour afficher lessous-catégories. Une autre solution pour aider les internautes à consulter les résultats estproposée par les outils de visualisation de l'information. Mais il existetrès peu d'études d'usage concernant ces outils. Walky Rivadeneira etBenjamin B. Bederson (2003) ont comparé trois systèmes : le moteur Crocker ,sa version textuelle, et le métamoteur Vivisimo. Ils concluent que lesusagers ont une préférence pour les versions textuelles. Christophe Tricotet al. (2006) ont réalisé une expérience mettantl'utilisateur dans une situation de recherche d'information à partir d'unsystème de visualisation de données hiérarchiques. Les arbres de cônes end ont posé des problèmes pour les usagers novices. Alexandra Ciaccia et al. (2006) ont évalué deux moteurscartographiques, Kartoo et Mapstan, et montrent que la visualisation semblecognitivement coûteuse : en général, elle est associée à des temps detraitement plus longs et à plus d'activités de manipulation, sans pourautant conduire à des meilleures performances, par comparaison avec uneprésentation en liste. Un autre enjeu lié à la lecture à l'écran concerne la validation, par lesusagers, des différents liens proposés par le moteur. À cet effet, denombreuses études montrent que les usagers font peu de distinction entre lesliens sponsorisés et les autres. Sur Google, près de 62 % des internautes nefont aucune distinction entre les informations publicitaires et les autres( Fallows, 2005). La présentation des résultats et des liens publicitairesest conditionnée par les stratégies d'indexation. Certains auteurs remettenten cause la neutralité de l'indexation et du classement des résultats; àtravers la notion de Googlearch », d'autresmontrent que l'audience ne se concentre que sur les sites vers lesquelspointent le plus de liens. Pour Gloria Origgi (2003) : « La structure desliens produite culturellement par les choix individuels des créateurs depages web est interprétée par les algorithmes de recherche comme unehiérarchie de valeur à travers les pages. La hiérarchie des résultatsinfluencera à son tour les choix des utilisateurs en cercle vertueux decollaboration entre humains et automates ». À l'inverse, Santo Fortunato et al. (2006) démontrentque, malgré cette tendance à l'uniformisation liée aux algorithmes de typePagerank de Google, qui privilégient les sites les plus cités, la diversitédes mots clés utilisés par les internautes produit « un effetd'égalisation ». Selon les auteurs, cet effet permet à des sites peu connusd' être néanmoins présents dans les pages de résultats. En ce sens, lesgrands sites d'information et les moteurs de recherche paraîtraient pluspropices à la rencontre d'opinions opposées que d'autres sites comme lesblogs. Un troisième groupe d'études, utilisant essentiellement des approchesexpérimentales, prend en compte les dimensions individuelle et cognitive desusagers. Ces dernières s'appuient par exemple sur une différenciation desusagers selon leur compétence conceptuelle (connaissance du domaine ou non )et leur savoir faire méthodologique (expertise en recherche d'informations) ,la typologie et la variabilité des tâches de recherche ou l'identifcationdes styles cognitifs. Ainsi plusieurs études empiriques ont-elles pu mettreen évidence que les stratégies de recherche et de navigation sont soumises àdes variabilités interindividuelles. De nombreux auteurs ont constaté quel'expertise dans un domaine était un facteur important pour la performancede recherche d'information (Marchionini, 1995). Dans le cas des moteurs de recherche, des études (Tricot etal., 2000; Lazonder et al., 2000 ;Palmquist, Kim, 2000) ont tenté de répondre à cette question dans le cadred'une expérience comparant une recherche d'information entre deux groupesdont l'un est composé de non-utilisateurs du web et l'autre d'utilisateursréguliers, les deux étant considérés comme maîtrisant de la même façon ledomaine sur lequel portait la recherche d'informations. Aucune différencesignificative entre les deux types de groupes n'a été mise en évidence, lesutilisateurs réguliers du web n'ayant pas fait de recherches d'informationplus performantes. Les chercheurs ont plus précisément remarqué que lesutilisateurs familiers font un usage aussi intempestif qu'inefficace du siteweb : ouverture fréquente de pages non pertinentes, nombre très grand deliens activés. Par conséquent, une précision très faible caractérise leursrésultats et leur démarche semble irrationnelle et inefficace d'un point devue informationnel. Ard Lazonder et al. (2000 )montrent que les experts de l'internet parviennent à rechercher del'information plus rapidement que les novices. Un des résultats intéressantsde telles études (Palmquist, Kim, 2000) est que l'expérience de recherche enligne peut énormément réduire l'effet de dépendance vis-à-vis dudomaine. Ce résultat est corroboré par les travaux de Madjid Ihadjadene et al. (2003) qui suggèrent l'existence d'unmécanisme de compensation entre les deux types de compétences (dans ledomaine et dans la recherche d'information). D'une manière générale, lesexperts font davantage appel à leurs méta-connaissances, en ce sens qu'ilspossèdent les connaissances et les heuristiques nécessaires à l'optimisationde leurs stratégies de recherche. Ainsi s'orientent-ils plus souvent versdes sites spécialisés pour lesquels ils font l'hypothèse qu'ils contiennentles réponses à leurs questions (Tabatabai, 2005). D'autres études montrentnéanmoins que, malgré leur expérience, les experts ont rarement recours auxfonctionnalités avancées telles que les expressions booléennes, latroncature de mots ou les opérateurs de proximité lexicale dans leurinterrogation des moteurs de recherche (Choo et al. ,2000). Malgré son apparente facilité méthodologique, le modèle novice/expert surlequel se fondent nombre d'évaluations n'est pas sans poser problème etprésente plusieurs limites que nous ne ferons qu'évoquer. Les études donnentnon seulement des résultats contradictoires mais, surtout, la notiond'expertise y est souvent mal définie et y est variable. Comme le montrentles typologies à la fois « flottantes » et hybrides des catégories (plus oumoins novice, intermédiaire, plus ou moins expert…), la frontière entrenovice et expert n'est pas facile à établir. Un autre aspect souvent étudié est l'analyse des tâches de recherche .Dépassant la dichotomie question ouverte/question fermée utilisée dans lesétudes portant sur les systèmes de recherche classiques (catalogues ,cédéroms, hypertextes…), plusieurs auteurs suggèrent de distinguer troistypes de tâches dans l'analyse des moteurs de recherche sur l'internet .Ainsi Andrei Broder (2002) distingue -t-il trois objectifs dans le processusde recherche : trouver une page ou un site particulier qui serviront d' «ancrage » à la navigation, repérer une information nécessitant laconsultation de plusieurs pages et, enfin, consulter une page afind'accomplir une transaction telle qu'un achat en ligne. Selon le mêmeauteur, la répartition des requêtes entre ces trois tâches estrespectivement de 50 %, 20 % et 30 %, alors qu'elle serait de 60 %, 14 % et25 % pour Daniel E. Rose et Danny Levinson (2004). La dernière catégorie de travaux s'intéresse à la différenciation descontextes de recherche. Mais la notion de contexte y est souventpolysémique. Elle peut correspondre à une distinction entre les lieuxd'activité de la recherche d'information, les objectifs et motivations decelle -ci ou les catégories sociodémographiques considérées. Ainsi certainesétudes s'appuient-elles sur la dichotomie contexte privé vs contexte professionnel pour l'analyse des moteurs de recherche .Par exemple, SooYoung Rieh (2004) montre qu'il existe des différences entrel'usage du web au domicile et au travail, quand bien même les tactiques etstratégies de recherche des utilisateurs semblent-elles identiques. D'autresétudes consacrées à l'analyse des moteurs de recherche utilisés dans desintranets d'entreprises ont confirmé celles portant sur les moteurs derecherche généralistes. Pendant trois ans, Dick Stenmark et T a line Jadaan( 2006) ont analysé l'usage du moteur intranet de Swed Corpen Suède; ils ont constaté que le nombre moyen de termes utilisés estinférieur à 1,5 et qu'il est resté stable entre 2000 et 2004. Ils mettentégalement en évidence que près de 67 % des requêtes ne contiennent qu'unseul terme et que le nombre moyen de pages consultées est inférieur à 2. Dépassant cette opposition privé/professionnel, de récents travaux encommunication (Godard, 2007) s'intéressant aux interactions entre le mondedu travail et la sphère privée, montrent une hybridation des pratiques etl'existence d'un continuum entre les usages privé etprofessionnel des technologies de l'information, et donc des moteurs. Onpeut supposer que, parmi les facteurs qui sous-tendent cette hybridation, setrouve la question du rapport au temps et à l'espace de travail. Cettequestion est notamment mise en évidence dans le cadre du télétravail et ,plus spécifiquement, dans la gestion des supports de stockage des résultatsde la recherche d'information (les outils de stockage mobiles comme la cléusb, les espaces de stockage en ligne, la gestion des favoris, l'usage mixteprivé/professionnel de la messagerie électronique ou la création debibliothèques numériques personnelles). De même, de nombreuses études s'intéressent aux objectifs et motivations dela recherche d'information. Si, avant la généralisation de l'usage desmoteurs de recherche sur l'internet, les travaux portant sur les systèmesd'accès à l'information traditionnels concernaient exclusivementl'information à usage professionnel (utile à l'individu au travail) audétriment de celle à usage privé, il n'en est plus de même aujourd'hui .L'analyse de la recherche d'information à usage privé est devenue un courantautonome (every day life information seeking). Deplus, l'analyse des comportements des usagers des moteurs en ligne suggèreune hybridation des pratiques; dans une même session, un usager peutrechercher des informations de nature différente, professionnelle etprivée. Enfn, il existe un troisième groupe d'études qui explicitent le contexte enprenant en compte les facteurs sociodémographiques tels que l' âge, le genre ,le capital symbolique, la richesse du réseau social, l'autonomie desutilisateurs… Depuis quelques années, de plus en plus de recherchess'intéressent à la question du genre et de son influence dans la recherched'informations. Ainsi, pour Manon Arcand et Jacques Nantel (2005), ilsemblerait que les hommes consultent plus de pages, alors que les femmesprennent plus de temps dans la lecture des contenus des sites. PourMarguerite Roy et Michelene T. H. Chi (2003), les hommes auraient tendance àpasser plus de temps à saisir les requêtes et consulter les pages derésultats alors que les femmes privilégieraient la consultation directe dessites indiqués dans les pages de résultats. De leur côté, Andrew Large et al. (2002) observent des différences significatives dans le comportement desfilles et des garçons. Ils montrent que, par minute, les garçons utilisentmoins de mots dans les requêtes, passent moins de temps sur chaque page, etcliquent sur plus de liens que les filles. À l'inverse, d'autres études ,comme celles de Melius Weideman et Corrie Strümpfer (2004) ou d'AmitBhatnagar et Sanjoy Ghose (2004), montrent que le genre n'est pas un facteurde différenciation, sauf pour des tâches de recherche transactionnelle, parexemple, quand il s'agit d'une recherche d'information pour l'achat en ligne( Ha, Stoel, 2004). Un autre facteur étudié est l'influence de l' âge. Si plusieurs évaluationsont été réalisées sur les enfants, souvent en milieu scolaire ou étudiant ,très peu ont porté sur les autres âges de la vie et, en particulier, sur lespersonnes âgées. De ce point de vue, Dania Bilal (2004) a montré que, auprèsdes élèves, la navigation donne de meilleurs résultats que la recherche parmot clé. L'expérience de navigation du web aide ces utilisateurs àidentifier et localiser plus de sites pertinents et plus rapidement. Enrevanche, elle ne les aide pas à trouver les informations précises àl'intérieur même des sites. Concernant les personnes âgées, plusieurs études ont mis en évidence qu'unemajorité de sites web et moteurs de recherche sont difficiles à utiliser pardes personnes âgées. Aideen J. Stronge, Wendy A. Rogers et Arthur D. Fisk( 2006) montrent que, intrinsèquement, cette inefficacité s'explique plus parle choix de stratégies de recherche souvent inefficaces que par l' âge. Mais ,Madjid Ihadjadene et al.. (2005) expliquent qu'avecun niveau égal d'expérience d'usage de l'internet, les seniors atteignentautant d'objectifs de recherche que les étudiants, et les plus expérimentésy parviennent dans des délais comparables à ceux de leurs cadets. Cesrésultats semblent confirmer la mise en place de mécanismes de compensationet rejoignent les travaux réalisés sur le maniement de logiciels. On le voit, ces exemples attestent d'une très grande hétérogénéité desapproches. Celles -ci sont conduites par des communautés scientifiquesdifférentes (sociologie des usages, économie et gestion, sciencescognitives, sciences de l'information…), avec des objectifs eux -mêmesdivers (scientifiques ou commerciaux). En dépit des avancées significatives concernant les pratiques des moteurs derecherche dont témoignent ces études, nous constatons des problèmes dedifférentes natures : terminologique, méthodologique, d'interprétation. Sur leplan terminologique, la définition des principaux concepts opératoires estsouvent absente, peu explicite ou divergente. C'est en particulier le cas des notions clés comme le « besoin informationnel » ,la « pertinence », la « compétence », ou l' « expertise » de l'usager, le« contexte », la « navigation », la « lecture » des résultats De même, iln'existe pas de définition stable et partagée de ce que sont un « internaute » ,une « session » de recherche ou une « tâche de recherche ». Sur le plan méthodologique, les résultats sont difficilement comparables ,notamment du fait de la variabilité des contextes et publics analysés. Comme lemontrent Kirstie Hawkey et Melanie Kellar (2004) – dans une méta-analyse portantsur 31 études qui correspondent aux deux dernières catégories –, de nombreusesvariables sont peu ou mal renseignées. Ainsi seulement une étude sur deuxprécise -t-elle le genre de l'échantillon de la population considérée oul'expérience et la compétence des usagers. La date de l'expérimentation n'estindiquée que dans 25 % des études, et la signification statistique des donnéesn'est précisée que dans 1/3 des cas. Plus globalement, on peut s'interroger surla manière d'interpréter et de comparer les résultats des études et, ensuite ,sur la possibilité de généraliser les observations. Se pose également laquestion de la pertinence des modèles théoriques visant à modéliser lecomportement informationnel des usagers et des tâches qu'ils accomplissent. Eneffet, il est souvent difficile de faire un lien opérationnel entre le cadre etles finalités méthodologiques des études et les cadres théoriques portés par lesmodèles de l'usage qui sont proposés, tels que le modèle cognitif de PeterIngwersen, le modèle stratifié de Tefko Saracevic, le modèle généralisé de T .Wilson ou la théorie Sense Making de Brenda Dervin( Chaudiron, Ihadjadene, 2002). La prise en compte des différents facteurs de l'usage nécessite une analysemultidimensionnelle, c'est-à-dire une approche que l'on peut qualifierd'holistique (Chaudiron, Ihadjadene, 2004). Celle -ci impose de prendre en compted'autres dimensions : affective (confiance, anxiété, satisfaction…, générées aucours du processus de recherche), technique, ergonomique, économique et, enparticulier, socioculturelle (capital social des individus, partage de croyancessur la qualité des sources et des moteurs, respect des habitus propres auxdiverses communautés…). Le nombre important et la diversité des études sur les moteurs de rechercherenseignent tout d'abord sur le foisonnement de l'activité de recherched'informations sur l'internet qui est devenu un phénomène socio-économique ,politique et culturel de grande ampleur. Alors que, pendant des décennies, lestravaux portaient sur les usages professionnels des systèmes d'accès àl'information, désormais, l'appropriation de ces outils par le « grand public »transforme ce dernier en objet de recherche. Cette généralisation de l'usage des moteurs de recherche en ligne induit untransfert d'habitudes et de pratiques vers l'usage des catalogues debibliothèques en ligne et/ou des bibliothèques numériques. Conditionnés parleurs pratiques sur l'internet, les usagers s'attendent à accéder àl'information en texte intégral, et non plus seulement à des noticesbibliographiques (Yu, Young, 2004). Par ailleurs, on ne peut limiter l'accès àl'information aux seuls moteurs de recherche, tant sont divers les sources etmoyens d'information ainsi que leurs complémentarités (navigation, sérendipité ,outils de diffusion, fls rss, alertes par courriel, réseaux sociaux, etc.). Aussi les études d'usage des moteurs de recherche se heurtent-elles à lacomplexité de l'ensemble des facteurs à prendre en compte. Un moteur derecherche n'est plus simplement le « lieu » où s'apparient différentesstructures cognitives dans le cadre d'interactions, mais il est considéré commeun système plus global dans lequel entrent en jeu de multiples variables :l'espace cognitif des acteurs, les caractéristiques contextuellespsychologiques, sociales et organisationnelles, ainsi que le changement desbesoins d'information. Il est important d'appréhender l'usager en situation derecherche d'information de manière beaucoup plus globale que dans les modèlescognitifs et, a fortiori, dans l'approche système quisous-tend encore souvent les études d'usage actuelles des moteurs derecherche .
Les évaluations des moteurs de recherche sur l'internet sont généralement effectuées selon trois approches :sous l'angle de leurs performances globales, en s'inscrivant dans le paradigme des tests de Cranfield ou encore selon la perspective de l'analyse du comportement de l'usager durant la session d'interrogation. Cette contribution se focalisera sur la démarche de consultation des usagers, l'identification des difficultés qu'ils rencontrent, l'exploration des modes d'appropriation des outils de navigation, de catégorisation, de visualisation et, enfin, sur l'étude des stratégies de formulation et de reformulation des requêtes.
sciencesInfo_09-0474884_tei_1125.xml
termith-344-communication
Savoy (2002) affirme que 85 % des utilisateurs qui cherchent des informations sur la Toile font appel à plusieurs moteurs de recherche, ce qui dénote les insuffisances de chaque moteur pris séparément. L'insatisfaction liée aux mauvais résultats obtenus provient essentiellement de deux facteurs : les moteurs n'indexent pas tous les mêmes des pages; les moteurs évaluent différemment la qualité des pages obtenues. Dans ce travail, nous nous intéressons surtout au deuxième problème. La qualité d'un site est calculée différemment selon le moteur de recherche employé. Certains moteurs utilisent la fréquence des termes présents dans la requête, d'autres des techniques heuristiques. La technique utilisée par Google, connue sous le nom de Page Rank (Brin et Page, 1998), consiste à apprécier la qualité d'une page en dénombrant le nombre de liens pointant sur celle -ci. L'heuristique dans ce cas est fondée sur la relation sémantique dénotée par les liens. Ce genre de techniques peut convenir dans certains cas, mais ne donne pas toujours de bons résultats, car ni les préférences ni les connaissances des utilisateurs ne sont prises en compte, autrement dit les résultats ne sont pas personnalisés. La personnalisation si elle n'est pas un sujet nouveau, continue à susciter de nouvelles approches. Les premières idées ont été avancées au début des années 90 par Lieberman (1997), Armstrong et collaborateurs (1995), Chen et Sycara (1998) et Lashkari et collaborateurs (1994). Les trois premiers groupes ont construit des agents isolés d'aide à la navigation sur la Toile et le dernier groupe a conçu un système d'agents capable de gérer des courriels. Dans la lignée de ces travaux, nous pensons que l'introduction de systèmes multi-agents (SMA) peut donner de meilleurs résultats que des agents personnels isolés. En effet, les agents d'un SMA peuvent : faciliter la personnalisation d'information, car certains agents peuvent être spécialisés dans la création et la gestion de modèles d'utilisateurs; faciliter l'accès à des sources d'information multiples; échanger des informations afin de se perfectionner, et participer à un processus collaboratif de résolution distribuée; distribuer et équilibrer la charge de travail. Nous nous sommes appuyés sur ces hypothèses pour concevoir et développer un SMA appelé MAIS (Multi-Agent based Internet Search) pour la recherche d'informations personnalisées sur la Toile. Nous détaillons dans cet article l'architecture et le développement de MAIS, et discutons quelques travaux voisins des nôtres. La section 2 introduit quelques caractéristiques et avantages des SMA ouverts; la section 3 présente MAIS; la section 4 analyse les performances de MAIS; les travaux se rapprochant des nôtres et les différentes formes de personnalisation de l'information sur la Toile sont discutés dans la section 5; finalement, la section 6 conclut l'article. L'utilisation d'un SMA ouvert dans une application pour internet offre trois avantages principaux : l'extensibilité, la stabilité et l'équilibrage de charges. extensibilité : le système peut être mis à jour et étendu sans effets collatéraux quand il est en opération. Etant donné que les agents sont indépendants, ils peuvent être créés ou modifiés, alors que d'autres agents continuent à travailler et à fournir des services; stabilité : quand un agent tombe en panne, d'autres agents peuvent coordonner la distribution des tâches et assurer la continuité des services; équilibrage de charges : les agents distribuent naturellement la charge de travail. Certaines tâches comme l'apprentissage des profils des utilisateurs ou la recherche d'information nécessitent beaucoup de calculs. Des protocoles de coordination peuvent être utilisés pour distribuer la charge de travail uniformément entre les agents. Malgré ces avantages, les applications des SMA pour l'internet ne sont pas pléthore. On peut l'expliquer par le manque de mécanismes standard qui permettraient d'échanger l'information entre agents de différentes plates-formes, bien que plusieurs organismes, dont FIPA 1, fassent actuellement un effort important visant à établir ces standards. La recherche d'information sur la Toile est un problème qui se prête bien à l'utilisation d'un SMA, car il peut être décomposé en problèmes plus simples de façon naturelle. Les différentes fonctionnalités d'un système de recherche sont les suivantes : la recherche doit prendre en compte suffisamment de pages pour assurer une bonne couverture du sujet; le système doit être capable de modéliser les préférences de l'utilisateur pour personnaliser la présentation des résultats; le système doit posséder un mécanisme pour coordonner ces activités. Notre réponse à la première question est de définir des agents jouant le rôle de métamoteurs et capables de récupérer des pages fournies par plusieurs moteurs de recherche existants, comme Google, Altavista ou All-the-Web. Le deuxième point peut être résolu par la définition d'agents chargés de construire et de mettre à jour des profils d'utilisateurs. Ainsi, des personnes qui ont différents centres d'intérêt pourront recevoir des résultats différents pour une même requête. Le troisième point est résolu par l'utilisation d'un SMA pour les raisons mentionnées précédemment. Le système que nous avons conçu et développé, MAIS, est présenté dans les sections suivantes. Le principe de fonctionnement du système MAIS est le suivant : un utilisateur qui souhaite obtenir des informations fait une requête qui sera traitée par des moteurs de recherche standard. Les résultats sont rassemblés et filtrés en fonction d'un profil utilisateur calculé à partir de documents personnels (favoris) organisés en centres d'intérêt et de centres d'intérêt publics. Les pages se rapprochant le plus des documents déjà contenus dans le profil l'utilisateur sont retenues et placées en tête des réponses. L'utilisateur prend connaissance des pages qui l'intéressent et a la possibilité de les rajouter aux documents présents dans ses centres d'intérêt. … Le système MAIS contient quatre catégories d'agents : l'assistant personnel (AP), l'agent bibliothèque (AB), les agents de filtrage (AF) et les agents de recherche (AR), comme schématisé sur la figure 1. Les agents échangent des messages typés (Request, Answer et Call-For-Bids « CFB ») pour l'allocation dynamique de tâches, contenant des documents des modèles vectoriels de documents, ou des graphes de concepts (GC) utilisés par l'algorithme d'apprentissage pour analyser le niveau de pertinence d'un document. L'utilisateur est doté d'un agent assistant personnel (AP) qui lui fournit fondamentalement deux services : une gestion des pages favorites et, évidemment, la recherche de nouvelles pages. Les pages favorites sont stockées par l'assistant personnel (AP) dans l'espace de travail de l'utilisateur, dans des dossiers personnels sous forme de documents textuels qui sont ensuite utilisés par l'agent bibliothèque (AB) pour créer un modèle vectoriel. Ce modèle est composé de la liste des termes les plus importants, présents dans la collection de documents personnels. L'agent bibliothèque peut être programmé pour mettre automatiquement à jour la structure des documents de l'utilisateur (une fois par jour, par exemple), ou activé par une requête de l'administrateur du système. Il sera aussi utilisé par l'administrateur du système pour la construction de centres d'intérêt publics. Ces derniers contiennent des documents concernant des domaines précis (de recherche ou pas) fournis par des experts, par exemple, Artificial-Intelligence-Adaptative-Agents, Groupware - Knowledge-Management ou encore Artificial-Intelligence-MBR. Ces centres d'intérêt sont communs à tous les utilisateurs, mais peuvent être personnalisés au fur et à mesure que les utilisateurs ajoutent de nouveaux documents à leur profil. En effet, les documents qui forment chaque centre d'intérêt sont copiés dans l'espace de travail de l'utilisateur lorsqu'il les sélectionne. L'utilisateur peut alors les compléter. A ce jour le nombre de centres d'intérêt fournis par le système est encore réduit, car il s'agit d'un prototype, mais nous envisageons de créer une collection de centres d'intérêt ressemblant aux répertoires de catégories des moteurs de recherche. L'utilisateur déclenche une recherche en passant à son assistant personnel une liste de termes, le nombre de pages désiré, et les centres d'intérêt sélectionnés (les siens ou des centres d'intérêt publics). L'assistant envoie ensuite une requête en mode broadcast. Le premier agent de filtrage (AF) disponible sera chargé de fournir la réponse. Les agents de filtrage jouent un rôle central dans le système. La première tâche d'un agent de filtrage engagé dans un processus de recherche est de rassembler les résultats fournis par les agents de recherche (AR) à l'issue d'une procédure de contract-net. Rappelons que dans le contract-net l'agent (le gérant) qui doit résoudre un problème envoie un appel d'offres en mode broadcast et attend les propositions des candidats. Ensuite, il choisit les candidats ayant fait les meilleures offres en leur passant un contrat. Finalement, les contractants envoient leurs réponses au gérant. Le temps d'attente des réponses est paramétrable (dans notre cas, il est de 20 secondes). L'agent de filtrage récupère une liste importante de pages qu'il doit réduire et ordonner pour finalement présenter les résultats à l'utilisateur. C'est alors que le mécanisme de personnalisation entre en action. Le processus de personnalisation consiste à ordonner la liste de pages fournies par les agents de recherche en fonction des préférences de l'utilisateur. Chaque page est classée selon un processus qui retourne sa classe et le degré de qualité de la classification. Les classes possibles correspondent aux dossiers créés par l'utilisateur pour organiser ses documents favoris (centres d'intérêt qu'il a choisis). Finalement, seules les meilleures pages sont sélectionnées après seuillage. Les sections suivantes donnent plus de détails sur la conception de chaque agent, et notamment sur le mécanisme de classification de l'agent de filtrage. Dans notre application, l'assistant personnel est composé de deux éléments principaux : l'interface et une base d'actions. L'interface constitue le côté client de l'assistant personnel et permet à l'utilisateur de déclencher des recherches, de visualiser les résultats et de gérer les documents favoris. La base d'actions est composée d'une série de fonctions (LISP) codées dans un serveur HTTP et déclenchées à distance par l'interface. Par conséquent, n'importe quel utilisateur connecté à l'internet peut utiliser l'interface pour faire des recherches de façon transparente. La figure 2 montre l'interface de l'assistant personnel. Les recherches faites par l'utilisateur peuvent ensuite être affichées en fonction de différents critères (mots-clés utilisés « keywords », nombre de sites ou encore état courant des recherches « ready ou running »). Ces résultats peuvent être supprimées avec le bouton « Delete Query » ou mis à jour avec le bouton « Update Results ». Au départ, le résultat des recherches est affiché par ordre d'importance fixé par le système, mais d'autres ordonnancements sont possibles. L'utilisateur peut gérer les favoris en rajoutant/supprimant des dossiers et des pages dans son espace de travail. L'interface permet aussi à l'utilisateur de sélectionner les centres d'intérêt qui lui conviennent (figure 3). Etant donné que les recherches peuvent durer plusieurs minutes, elles sont déclenchées de façon asynchrone. L'utilisateur peut donc activer plusieurs recherches par exemple la nuit, puis analyser les résultats le lendemain. L'agent bibliothèque est spécialisé dans la manipulation des documents. Son rôle est de construire à partir d'une collection de documents, un dictionnaire représentatif composé d'index. Pour cela il met en œuvre certaines techniques empruntées à différents domaines comme la classification automatique de documents ou la récupération d'information. Nous utilisons un dictionnaire anglais contenant tous les noms possibles et leurs variations, ce qui nous dispense de faire des traitements linguistiques préalables comme une lemmatisation. Ainsi nous sommes capables de supprimer du texte toute catégorie grammaticale inutile et sélectionner seulement les noms. Nous cherchons une approche générale, qui puisse être utilisée sans effort indépendamment du langage. Dans notre cas, il suffit d'ajouter de nouveaux dictionnaires pour pouvoir utiliser le système dans des langages différents. La tâche de l'agent bibliothèque consiste à trouver une bonne représentation pour l'ensemble des documents (favoris de l'utilisateur et centres d'intérêt publics) en choisissant les bonnes caractéristiques (index). Une technique bien connue, basée sur le modèle vectoriel de Salton (1971), consiste à choisir certains termes existant dans un document pour construire un vecteur qui le représente. Ces termes sont normalement les termes les plus importants dans une collection de documents. Pour choisir les termes nous avons utilisé comme mesure de qualité TF-IDF (Term Frequency - Inverse Document Frequency )(Salton, 1989). TF-IDF considère qu'un terme est important s'il est très fréquent dans un petit nombre de documents. TF ter représente la fréquence du terme ter dans la collection de documents et IDF représente la fréquence inverse par rapport au nombre de documents, calculée selon la formule log(N/DF ter) où N est le nombre total de documents dans la collection et DF ter est le nombre de documents qui contiennent le terme ter. Ainsi, la valeur TFIDF d'un terme quelconque i par rapport à une collection de documents est donnée par : La reprèsention d ' un document donnè d est donnèe par le vecteur ou TF d i est la fréquence du terme i dans le document d. Ainsi la représentation de la collection de documents de chaque utilisateur dans chaque domaine est structurée selon les termes trouvés par l'agent bibliothèque. La section suivante montre comment les structures obtenues sont utilisées dans le processus d'apprentissage. L'agent de filtrage coordonne le dialogue entre les différents agents du système. Il reçoit comme paramètres la liste de termes à rechercher, le nombre de pages à retourner et les noms des centres d'intérêt donnés par l'utilisateur. Il est responsable de la personnalisation et son rôle principal est d'ordonner et de réduire la liste de pages qu'il reçoit des agents de recherche en fonction du profil de l'utilisateur. Pour cela, il utilise la méthode d'apprentissage ELA (Entropy-based Learning Approach) décrite ci-après. La méthode d'apprentissage ELA est une méthode incrémentale que nous avons développée lors de recherches précédentes pour résoudre les problèmes des algorithmes de classification automatique utilisant une mémoire comme KNN ou MBR (Memory-Based Reasoning). De façon résumée, ELA a besoin de beaucoup moins de données d'apprentissage, n'utilise pas de mesure de similarité et classe les nouveaux exemples très rapidement. Notre mécanisme d'apprentissage comprend deux parties : l'acquisition/représentation des données et leur classification. ELA représente les données sous forme d'un graphe de concepts 2 (GC). La figure 4 illustre la construction d'un tel graphe avec 14 exemples (1, 2,… 14) extraits de la base de données de Quinlan (1986). Cette base met en relation des variables météorologiques (Extérieur, Température, Humidité et Vent) et la pratique de sport (Pratique ou Non Pratique). Dans le graphe, chaque nœud représente un concept qui correspond à la valeur d'un attribut (dénoté par un rectangle) et chaque lien représente une transition d'un attribut vers un autre attribut. Nous n'attribuons pas de poids aux attributs ni ne faisons aucun traitement ultérieur. L'ordre des attributs (niveau de profondeur de chaque attribut dans le graphe) est donné par la représentation initiale des données. Les concepts et les liens sont créés de façon dynamique. Un lien entre deux concepts A et B contient les identifiants des exemples qui possèdent les valeurs A et B (entre crochets sur la figure). La classification d'un nouvel exemple est faite de la manière suivante : d'abord l'algorithme identifie dans le graphe les concepts appartenant à l'exemple à classer. Par exemple, sur la figure 5 les concepts « Rain », « Cool », « H-High » et « True » sont choisis. Deuxièmement, l'algorithme obtient la collection de sous-ensembles correspondants. Sur la figure 5 les sous-ensembles sont [4 5 6 10 14 ], [5 6 7 9 ], [1 2 3 4 8 12 14] et [2 6 7 11 14 ]. Ensuite, le sous-ensemble qui présente la meilleure distribution de classes est sélectionné (car il correspond à l'entropie la plus faible, [5 6 7 9 ]) et est partitionné en fonction des classes qu'il contient ([ 5 7 9] pour la classe Pratique et [6] pour la classe Non Pratique). La mesure de qualité des classes (Pratique et Non Pratique) est calculée en fonction du comportement de l'intersection des exemples de la classe avec toutes les partitions initiales. En effet, une classe est optimale si elle est représentée entièrement dans l'ensemble complet de partitions. Evidemment, quand c'est le cas, l'intersection entre la classe et les partitions doit produire des sous-ensembles de taille identique. Cela arrive sur la figure 5 pour la classe NP (Non Pratique), où l'ensemble suivant est obtenu avec l'intersection : {[6] [6] [6] }; Dans ce cas, nous avons trois sous-ensembles de taille 1. Une classe imparfaite doit produire des intersections de tailles variables, par exemple {[5] [5 7 9] [7]} sur la figure 5. Nous identifions ce comportement en utilisant une fois de plus la mesure d'entropie, cette fois -ci en choisissant la classe qui présente l'entropie la plus importante. Nous avons évalué la performance de cette technique d'apprentissage par rapport d'autres algorithmes connus dans domaine de l'apprentissage symbolique (Naïve Bayes, NN, C45, C45 Rules, CN2) et nous avons constaté que notre technique présente une meilleure performance sur plusieurs bases de données du domaine public (UCI 3). Des commentaires plus détaillés sur la méthode ELA et son évaluation sont disponibles dans (Enembreck, 2003). Dans l'application à la classification de pages web, la valeur de l'entropie calculée pour la meilleure classe donne le degré de qualité de la page. Toutefois, pour créer le graphe de concepts et ensuite l'utiliser pour classer les pages, deux questions doivent être résolues : les données d'un algorithme d'apprentissage doivent être structurées (avoir des attributs), autrement dit, les pages doivent être indexées nous devons disposer d'exemples d'apprentissage. Nous avons vu dans la section 3.4.2 comment l'agent bibliothèque est capable de construire une représentation vectorielle des documents favoris de l'utilisateur et de chaque centre d'intérêt public. Ces représentations doivent être combinées pour construire une liste unique de termes qui représente le modèle général de préférences, et qui sera ensuite utilisée par l'algorithme d'apprentissage. La combinaison entre ces différentes vecteurs se fait grâce à un processus de « fusion », pour lequel le critère d'ordonnancement des termes est la valeur TF-IDF. La liste résultante est limitée arbitrairement à 1 000 éléments. La donne un exemple de la procédure adoptée. A partir de quatre vecteurs de termes représentant respectivement les favoris de l'utilisateur « ☺ », et les centres d'intérêt « Dialogue Systems », « MBR » et « Knowledge Management », les termes en gras ont été choisis. Cette approche garantit que des informations de toutes les classes seront utilisées par l'algorithme d'apprentissage. Pour garder une certaine cohérence entre les valeurs TF-IDF nous considérons des collections contenant une même quantité de documents pour chaque centre d'intérêt. Puisque les collections de termes peuvent présenter des intersections, les répliques sont supprimées et seul le terme présentant la valeur TF-IDF la plus importante est considérée. La représentation du modèle général de préférences de l'utilisateur est donc composée d'une liste de termes choisis à partir de différents vecteurs représentant plusieurs collections de documents. Ce modèle est formé par la combinaison de (n + 1) vecteurs, 1 pour les favoris de l'utilisateur et n pour le nombre de centres d'intérêt publics choisis. Ce processus n'analyse donc pas directement le contenu des documents des centres d'intérêt, mais utilise simplement le modèle vectoriel construit au préalable, ce qui permet de diminuer le temps de calcul. Une fois résolu le problème de la structuration et de l'indexation des documents, le deuxième problème consiste à trouver suffisamment de données pour l'algorithme d'apprentissage. Pour fabriquer le graphe de concepts, l'agent de filtrage utilise comme données les documents existants dans les favoris de l'utilisateur, plus les documents présents dans chaque centre d'intérêt sélectionné par ce dernier. Il faut souligner que la classe de chaque document est connue. Il s'agit du nom du dossier favori où l'utilisateur a enregistré le document (dans le cas des documents favoris) ou du nom du centre d'intérêt concerné (dans le cas des documents des centres d'intérêt publics). Lorsque l'agent de filtrage reçoit une requête, il recherche le graphe de concepts dans l'espace de l'utilisateur, le créant si nécessaire. Ensuite, il classe toutes les pages envoyées par les agents de recherche et enregistre la réponse en ordonnant les résultats selon les résultats de la méthode ELA. La figure 2 reproduit les classes trouvées par l'agent de filtrage. Dans l'application à la recherche sur la Toile, l'adaptation est réalisée par les agents de filtrage. Dans ce cas, le graphe de concepts constitue le modèle général des préférences de l'utilisateur. L'adaptation du modèle des préférences de l'utilisateur se fait dans deux cas : l'utilisateur ajoute/supprime un document dans les favoris; l'utilisateur demande une recherche avec des centres d'intérêt différents de ceux présents dans son profil. Dans le premier cas, l'aspect incrémental du graphe permet à l'agent d'ajouter et de supprimer un nouveau document sans effort, entraînant une mise à jour automatique de son profil. En conséquence, le filtrage des résultats se fera toujours par rapport au modèle courant, ce qui revient à dire que l'algorithme apprend instantanément. Si un document est supprimé l'identifiant du document concerné est supprimé. Si un nœud devient vide, il est aussi supprimé. Dans le deuxième cas, le graphe est reconstruit entièrement. Chaque centre d'intérêt ajouté/supprimé correspond à plusieurs documents qu'il faut ajouter ou supprimer du graphe et du profil de l'utilisateur. La procédure la plus simple consiste à recréer le graphe. Le calcul nécessaire dépend évidemment du nombre de centres d'intérêt concernés et du nombre de documents stockés dans les favoris. Cependant, la création du graphe ne pose pas de problèmes quand il s'agit de représenter quelques milliers de documents. Les agents les plus simples du système sont certainement les agents de recherche. Chaque agent de recherche gère un moteur de recherche particulier, comme Google, Altavista et All-the-Web. Ces agents sont réalisés par des agents OMAS (Open Multi-Agent System, développé par Barthès, 2002). Comme ceux -ci évoluent dans un environnement ouvert, de nouveaux agents peuvent être créés pendant l'exécution du système, ce qui permet l'addition de nouveaux moteurs de recherche à n'importe quel moment sans que cela n'affecte le fonctionnement général. Cette architecture permet également de rechercher des pages en parallèle, ce qui réduit le temps total de recherche. Afin d'effectuer les recherches dans un espace de taille raisonnable (ni trop grand ni trop petit), chaque agent de recherche a été programmé pour retourner 2 N pages, si N est le nombre de pages demandées par l'utilisateur. Ainsi, si le système compte n agents de recherche, l'agent de filtrage concerné va analyser jusqu' à 2n N pages. Généralement, le nombre de pages à classer sera très inférieur à 2n N, car certaines pages sont communes à plusieurs moteurs de recherche. Du point de vue informatique l'agent assistant est composé d'une interface LISP capable d'envoyer des messages à l'agent de transfert (AT) qui tourne sur un serveur HTTP. Ensuite, l'agent de transfert envoie le message concerné vers l'intérieur de la plate-forme d'agents OMAS. Nous utilisons le serveur HTTP fourni par Allegro Common Lisp™. L'agent de transfert est lui aussi codé en LISP. Le choix du serveur Allegro nous permet d'exécuter des fonctions LISP comme des programmes CGI, ce qui rend la tâche d'interprétation des messages beaucoup plus facile. La figure 7 montre les ressources mises en œuvre par le système. L'agent de transfert émule les services de base concernant la communication au standard FIPA comme l'Agent Manager System, le Directory Facilitator et l'Agent Communication Channel. Il est capable de traduire des messages OMAS en messages FIPA SL-0 et d'assurer la cohérence entre les protocoles OMAS et les protocoles FIPA. L'agent de transfert peut donc jouer le rôle de passerelle entre OMAS et d'autres plates-formes compatibles FIPA. L'évaluation des mécanismes de recherche sur la Toile est toujours une tâche compliquée. Les mesures couramment utilisées par les systèmes de récupération d'information comme recall et precision sont insuffisantes en raison de la dynamicité du corpus de pages. Une majorité de travaux concernant l'évaluation de tels mécanismes utilise un corpus de pages prédéfini. Les pages sont ordonnées selon une mesure de similarité calculée automatiquement faisant intervenir les résultats et les pages de référence. Par exemple, Menczer et al. (2001) ont utilisé 100 catégories et pages de référence proposées par Yahoo pour comparer les résultats de trois mécanismes de recherche. Dans ce cas, les ensembles de pages utilisées comme références et comme tests sont statiques et de taille limitée. Pour éviter ces problèmes, Gasparetti et Micarelli (2003) ont utilisé les mesures recall et precision sur la base « .gov » proposée par TREC (Text REtrieval Conference - http:// trec. nist. gov). Cette base compte 1,2 million de pages « .gov » répertoriées jusqu' à 2002 et, selon les auteurs est suffisamment importante pour être représentative d'une collection de documents de la Toile. Les auteurs ont évalué les résultats sur trois requêtes : « exchange office », « educational department » et « children foundation ». Le nombre de résultats moyen pour chaque requête est 373 712, 445 964 et 117 036, respectivement. Ces mesures de performance sont utiles pour découvrir l'information disponible sur un sujet susceptible d' être traité automatiquement par une machine, mais notre problème est plus difficile, car un système de recherche d'information personnalisé doit limiter le nombre de résultats, en tenant compte de l'effort que l'utilisateur devra fournir pour les analyser (Silvertein et al., 1999). Notre évaluation prend l'avis de trois utilisateurs sur les résultats obtenus directement sur la Toile et non sur des bases de données simulées. Les utilisateurs, ayant différents niveaux d'expertise, analysent uniquement les vingt ou trente premières pages en indiquant combien de pages leur sont utiles. Nous estimons que seuls les premiers sites doivent être analysés, car un bon système de recherche ne doit pas demander un effort important d'analyse des résultats. Le domaine de recherche est celui des systèmes multi-agents. Nous avons choisi des requêtes sur un même domaine pour réduire les ambiguïtés liées à l'identification des sites intéressants, et donc pour pouvoir estimer plus précisément les apports des centres d'intérêt publics et des sites favoris. Chaque centre d'intérêt public a été construit selon la technique présentée dans la section 3.4.2. Les centres d'intérêt ont été construits à partir de 10 articles scientifiques choisis par les experts du laboratoire. Chaque utilisateur a été invité à choisir un nombre de pages de référence (sites favoris) dans le cadre des ses propres spécialités (tableau 1). Les résultats ont été analysés en aveugle, sans prendre en compte l'identité des différents moteurs de recherche utilisés par le système. Informations sur les utilisateurs Utilisateur Expertise Pages de référence Centres d'intérêt A Systèmes multi-agent 58 Adaptative-Agents Autonomous-Agents Agents Personal Assistant B Intelligence artificielle 8 Adaptative-Agents Autonomous-Agents Agents Personal Assistant C Aucune 1 - C-int Aucune 1 Adaptative-Agents Autonomous-Agents Agents Personal Assistant Tous les utilisateurs ont exécuté les requêtes suivantes : « agent », « autonomy agent », « personal assistant » et « personal assistant agent ». Par ailleurs, des centres d'intérêt identiques ont été utilisés par les utilisateurs afin de comparer les résultats dans les mêmes conditions. Ces requêtes sont intentionnellement ambiguës. Le but du mécanisme d'évaluation est de savoir jusqu' à quel point le système est capable de filtrer des informations intéressantes en utilisant l'expertise de chaque utilisateur comme référence. Nous mesurons également l'influence des centres d'intérêt publics proposés par le système pour l'utilisateur C. Le graphique présenté sur la figure 8 illustre la performance de trois moteurs de recherche connus (All-the-Web, Altavista et Google) et les résultats des utilisateurs A (A-55) et B (B-8) avec MAIS. Comme nous nous y attendions, l'utilisateur A a obtenu les meilleurs résultats dans tous les tests, ce qui démontre la capacité du système à tenir compte du profil de l'utilisateur (sous forme de ses pages favorites) pour la personnalisation des résultats. L'utilisateur B a obtenu les mêmes améliorations. Deux observations semblent évidentes à partir des résultats de la figure 8 : la première est 3 6 la limite des performances de MAIS imposée par les moteurs de recherche; la variabilité des moteurs de recherche. MAIS réalise des métarecherches. Si les moteurs utilisés par MAIS sont incapables de trouver des pages intéressantes, MAIS sera incapable de donner de bons résultats. Cela se confirme avec la requête « Agent » qui est ambiguë. Certains moteurs de recherche présentent de bonnes performances pour certaines requêtes, alors que pour d'autres les résultats sont très pauvres. Nous pouvons constater, par exemple, que All-the-Web, donne des bons résultats pour la requête « Autonomy Agent » et de mauvais résultats pour « Personal Assistant ». Si l'on analyse les 30 premières pages, MAIS donne encore les meilleurs résultats pour l'utilisateur A (figure 9). En revanche, la performance du système concernant l'utilisateur B est dépassée par d'autres moteurs de recherche pour 3 requêtes sur 4. Cela montre que lorsqu'un utilisateur possède un profil incompatible avec les informations recherchées, le système ne pourra pas l'aider. Ce problème peut être résolu simplement en informant le système que le profil de l'utilisateur ne doit pas être utilisé pour la recherche, mais qu'il faut utiliser les centres d'intérêt publics. Afin de mesurer l'importance des centres d'intérêt publics pour la recherche d'information avec MAIS, nous avons demandé à l'utilisateur C qui possède un profil pratiquement vide, de réaliser des recherches sans référencer les centres d'intérêt « MAIS(C) » et puis en référençant les centres d'intérêt « MAIS(C-int) ». Les résultats sont indiqués sur la figure 10. Pour la requête « Agent », l'utilisation des centres d'intérêt est indifférente, car la requête est trop imprécise. Pour la requête « Autonomy Agent » les centres d'intérêt ont amélioré énormément la performance tant pour les 20 premières pages que pour les 30 premières. Pour les deux dernières requêtes, la performance du système a été sensiblement améliorée lorsque les 30 premières pages sont analysées. Lorsque seulement les 20 premières pages sont analysées les centres d'intérêt ont peu d'importance pour les requêtes « Personal Assistant » et » Personal Assistant Agent ». Ceci démontre que même pour des requêtes raisonnablement précises, comme « Personal Assistant Agent », les moteurs de recherche utilisés par MAIS ne sont pas capables de grouper les meilleures pages et de les présenter en priorité. La performance moyenne pour tous les moteurs de recherche sur les 4 requêtes est indiquée sur le tableau 2. L'analyse des 20 et 30 premières pages montre que MAIS a dépassé tous les moteurs de recherche. De façon surprenante, l'utilisateur obtenant le meilleur résultat est « C-int » qui contient un profil pratiquement vide, mais qui utilise les centres d'intérêt publics. Ceci montre que les pages jugées intéressantes par les utilisateurs ne rajoutent pas forcément des informations très importantes pour le système. Pire, l'ajout de pages peut même diminuer la précision du système, si ces pages ne contiennent pas beaucoup de texte, car elles introduisent beaucoup de bruit. Cela explique par exemple que l'utilisateur MAIS-C, qui n'utilise pas des centres intérêt publics et fait uniquement référence à sa propre page personnelle dans ses favoris puisse avoir un meilleur résultat que l'utilisateur MAIS(B-8). Dans ce cas, le système a jugé que plusieurs sites liés à des professions libérales et à la finance étaient pertinents pour l'utilisateur MAIS(B-8). Ces sites contenaient certains termes comme live, service, intelligent, time, personal, assistants, training, learning, planning, organization d'usage courant. Par ailleurs, lorsque le profil de l'utilisateur est vide ou incomplet comme dans le cas de MAIS-C, c'est-à-dire, ne contient pas un nombre minimal (fixé à 200) de termes nécessaires à la création du modèle de préférences, le système ordonne les sites en utilisant une technique simple de vote, qui renforce l'importance d'un document s'il est récupéré par plusieurs moteurs de recherche. Cette technique est similaire à la méthode CombMNZ, proposée par Fox et Shall (1994). Les résultats obtenus montrent par ailleurs que notre technique de personnalisation donne de meilleurs résultats que cette technique simple de fusion. Toutefois, les travaux sur la fusion de résultats de moteurs de recherche sont hors du cadre de cet article car ces méthodes ne prennent généralement pas en compte la personnalisation. Nous constatons également que le système MAIS est plus précis lorsque l'utilisateur choisit les centres d'intérêt publics, car ceux -ci sont composés de documents validés par des experts. Les documents sont représentatifs du domaine et contiennent beaucoup d'informations textuelles. Nous pouvons donc conclure que les utilisateurs devront analyser soigneusement les pages qui leur conviennent avant de les ajouter à leur liste de favoris. Résultats moyens en nombre de pages intéressantes pour les 4 requêtes Avec 20 pages MAIS(C-int ) 13,25 MAIS(A-58 ) 12,5 MAIS(C ) 11,75 MAIS(B-8 ) 11 Google 9,5 All-the-Web 8,25 Altavista 6,5 Avec 30 pages MAIS(C-int ) 19,5 MAIS(A-58 ) 18,25 MAIS(C ) 16,25 MAIS(B-8 ) 15 Google 15 All-the-Web 13,5 Altavista 9,25 Nous n'avons pas fait d'essais d'acceptabilité du système car le but de notre travail était simplement de démontrer techniquement qu'une approche multi-agent peut améliorer sensiblement les résultats de recherches sur la Toile. Cependant, l'analyse des résultats nous a permis de constater que certains sites très mal classés par certains moteurs de recherche (comme par exemple, entre les positions 80e et 90e) ont pu être récupérés par le système, car d'autres moteurs de recherche les avaient placés en meilleure position. Nous pouvons donc conclure que le système peut automatiser en partie le fastidieux travail d'analyse des résultats et diminuer énormément la charge de l'utilisateur dans certaines conditions (l'utilisation des centres d'intérêt publics et/ou un bon ensemble de sites favoris). Par ailleurs, nous ne pouvons pas nous appuyer uniquement sur les sites favoris des utilisateurs pour concevoir une représentation fiable de ces centres d'intérêt car les informations correspondantes sont souvent ambiguës, contradictoires, incomplètes et bruitées. C'est la raison pour laquelle nous avons introduits des centres d'intérêt publics représentant des sujets que les utilisateurs peuvent facilement choisir. Widyantoro et collaborateurs (2001) discutent différents modèles de représentation des profils des utilisateurs pour la personnalisation dans le cadre d'un système d'information. Selon les auteurs, un tel système doit être capable de modéliser les changements dynamiques d'intérêt des utilisateurs en introduisant une représentation explicite d'un modèle à long terme et d'un modèle à court terme. Le modèle à long terme correspond aux intérêt généraux qui ne changent pas souvent, et le modèle à court terme correspond aux nouveaux intérêt ponctuels de l'utilisateur. La technique introduite par les auteurs est basée sur une représentation du modèle de l'utilisateur séparée en trois parties (long terme, court terme positive et court terme négative), où positive et négative correspondent au feedback de l'utilisateur sur les documents. Nous pouvons citer encore d'autres travaux où l'utilisateur doit fournir un feedback afin d'aider le système : Amalthea (Moukas et Zacharia, 1997), (Billsus et Pazzani, 1999) et Webnaut (Nick et al., 2001). Le premier utilise une collection d'agents pour filtrer et ordonner les informations d'un utilisateur. Chaque agent de filtrage fait partie d'une population d'agents qui évolue en fonction d'un algorithme génétique prenant en compte la qualité des documents que les agents fournissent. Cette approche intéressante présente l'inconvénient d'avoir besoin d'une fonction de fiabilité pour chaque agent pour calculer le degré de « fitness » en fonction des résultats fournis par l'agent, ce qui peut s'avérer très complexe et demander beaucoup de feedback, comme l'indiquent Lashkari et al. (1994). Le deuxième travail utilise quatre types de feedbacks : interesting, not interesting, I already know this, et tell me more about this qui sont traduits par des valeurs numériques à l'intérieur du système et utilisés par certaines heuristiques pour le calcul de l'intérêt des documents. Nick et al. (2001) utilisent le feedback de l'utilisateur pour construire un SMA capable de réaliser des métarecherches. Parmi les agents du système, l'agent apprentissage utilise un algorithme génétique pour construire des populations de requêtes à partir des mots-clés trouvés dans le profil de l'utilisateur, la requête de l'utilisateur et des opérateurs logiques. Dans ce système l'utilisateur doit analyser son propre modèle et indiquer au système quels sont les termes importants. Par ailleurs, les systèmes fondés sur le principe d'expansion de requêtes introduisent souvent beaucoup de bruit avec des requêtes incohérentes produites de façon aléatoire et sont très dépendants de la qualité des requêtes initiales proposées par les utilisateurs. Afin de réduire la surcharge de travail introduite par le besoin de feedback explicite, certains travaux comme ceux de (Bottraud et al., 2003) introduisent des mécanismes ou des heuristiques automatisés pour l'acquisition implicite de feedback, comme par exemple, de concepts extraits du contexte de travail, les mouvements et clicks de la souris ou encore des informations personnelles stockées en zone de travail ou des répertoires de documents personnels. Bottraud et al. (2003), comme Enembreck et Barthès (2003a), propose l'utilisation des documents personnels de l'utilisateur pour la construction du profil de l'utilisateur. Le deuxième travail utilise une structure vectorielle standard pour représenter les centres d'intérêt de l'utilisateur tandis que le premier propose une structure hiérarchique construite à partir d'un algorithme de regroupement 4 (COBWEB) enrichie par les concepts présents dans les tâches courantes de l'utilisateur, capturées par des agents observateurs qui enregistrent des événements provoqués par l'utilisateur, comme le contenu du presse-papier, les pages web visitées ou sélectionner seulement certaines parties de la hiérarchie lors du traitement d'une requête. Ensuite, les sites sont ordonnés en fonction de la similarité vectorielle des termes sélectionnés dans la hiérarchie. Nous pouvons citer plusieurs problèmes liés à cette approche, notamment la pertinence des informations contextuelles pour la requête (le « contexte », est-il toujours liée à une requête donnée ?), le mauvais choix de certains concepts dans la hiérarchie peut restreindre le nombre de termes et modifier les résultats de la fonction de similarité. Par ailleurs, il est très difficile de contextualiser le travail de l'utilisateur, car celui -ci est souvent en train d'exécuter plusieurs tâches pas toujours en relation et de manière aléatoire. L'architecture de notre système est similaire à celle du système WAIR (Web Agents for Internet Research) proposé par Zhang et Seo (2001). Ce système présente également un agent interface pour l'interaction avec l'utilisateur, des agents de filtrage dotés de mécanismes d'apprentissage (par renforcement), et des agents de recherche pour consulter différents moteurs de recherche. La différence principale par rapport à MAIS se situe encore une fois dans la façon dont le feedback est utilisé pour la mise à jour du profil de l'utilisateur. WAIR utilise un feedback explicite et implicite pour calculer la pertinence d'un document. Le feedback explicite est donné par l'utilisateur (valeur numérique entre 0 et 1) et le feedback implicite (temps de lecture d'un document, ajout aux favoris, examen du texte et liens suivis dans un document) est mesuré automatiquement par le système. Ces paramètres sont normalisés et utilisés pour le calcul des récompenses associées aux documents et sont utilisés par l'algorithme d'apprentissage par renforcement. Comme précédemment, ces techniques présentent des problèmes car seuls les utilisateurs expérimentés peuvent apprécier un document de façon fiable. Par ailleurs les heuristiques de feedback implicite souvent ne reflètent pas l'intérêt réel de l'utilisateur car elles ne sont pas capables de prévoir toutes les situations possibles. Notre approche consiste à diviser le profil de l'utilisateur en n + 1 parties, où n est le nombre de centres d'intérêt de l'utilisateur, assorti du modèle des favoris. Dans notre cas, le modèle à long terme est donné par les sites favoris de l'utilisateur. Le système peut aussi gérer le modèle à court terme car celui -ci est construit dynamiquement lorsque l'utilisateur change explicitement de centre d'intérêt, en choisissant par exemple de nouveaux centres d'intérêt publics. Par ailleurs, l'utilisateur peut simplement désactiver le modèle à long terme, entièrement ou partiellement, et travailler uniquement avec les centres d'intérêt publics. Nous pensons que notre approche réduit le besoin de feedback de la part de l'utilisateur car celui -ci indique simplement les centres d'intérêt qui lui conviennent et n'a pas besoin de classer chaque document comme positif ou négatif. Par conséquent, le comportement du système ne dépend pas uniquement du feedback de l'utilisateur. Evidemment, la construction des centres d'intérêt demande un effort préalable de la part du développeur pour la sélection des documents représentatifs, mais cet effort peut être minimisé avec l'utilisation de répertoires publics de documents dans différents domaines. Concernant les SMA, certaines applications web, moins nombreuses utilisent les concepts de résolution distribuée de problème. Freitas et Bittencourt (2003) utilisent la collaboration entre agents pour rechercher des informations spécifiques sur la Toile. Les agents ont des connaissances (patrons de pages, règles, et fonctions) sur des domaines spécifiques et sont capables de faire des propositions sur ces pages. Lorsqu'une recommandation d'un agent est acceptée, les autres agents rajoutent à leur connaissance les règles et concepts qui lui ont permis de faire cette recommandation. Par conséquent, les agents coopèrent pour résoudre le problème. Les agents sont utilisés pour la recherche d'appels à participation à des conférences et pour obtenir des articles scientifiques. Concernant l'architecture de MAIS, nous sommes conscients que nos agents, comme ceux de (Bottraud et al., 2003) et (Zhang et Seo, 2001), ne sont pas très coopératifs et que le mécanisme de coordination est codé en dur dans les agents de filtrage. Cependant, nos tâches sont très spécifiques et ne sont pas vraiment propices à une résolution distribuée de problèmes, car les activités de chaque agent sont exécutées de façon indépendante. Cependant, tous nos agents sont effectivement distribués (y compris les agents filtrage), ce qui peut être très important car l'utilisateur peut démarrer plusieurs requêtes qui seront traitées en parallèle par plusieurs agents filtrage du système (ce sont eux qui coordonnent les recherches). Par ailleurs, de nouveaux agents peuvent être ajoutés au système au fur et à mesure, afin diminuer la charge de travail des agents dans un environnement contenant plusieurs utilisateurs. La personnalisation de la recherche d'information sur internet est un vaste domaine. Il semble que l'idée de SMA capables de réaliser des services personnalisés comme la recherche et le filtrage d'information devient plus réaliste chaque jour. La plupart de ces systèmes introduisent différentes techniques de représentation du modèle de l'utilisateur. Les systèmes sont souvent pilotés par le feedback de l'utilisateur afin de mettre à jour son profil et raffiner les résultats, ce qui peut accroître la charge de travail de l'utilisateur. Nous pensons que certains modèles d'intérêt peuvent être partagés par plusieurs utilisateurs et mis à jour par chaque utilisateur lorsqu'il le juge nécessaire. Ainsi, n'importe quel utilisateur (même ceux qui n'ont pas beaucoup d'expérience) peut profiter d'une certaine personnalisation. Pour développer notre idée, nous avons présenté dans cet article un nouveau système de recherche d'information sur la Toile sous forme d'un SMA capable de récupérer et de classer automatiquement l'information à partir de recherches effectuées par des moteurs de recherche standard. Le système personnalise les recherches en prenant en compte des pages favorites de l'utilisateur et/ou des centres d'intérêt publics construits au préalable à partir de documents sélectionnés par des experts de divers domaines. Les mesures de performance montrent que l'utilisation de centres d'intérêt publics ou privés (documents favoris) peuvent améliorer sensiblement les résultats de la recherche .
Cet article présente un système multi-agent (SMA) améliorant la recherche de documents sur la Toile. Une telle recherche devient de plus en plus difficile chaque jour car les mécanismes couramment utilisés ne peuvent suivre la croissance anarchique de l'internet. En conséquence, les résultats obtenus par les moteurs de recherche classiques sont souvent très mauvais. Les SMA toutefois peuvent donner de meilleurs résultats, grâce à une spécialisation des agents pour exécuter des tâches différentes (recherche et filtrage) et à la possibilité de personnaliser l'information. Nous avons conçu et développé un SMA ouvert, MAIS (Multi-Agent based Internet Search), doté d'assistants personnels, d'un agent bibliothèque, d'agents de filtrage, et d'agents de recherche. Dans cet article, nous détaillons les éléments de MAIS et nous comparons ses performances à celles des moteurs de recherche classiques, dont les résultats sont beaucoup moins précis.
sciencesInfo_05-0093479_tei_DN_083_0083.tei.xml
termith-345-communication
Depuis ses prémices jusqu' à aujourd'hui, le multimédia a subi de nombreuses évolutions. Si ces mutations sont souvent les conséquences d'avancées technologiques, les contraintes économiques ont aussi contribué à faire évoluer la forme des documents 1 produits ainsi que les méthodes de travail pour y parvenir. Dans l'euphorie des années 1990 de nombreuses sociétés de production multimédia ont été créées. L'absence de réelles méthodes de travail, d'évaluation des risques a conduit bon nombre d'entre elles à la faillite (Viéville, 2003). Cette expérience a entraîné une rationalisation « restrictive » de la production. En effet, la plupart des documents multimédias se limitent aujourd'hui à la forme hiérarchique d'un site internet de recherche d'information. En reproduisant les mêmes structures de documents, en appliquant des règles ergonomiques spécifiques, les risques de dérapages financiers sont limités. Il y a donc une standardisation des formes de documents et des méthodes employées pour les produire (Cartier, 2003). Malgré une spécification de méthodes et d'outils nécessaires à la conception des documents multimédias définie par la méthodologie AUTHOR (Huart, 2000), (cf. figure 2) et la conception de sites web efficaces en termes de communication (Rojas, 2007; Pignier et Drouillat, 2004), le processus d'écriture est bien souvent négligé. Dans un tel contexte, la créativité ne se matérialise guère qu' à travers le graphisme et les interfaces utilisateurs, et ce, même si les documents consultés à distance peuvent aujourd'hui rejoindre la complexité des documents installés sur un poste de travail. L'objectif du travail présenté ici est de fournir un formalisme d'écriture, qui permette d'offrir des outils d'écriture. Pour reprendre les propos d'Yves Jeanneret et Emmanuel Souchier (1999), le modèle présenté vise à définir un outil d'écriture « d'architexte ». Dans un premier temps, le scénario du document multimédia sera circonscrit puis, une fois les principes du modèle moléculaire définis, les modalités d'écriture et la façon dont l'auteur peut spécifier des interactions entre éléments du document seront décrites. L'objectif terminal est de fournir aux auteurs multimédias des outils de représentation de documents comportant des entités autonomes capables d'interagir entre elles et avec le lecteur. Avant d'aborder la problématique du scénario au sein de la conception des documents multimédias, il est important de s'attacher à certaines des caractéristiques de la réalisation (fabrication) de ces documents. La réalisation multimédia nécessite la production de différents documents qui seront intégrés au document final avec des fonctions informatiques permettant une interaction entre le document et l'utilisateur. Pour les documents importants de nombreux professionnels interviennent dans leur réalisation. Ainsi, la réalisation d'un document multimédia, nécessite une organisation, une planification sans faille. En effet, les moindres dysfonctionnements entraînent des surcoûts difficilement gérables. Dans ces conditions il est nécessaire, avant d'entamer la production effective, d'avoir ce que l'industrie appelle des « dossiers de définitions » performants. Il s'agit, à partir de ceux -ci, de se représenter ce que sera le document, avant toute réalisation – de quelque nature qu'elle soit. Un domaine proche du multimédia – de ce point de vue là – est l'audiovisuel, plus simple par certains aspects. En effet, l'aspect développement informatique spécifique à l'interactivité 2 n'intervient pas. Le scénario est une des pièces maîtresses du dossier de définition. Toutefois, si en termes d'organisation de la conception et de la réalisation les modèles de l'audiovisuel sont en partie adaptables au multimédia, les spécificités interactives du multimédia et des supports associés dépassent les différents modèles de scénarii audiovisuels ainsi que les documents de préparation de la réalisation (découpage et story-board), trop linéaires. Aujourd'hui, plusieurs types de concepteurs de documents multimédias existent. Les concepteurs qu'il est possible de qualifier de « solitaires » et ceux qui travaillent en équipe. Les premiers ont tendance à s'affranchir de la scénarisation et les seconds sont obligés d'écrire un scénario comme l'a mis en évidence Nicolas Viéville (2003). Le scénario s'appuie principalement sur l'environnement et la charte graphique ainsi que sur ce qui est qualifié du modèle de l'interactivité, c'est-à-dire des fonctionnalités d'accession aux différentes pages du document – généralement la définition de menus et boutons – (Fournier, 2003). Ce modèle de l'interactivité permet de réaliser les interfaces (graphiques ou autres) du document multimédia. Or, tous les modèles de scénario multimédia utilisés restent sclérosés par le lien hypertexte et les documents sont figés. Jean-Pierre Balpe écrivait déjà dans les années 1990 : « Si l'ensemble des informations et le graphe de représentation sont fixes, l'hypertexte est un ensemble fini de parcours possibles prédéterminés, c'est-à-dire de réorganisations de la topologie de surface des informations. C'est la solution « classique » la plus simple – mais aussi, dans la mesure où l'intelligence d'un dispositif peut être définie comme sa capacité d'adaptation à des contextes divers, la moins « intelligente » – celle massivement choisie pour la réalisation de quatre-vingts dix-neuf pour cent des CD-ROM actuels » (Balpe 1997). Aujourd'hui, les capacités des réseaux haut débit ont complètement balayé les CD-ROM, mais cette structure par lien est bel et bien présente dans la majorité des sites internet et la capacité d'évolution du document est bien maigre. Bien sûr, la gestion actuelle des interfaces permet l'ajout de fonctions dépassant largement le simple lien hypertexte, notamment par l'utilisation d'outils d'intégration multimédias qui permettent de surligner, de déclencher des actions par simple glissement de souris ou autres fonctionnalités. Dans un autre contexte, les sites collaboratifs sont des documents qui évoluent par l'action d'utilisateurs. Ceux -ci se trouvent être non plus des lecteurs ou des interacteurs 3 mais des « co-auteurs-réalisateurs ». Au bout du compte, la capacité réelle d'auto-évolution du document générée par l'inventivité de l'auteur est très limitée. Ainsi, aujourd'hui, le scénario de document multimédia en tant que produit du design multimédia (que cela soit le web design, le Game design ou d'autres types de documents) se rapproche de la description d'un spectacle de marionnettes à fil. Chaque fil (qui représente un lien, une fonction prédéfinie), autorise une action spécifique commandée par le marionnettiste (qui représente l'utilisateur). L'auteur agit alors en maître du monde : rien ne peut se faire, se prévoir, sauf si cela a été clairement imaginé par le concepteur. Nous sommes alors dans une logique en « rien-sauf » : rien n'est possible sauf ce qui a été expressément spécifié. Si l'on veut représenter le document multimédia dans sa globalité en y intégrant la dimension de générativité et d'évolutivité du document, il faut balayer cette représentation hiérarchisée en adoptant un autre mode de fonctionnement. En fait, plus que de scénario, il serait judicieux de parler de potentiel scénaristique, c'est-à-dire de diégèse – pour reprendre un terme cinématographique. Cette notion, introduite par Étienne Souriau (1953), peut se définir comme tout ce qui appartient, dans l'intelligibilité du document, au monde supposé ou proposé par le récit. La diégèse est donc un monde virtuel, peuplé d'entités et régi par des lois internes. Les entités sont des objets, choses ou personnages réels ou imaginaires, qui participent à l'évolution et à la description de l'environnement. En effet, contrairement à un scénariste audiovisuel qui se représente le déroulement linéaire du film, il est impossible à l'auteur multimédia de connaître l'organisation des unités d'informations qui seront perçues lors de la consultation du document. Ceci constitue un frein à la conception de documents génératifs ou évolutifs d'auteur. Les possibilités logicielles actuelles peuvent permettre un raisonnement en automates dans la conception des documents. L'auteur définit alors chaque entité – espaces (lieux concrets, abstraits…), objets (actifs, inactifs…), personnages (réels, imaginaires…) et autres – du document Chaque entité « connaît » les actions, les modifications qu'elle peut engendrer. À l'inverse d'un raisonnement en « marionnettes à fil » – où l'auteur observe en maître du monde les différentes parties du document – le raisonnement « en automates » permet l'observation de l'environnement depuis chacune des entités. Il est alors possible d'imaginer le mode de fonctionnement de chaque entité en fonction du contexte. Les auteurs pourraient même s'orienter vers un raisonnement en « tout-sauf » : tout est possible sauf ce qui a été interdit par l'auteur. Toutefois pour adopter ce raisonnement, un changement d'état d'esprit radical s'impose. La représentation d'entités autonomes conduit à abandonner les représentations linéaires traditionnelles (la structure arborescente des scénarii) au profit d'une structure que les informaticiens pourraient qualifier d'agents intelligents (Ferber, 1995). La création d'agents intelligents repose sur la modélisation orientée objet (Meyer, 2000). Sans entrer dans le détail, chaque objet informatique reprend toutes les caractéristiques de la classe dont il est issu avec des spécificités complémentaires. Ainsi, s'il existe une classe « chien » et que l'on définit un objet « Bill », celui -ci hérite de toutes les propriétés de la classe chien (animal à 4 pattes, aboyer, bondir…) en précisant notamment que sa race est « cocker à poil roux ». En fin de compte, représenter le scénario sous la forme d'un diégèse revient à considérer le scénario comme une représentation objet du document – au sens informatique. Ce changement de mentalité pose de gros problèmes idéologiques. Jean-Pierre Balpe dirait que « Le livre est tout le problème… » (Balpe, 2001). En effet, aujourd'hui, l'auteur (ou le concepteur) n'accepte pas que la scénation 4 ne soit pas strictement équivalente à ce qu'il a prévu. Ceci limite obligatoirement le champ des possibles. Cet état d'esprit est tout à fait compréhensible : si l'auteur ne peut se représenter, par partie, toutes les scénations possibles du document, il se sent dépossédé de sa création. C'est un des problèmes majeurs auxquels sont confrontés les chercheurs qui travaillent sur la narration générative et interactive : quelle est la place de l'auteur dans une génération automatique de documents (textes, dialogues, images de synthèse…) (Szilas, 2005) ? Pourtant, l'auteur a une place prépondérante au sein des documents à entités autonomes. Il imprègne de sa vision créatrice le document, à travers toutes les descriptions des entités, de leurs évolutions possibles… Si le concepteur a défini le mode de fonctionnement des entités du document avec suffisamment d'inventivité, le document sera alors imprégné de sa force créatrice. L'auteur ne sera pas dépossédé de son œuvre, bien au contraire. Le scénario, représentation abstraite du document, est le texte du document – au sens de (Gardies et Bessalet, 1995) précisé par Sylvie Leleu-Merviel (1996) : « la représentation abstraite du document est appelée le texte : elle utilise un formalisme de représentation adapté ». Le « scénario » du document multimédia est donc un modèle du document à réaliser. Il intègre des fonctions d'interactivité. Le scénario va permettre à tous les intervenants de la « préproduction » et de la réalisation du document de se le représenter sans qu'aucune partie du document n'ait été réalisée. Au premier abord, le scénario permet d'évaluer les coûts de production et par là -même sa faisabilité financière. Dans un contexte de document de commande, il permettra de (ré)viser à la hausse ou à la baisse la dimension du document final. Pour un auteur, tout comme dans l'audiovisuel, le scénario peut permettre de trouver des financements pour la réalisation du document. Un scénario, tout comme n'importe quel dossier de définition, est manuscrit, ou du moins indépendant de tout processus d'industrialisation et de production. Le scénario est un document nécessaire à l'équipe de « préproduction » – ou l'équipe d'industrialisation – pour préparer la réalisation. Il permet d'élaborer les solutions techniques à mettre en œuvre pour réaliser le document. Si le scénario exprime clairement les choix communicationnels du produit et la forme perceptible qu'ils prendront, l'équipe de réalisation peut alors développer au mieux le document. Ainsi, le produit a plus de chance d'approcher les objectifs initiaux. Cela n'est envisageable que dans la mesure où le scénario est détaché de tout processus de production. En effet, même si le cahier des charges définit certaines contraintes techniques, elles ne doivent pas imposer un mode de création sclérosé. L'auteur imagine son document multimédia. Il conçoit bien une œuvre interactive et, par là même, est guidé par ses représentations personnelles, par ses connaissances (ou ses méconnaissances) sur les possibilités techniques du support. Toutefois, le scénario ne se préoccupe pas de la réalisation : il s'affranchit de décrire des solutions techniques. L'indépendance du scénario vis-à-vis de la réalisation implique qu'il se situe à un niveau conceptuel : le scénario n'est pas une simulation mais une représentation formalisée de l' œuvre (Colin, 1992). Le scénario se trouve donc éloigné de toute implantation informatique permettant une automatisation du processus de production. Il sera le vecteur de communication privilégié de l'équipe de réalisation. Chacun à son niveau possède ainsi une représentation mentale correcte du document, fondée sur la référence commune que constitue le scénario. Celui -ci expose les objectifs communicationnels généraux du document, mais aussi ceux des objets le composant. Dans la mesure où cette représentation du document sert d'élément de référence pour son processus de réalisation, elle requiert un formalisme, un code, qui lui permet d' être comprise par le plus grand nombre d'intervenants au cours de la réalisation. Ce code s'identifie à un modèle formel de conception qui deviendra un outil favorisant la formalisation des idées du créateur. Il permet au scénario ainsi généré de souligner la cohérence structurelle de l' œuvre, avant d'aborder sa réalisation. En conséquence, le modèle formel de conception est là pour permettre au créateur d'exprimer : clairement les fonctions des éléments du scénario, les solutions directement ou indirectement perceptibles par le lecteur, afin d'atteindre les objectifs communicationnels, au cours de l'élaboration du scénario lui -même. Cela permet une vérification, en comparant les solutions proposées par le créateur à travers le scénario et les objectifs définis dans le cahier des charges fonctionnel. De plus, chacun des intervenants, imprégné de l'essence du projet, peut ainsi agir en adéquation avec les fonctions définies. Il s'agit alors pour lui de proposer les solutions techniques optimales dans le cadre de la réalisation, tout en ménageant les éventuelles « trouvailles » créatives et/ou esthétiques. Cela permet à tous un travail plus serein pendant la production et cela facilite la tâche du créateur. C'est ce qu'évoque Bertrand Tavernier : « Quand je prépare un film, je passe un temps fou à peaufiner le scénario. Avec Jean Cosmos, nous avons écrit 17 versions de Conan… Après je suis libre, je sais où je vais, je peux laisser place à l'improvisation » (Raspiengeas, 1997). Ainsi, lorsque débute le tournage, tout est parfaitement défini; le réalisateur peut alors se consacrer entièrement à l'aspect artistique de son œuvre. Afin d'atteindre ces objectifs, il est préférable que le modèle formel de conception tienne compte des processus humains, tant en amont pour la démarche créative, qu'en aval du point de vue du lecteur. Les processus humains à prendre en compte lors de la conception multimédia recouvrent plusieurs aspects : la création, la transmission de la représentation du document et l'interaction, voire de l'interactivité, entre le document et ses lecteurs. La création est une évolution, une série d'échanges permanents, entre des idées et leur formalisation. L'expression d'une idée entraîne sa conceptualisation. Il s'agit par la suite de la développer, de la décomposer : un élément scénaristique vague se précise, s'affine. Le produit de cette formalisation engendre de nouvelles idées qui se doivent de respecter la cohérence du projet. Le mode de construction créatif passe -t-il constamment d'une spécification générale à une expression de détails et vice versa. À tous les niveaux, la possibilité d'une vision d'ensemble, ainsi que la précision des détails sont importants. Un modèle scénaristique générique peut faciliter la décomposition d'entités signifiantes en plusieurs autres de taille inférieure; cette décomposition d'éléments précise les entités initiales. Inversement, un auteur compose aussi son scénario à partir d'idées de détails. Il les intègre alors au modèle de conception général avant même que celui -ci ne soit complètement structuré. Il s'agit, en quelque sorte, d'une synthèse d'éléments scénaristiques. Cette synthèse s'appuie sur une composition d'éléments pour en introduire de plus généraux. De plus, certains éléments de détail permettent au créateur de générer d'autres éléments scénaristiques – de détail ou plus généraux – tout en conservant la cohérence globale du document futur. Souvent, un point particulier est générateur de cohérence globale dans la mesure où ce détail sert de catalyseur à une partie de la démarche. Par ailleurs, les détails peuvent être des nœuds dramatiques, c'est-à-dire des étapes-clés structurantes et justifiant l'évolution générale du scénario. Ceci est conforme à la pensée de John Locke (1960). Pour lui, toutes nos idées proviennent de l'expérience : « Les observations que nous faisons sur les objets extérieurs et sensibles, ou sur les opérations intérieures de notre âme, que nous apercevons, et sur lesquelles nous réfléchissons nous -mêmes, fournissent à notre esprit les matériaux de toutes ses pensées. Ce sont là deux sources d'où découlent toutes les idées que nous avons ou que nous pouvons avoir naturellement ». Le mode de représentation du document à différents niveaux de précision est particulièrement important pour l'étude de la cohérence ou la compréhension des objectifs de fonctionnement – tant logiciels, cognitifs que psychologiques – du document. Par ailleurs, certains intervenants n'ont besoin d'avoir qu'une vision d'ensemble, des fonctions générales, du document. Inversement certains autres n'exploitent que des éléments précis du scénario. Ils désirent néanmoins s'imprégner d'une sensation globale afin d'appréhender le sujet, ainsi que disposer du développement des points qui les concernent plus particulièrement. En résumé, un modèle de scénario multimédia doit permette d'éclater des éléments généraux du scénario en composantes élémentaires et, inversement, de construire des ensembles généraux par assemblage d'éléments simples. Ces fonctions sont rattachées tant au scénario lui -même qu' à son modèle formel. En effet, la composition-décomposition d'éléments microscopiques et macroscopiques, sont aussi importantes pour l'écriture du scénario que pour sa lecture a posteriori. Dans le domaine des jeux vidéo, l'autonomie des entités se définit à travers des règles de fonctionnement, des règles du jeu. Il est même couramment admis que les jeux ne sont pas scénarisables (Avarez et al., 2007). Ceci n'est qu'une des conséquences de l'absence de représentation en « automates ». Le scénario va donc définir un certain nombre d'entités qui intégreront leurs règles de fonctionnement. Ainsi, chaque entité pourra interagir avec n'importe quelle autre entité. Le lecteur en étant une prépondérante. Dans la mesure où le document est conçu pour un lecteur, la composante humaine du récepteur intervient pendant tout le processus de conception. Il est donc préférable que le scénario porte l'empreinte des relations, tant cognitives que psychologiques, voulues par l'auteur. Ceci peut passer par un modèle du lecteur. Un modèle du lecteur a la charge de donner l'image que le concepteur se fait de l'utilisateur. Il ne s'agit pas de réifier le lecteur mais de spécifier au sein du document futur une réactivité s'appuyant sur un récepteur hypothétique. Ainsi, les évolutions du document pourront être déterminées par l'état imaginé du lecteur à travers son modèle. Il permettra en outre de définir arbitrairement un modèle mental du lecteur face aux messages perçus afin de faciliter : la tâche d'évaluation, la compréhension des objectifs par tous. De plus, un modèle du lecteur prendra en compte les modes d'action de l'utilisateur. Ces modes d'action, en conjonction avec les règles de fonctionnement du modèle mental, hypothétiques, autoriseront la définition d'une typologie de lecteur en fonction de sa réactivité et du document lui -même. Le document pourra alors élaborer une stratégie d'évolution adaptée aux différents types de lecteurs avec lesquels il échange. Il est à noter que quelques rares documents comme – déjà en 1995 – le CD-ROM « Le marché de Jean-Pierre COFFE » (Coffe, 1995) – se sont appuyés sur la détermination d'un caractère hypothétique de lecteur suivant son comportement et son attitude pendant la lecture. Le lecteur fait partie intégrante d'un système dans lequel le document prend place avec son environnement technique. Le modèle du lecteur permet au document de se faire une image du récepteur humain en fonction des réactions de celui -ci perçues à travers « l'interface homme-machine ». L'image du lecteur au sein du document n'est pas une représentation exacte. Elle peut même s'avérer complètement fausse, éventuellement parce que le lecteur agit pour tromper le document, ou plus simplement parce que le modèle n'est pas adapté au caractère du lecteur. Dans un contexte créatif, le modèle du lecteur est généralement inventé de toutes pièces sans référent particulier; il est alors probable que la représentation du lecteur construite par le document ne corresponde pas à la réalité, elle traduit alors une démarche artistique. C'est cette démarche qui construira la cohérence du document vis-à-vis du projet de l'auteur. En résumé, les spécifications propres à un modèle générique de scénario multimédia sont classées sous deux rubriques. La première définit le scénario et son modèle à un niveau conceptuel et par la même indépendamment de l'étape de réalisation afin : de permettre un réel processus de création, d'aider le créateur à formaliser et développer ses idées, de permettre la production d'un scénario qui facilite la communication entre les intervenants. La seconde recommande l'intégration de caractéristiques communicationnelles avec un être humain par le biais : d'un modèle de formalisation des fonctions, d'un modèle hypothétique du lecteur, d'un formalisme qui permette une appréhension du document depuis un point de vue macroscopique jusqu' à un point de vue microscopique et vice versa. Ces critères, qui peuvent paraître des critères de bon sens, ne sont que partiellement utilisés lors de la conception des documents multimédias. L'absence d'outil d'aide à l'écriture, et en amont, l'absence de formalisation de la représentation abstraite des documents multimédias au sens large (des sites internet aux mondes virtuels en passant par les jeux vidéo) sont une des raisons de la sclérose des documents évoquée précédemment. La suite du document propose une structure d'écriture pour les auteurs de documents multimédias qui s'appuie sur les principes qui viennent d' être définis. Le principe général de la représentation moléculaire s'appuie fortement sur la diégèse du document. La représentation en entités permet de formaliser des éléments évolutifs et/ou génératifs. Ainsi, un modèle du lecteur, permet d'imaginer des modalités d'interaction entre les interacteurs et le document, et peut – en outre – être défini par hypothèse. L'objectif avoué du modèle moléculaire est de supporter l'écriture et la représentation de documents dynamiques tout en ne permettant aucune automatisation de la réalisation à partir du scénario. Il s'agit de fournir un formalisme que n'importe quel auteur, n'importe quel artiste, hermétique aux outils techniques de réalisation, puisse exploiter pour écrire le scénario d'un document. Ce scénario lui permettra de faire comprendre et de faire réaliser les documents multimédias qu'il a imaginés. Ce modèle, comme le sous-entend son appellation, a été conçu par analogie avec des notions de chimie et s'appuie donc sur des atomes et sur des molécules. Le modèle moléculaire ne considère plus le scénario comme une succession de choses, de faits et d'actions. Il s'agit de représenter des entités, avec leurs règles de fonctionnement, leurs actions potentielles en fonction de l'environnement. Les atomes et molécules scénaristiques représentent, décrivent, les entités, leurs actions potentielles induites par des circonstances ou conjonctures particulières. Ils sont nécessaires à la représentation formalisée du document. Les atomes sont des éléments simples. Ils peuvent être décrits par une entité textuelle unique. A l'inverse, les molécules sont des éléments complexes dont la description nécessite plusieurs éléments distincts. Ainsi, une molécule peut être composée de plusieurs atomes ou molécules. Il y a 3 grandes familles d'atomes et molécules pour constituer le modèle : les atomes et molécules diégétiques, décrivant les entités du document; les atomes circonstanciels et les molécules conjoncturelles, décrivant les différentes circonstances intervenant dans le document; les atomes et molécules d'actions, décrivant les actions faisant évoluer les situations, les entités, l'état du document. Les atomes et molécules diégétiques représentent des entités du document. Chaque atome ou molécule diégétique est un fragment de scénario. Il représente l'élément constituant d'une entité du document. Un atome diégétique est conceptuellement et complètement décrit par un élément structurel unique. Un atome diégétique est une représentation élémentaire (partielle ou totale) d'une entité du document au sein du scénario. Cet élément est suffisant pour définir conceptuellement – à une étape particulière de la conception – la partie de l'entité concernée. Les atomes diégétiques sont figurés ici par des éléments ovales. Une molécule diégétique est la représentation conceptuelle complexe, d'une entité autonome du document. Une molécule diégétique étant la représentation d'une entité du document, la dimension temporelle des molécules est sous-jacente (les entités ont la capacité d'obéir à des règles de fonctionnement ou de comportement, et sont ainsi liées au temps). Une molécule diégétique est composée, outre du nom qui la définit : de facteurs d'enclenchement : ils définissent les conditions d'occurrence de l'entité représentée, de descriptions perceptibles : elles décrivent les éléments influant sur la perception physiologique de l'entité par le lecteur, de descriptions sémantiques : elles décrivent tout ce qui n'est pas d'ordre perceptible. Le nom donné à l'entité permet de l'identifier. Cet identificateur correspond généralement à une expression représentative de l'entité en question. Ce nom peut aussi être qualifié d'alias. Les éléments de descriptions perceptibles (DP) décrivent les caractéristiques de l'entité concrètement perceptibles. Cette description peut contenir un ensemble d'atomes ou de molécules à caractère sensible 5; c'est-à-dire liés à des manifestations qui toucheront physiologiquement nos sens de perception (si les entités correspondantes sont affichées). Ceux -ci peuvent être comparés à la description des « manifestations d'un message » en sémiotique. Ainsi, les descriptions perceptibles définiront ce qui peut être vu et entendu concrètement de l'entité au cours de la lecture du document. Ces descriptions peuvent être purement factuelles (définition d'un état de fait) ou définir des actions potentielles de l'entité (déplacements, modification de l'environnement…). Si, par exemple, une molécule diégétique représente une maison, les dimensions et l'aspect extérieur de la bâtisse constituent des descriptions perceptibles. Les éléments de descriptions sémantiques (DS) précisent les caractéristiques du signifié de l'entité et plus généralement de tout ce qui ne peut être directement perçu physiologiquement. Le sens voulu par l'auteur en concevant l'entité fait partie des descriptions sémantiques. Les fonctions de communication de l'entité sont aussi décrites, le cas échéant, dans les descriptions sémantiques. Si par exemple l'auteur souhaite définir une molécule représentant un personnage qui a peur, l'indication de la peur du personnage relève de la description sémantique. À ce niveau de la conception, cette peur n'est pas observable directement. Cela n'est du reste pas nécessaire. Cette description sera convertie par des faits perceptibles, (gouttes de sueurs, yeux exorbités, immobilité, tremblements nerveux, cris, etc. qui relèvent de la description perceptible) beaucoup plus tard – lorsque l'on tend vers la scénique 6 et la fabrication du document. Les descriptions sémantiques permettent aussi de définir certaines indications utiles à la mise en scène du document. Ainsi, la description psychologique d'un personnage s'effectue au sein de cette description. Dans les premières étapes de l'écriture du scénario, au sein des macromolécules (molécules les plus générales), les descriptions sémantiques sont très importantes. Elles permettent d'indiquer la fonction (particulièrement en termes de signifié) des documents en cours d'écriture. Le sens indiqué par ces descripteurs est potentiel. En effet, les entités décrites n'existent pas lors de la conception (sauf en cas d'utilisation d'éléments d'archives). Les descriptions sémantiques constituent une note d'intention auprès des différents intervenants. Elles contiennent l'objectif du sens des informations transmises au lecteur. Les facteurs d'enclenchement (FE) mettent en fonctionnement l'entité. Suivant l'entité décrite, il s'agit – si l'une des circonstances (ou conjonctures) spécifiant les facteurs est vraie – de l'afficher, la mettre en scène, la rendre active… Ces facteurs d'enclenchement sont un des acteurs majeurs de l'autonomie des entités représentées. En effet, ce sont les entités elles -mêmes qui contiennent l'information des conditions nécessaires (mais pas forcément suffisantes) de leur mise en fonction (affichage, arrivée dans l'espace de perception de l'interacteur…). On peut noter qu'une entité active n'est pas forcément perçue directement par l'interacteur. Si par exemple, une ampoule s'allume dans une boîte fermée de façon hermétique, celle -ci n'est pas perçue comme étant en fonctionnement. Un atome circonstanciel, formalisé à la figure 7 par un losange, est la représentation scénaristique d'une circonstance 7. Une circonstance spécifie une occurrence d'état. L'état d'une circonstance est évalué par une variable logique. Ainsi, en logique binaire, une circonstance est vraie ou non vraie 8. Si une circonstance se révèle insuffisante pour décrire un état, celui -ci sera décrit par une conjonction de faits, c'est-à-dire une conjoncture. Une conjoncture, entité complexe, est représentée par une molécule conjoncturelle (cf. figure 8). Une molécule conjoncturelle est la représentation d'une conjoncture 9 au sein du scénario. Une conjoncture est un ensemble de circonstances – ou de conjonctures, constituant une proposition logique. Comme pour une circonstance, une conjoncture est évaluée conformément à la logique retenue (binaire, floue…), même si, pour simplifier le propos la logique binaire a été retenue ici. Une molécule conjoncturelle est composée : d'états qui correspondent à des circonstances ou à des conjonctures qui seront vérifiés pour rendre la conjoncture vraie, de conjonctions logiques des états qui définissent les liens logiques entre tous les états de la molécule. Les États d'une molécule conjoncturelle sont des faits que la molécule conjoncturelle contient. Ils représentent des circonstances, conjonctures qui contribuent à rendre la conjoncture vraie. Une molécule conjoncturelle peut être définie par un état unique. Dans un scénario, cela permet de réexprimer différemment un état. Cela permet de définir plus précisément un fait, potentiellement déclencheur d'une action, d'une entité, sans alourdir la molécule qui contient cet état. La figure 9 en est un exemple. Lorsqu'une molécule conjoncturelle contient plusieurs circonstances ou conjonctures, des règles sont nécessaires pour hiérarchiser leur fonctionnement. Ce sont le rôle des conjonctions logiques des états. Les conjonctions logiques des états (CLE) définissent les liens logiques entre tous les états qui définissent la molécule conjoncturelle et contribuent à son expression. En effet, une conjoncture peut être vraie si une seule des circonstances spécifiées l'est; inversement, il peut y avoir la conjonction obligatoire d'un ensemble de circonstances pour la vérifier. Ces conditions définissent donc des relations du type « et », « ou », « non » et autres opérateurs logiques, entre les éléments contenus dans la conjoncture. A un temps t donné, une circonstance ou une conjoncture est vraie ou non-vraie (c'est-à-dire fausse ou indéterminée). Suivant leur valeur, des entités pourront être mises en fonctionnement (en fonction des facteurs d'enclenchement des molécules diégétiques correspondantes), ou des événements pourront être déclenchés. Il est intéressant de noter que, malgré la logique binaire utilisée, il est possible à l'auteur d'introduire une forme de logique floue. Par exemple si une molécule est considérée comme vraie si « le personnage est proche du piège » et si l'auteur n'a pas défini de critère absolu de proximité, le programmeur peut adapter cette notion en logique floue. Le dernier type d'atome, l'atome d'action – qui prend, à la figure 11, la forme d'un ovale terminé par une flèche – définit un événement du scénario. Un atome d'action représente un événement élémentaire. Un événement est une action – ou un ensemble d'actions – visant à faire évoluer le système. Les actions induites peuvent se limiter à une modification de la scénation, c'est-à-dire à des actions d'affichage. Cependant, si les molécules d'action sont des éléments du scénario d'un document à données génératives, certaines d'entre elles définissent des opérations sur le contenu d'atomes ou molécules diégétiques. Les événements permettent donc d'induire la modification ou la création d'entités. Un événement produit une action sur l'environnement. La situation générale du système s'en trouve modifiée. Une molécule d'action (figure 12) est composée de facteurs d'enclenchement, d'actions, qui sont les différents événements composant la molécule, de conjonction logique des actions qui établissent un lien logique entre les différentes actions. Les facteurs d'enclenchement sont l'ensemble des conjonctures et/ou des circonstances qui, lorsqu'elles sont vérifiées, provoquent l'événement. Les facteurs d'enclenchement ont strictement le même rôle au sein des molécules d'action qu'au sein des molécules diégétiques. Si le facteur d'enclenchement est vrai, alors l'action est engendrée. Les Actions sont les événements induits par la validation de l'événement. Ils peuvent être de typologies diverses. Ainsi, les événements peuvent définir la transformation ou la création d'entités. Les conjonctions logiques des actions (CLA) définissent les opérateurs logiques régissant les actions contenues dans l'événement. En effet, un événement se caractérise éventuellement par la conjonction de plusieurs autres événements. Il peut s'agir d'un enchaînement, d'une simultanéité ou même d'un choix entre plusieurs actions. Les conjonctions logiques des actions jouent un rôle de règles de gestion des événements contenus. Ces opérateurs logiques intègrent par exemple l'algèbre d'ALLEN (Allen, 1986; Allen, 1994) 10. À ce jour, de multiples représentations des atomes et molécules sont possibles. Trois exemples ont déjà été présentés précédemment : Une représentation graphique (majoritairement employée dans ce document), Une représentation textuelle, Un représentation tabulaire, Une représentation graphico-tabulaire, … N'importe laquelle de ces représentations est utilisable. Dans la mesure où la structure moléculaire est respectée, il est même possible d'utiliser sa propre représentation. Dans ce texte deux représentations sont utilisées : la représentation graphique et la représentation graphico-tabulaire. La première parce qu'elle est très ergonomique à la lecture pour bien différencier les différents types d'atomes et de molécules. Elle présente toutefois le défaut d' être difficile à utiliser par un auteur en absence de logiciel de « traitement de scénarii multimédias » 11. La seconde est un bon compromis entre l'ergonomie d'écriture et la lisibilité. Un simple modèle de document de traitement de texte permet d'écrire le scénario. Dans un scénario, il est nécessaire de différencier une molécule d'un atome au sein d'une autre molécule. Dans la représentation moléculaire « graphique » adoptée, les molécules sont « ombrées », ce qui les distingue d'un atome. Dans le cas d'une utilisation graphico-tabulaire, il a été décidé d'utiliser le souligné avec une couleur différente (lorsque l'on travaille en couleur). Ces modes de différentiation atome/molécule proviennent principalement des fonctionnalités d'hyperliens de certains logiciels généraux utilisés pour l'édition de texte ou de graphique. En effet, lors d'une lecture de la version informatique du document, la sélection d'une molécule située dans une autre molécule permet d'accéder à la représentation détaillée de la molécule en question. La représentation symbolique standardisée des hyperliens dans du texte sont ce texte souligné avec une couleur différente (généralement le bleu). Cette représentation standardisée est ombrée sur des logiciels graphiques orientés « représentation de systèmes en automatique ». Le modèle moléculaire repose, avant tout, sur une formalisation des idées, sur l'élaboration d'un texte au sens littéral du terme. Ce texte représente le document aux yeux de l'auteur, c'est-à-dire le scénario. Entre l'idée de document et le scénario terminé, de multiples étapes jalonnent le travail de l'auteur. D'une manière générale, avant le travail d'écriture, les idées de l'auteur (ou du commandiataire dans un contexte industriel), sont les fonctions du document 12. Les fonctions du document s'expriment généralement à travers les descriptions sémantiques et perceptibles des molécules diégétiques. Le document, à ce stade est dans son état « intention ». Le document en lui -même est une entité. Il sera donc décrit par une molécule, que l'on pourra qualifier de molécule mère ou de molécule globale. A l'état initial, la molécule mère contient les différentes intentions de l'auteur. Ses descriptions sémantiques permettent alors de définir les fonctions du document. Ainsi, l'auteur commence par exposer des idées, parfois très descriptives – éventuellement limitées par sa propre imagination. Ces idées ne sont pas obligatoirement structurées. Ce n'est que par la suite, que l'auteur développe le scénario pour donner des solutions – au plan de la communication – aux idées exposées – qui relèvent des fonctions du document. La molécule mère – ou molécule globale – représente l'intégralité du document. Si au début de l'écriture, la molécule mère ne contient guère que les fonctions du document, lorsque le scénario est terminé, la molécule globale contient l'intégralité des molécules et atomes représentant le document 13. Progressivement, à partir des fonctions, l'auteur définit les entités 14 qui structurent le scénario. Il a la possibilité de décomposer et d'identifier (donner des solutions au plan de la communication) des fonctions. Il a aussi la possibilité d'assembler, d'intégrer, des molécules représentant des entités précédemment rédigées. Ces fonctions du modèle moléculaire constituent les opérations structurelles de celui -ci. Progressivement, à partir des fonctions, l'auteur définit les entités qui structurent le scénario. Pour composer le scénario, développer ses idées, les organiser, l'auteur va pouvoir s'appuyer sur des opérations structurelles. Par exemple, un atome, préalablement défini, peut se révéler trop imprécis au cours de l'écriture. Cet atome scénaristique pourra alors être affiné. Sa décomposition permettra de produire plusieurs éléments (atomes et/ou molécules). Inversement il est possible de constituer une molécule « de synthèse » (au sens de l'opération intellectuelle). C'est-à-dire que plusieurs atomes ou molécules peuvent être regroupés afin de synthétiser un nouvel élément, des idées… Les modalités de ces opérations utilisent notamment des propriétés de fission et de combinaisons atomiques. La combinaison consiste à regrouper plusieurs molécules et/ou atomes afin de former une nouvelle molécule plus complexe. Ainsi, la combinaison crée une molécule nouvelle en « assemblant » des atomes et des molécules existantes. Ce mode de conception est utile lorsque qu'il faut constituer des entités pour assurer la cohérence dramatique d'un document. Le processus de fission atomique permet de scinder un atome en plusieurs autres, comme dans l'exemple de la figure 19. La fission seule n'est que très rarement utilisée. Elle est utilisée généralement lors d'une décomposition. Le processus de décomposition atomique permet de remplacer un atome par une molécule complexe, équivalente au plan général, mais plus précise. Si la réalisation de combinaisons est importante, la décomposition d'atomes et molécules l'est tout autant. Il s'agit pour l'auteur, grâce à cette fonction, de préciser ses idées, ses entités. Il s'agit du processus traditionnel de création. De la définition d'une idée générale, on spécifie ce qui permet d'arriver à la description des éléments qui permettent de définir cette idée. En phase terminale d'écriture (voire en phase de « préproduction ») certaines décompositions permettent d'améliorer la compréhension, ou du moins de réduire l'écart entre la représentation de l'entité que se fait l'auteur et celle comprise par l'équipe de réalisation. En effet, si le créateur a représenté une entité « oiseau » par un atome, il peut vouloir, après un certain temps de travail, décomposer la représentation de cet oiseau en caractérisant sa famille, la couleur de ses plumes ou de son bec afin qu'il représente parfaitement l'image mentale qu'il s'en fait. Lors d'une décomposition atomique, tout se passe comme si l'on effectuait la fission d'un atome en plusieurs autres atomes de taille inférieure et qu'immédiatement après ceux -ci se combinaient afin de former une molécule. Dans l'exemple qui suit, la décomposition de l'atome « voiture » conduit à la description de la molécule voiture. La fission de l'atome voiture conduit à deux atomes. La combinaison de ceux -ci aboutit à la synthèse de la molécule voiture. Un autre exemple, relatif à la conception d'un document sur l'état du monde, conduit à définir une molécule « Monde » à partir de plusieurs entités que sont les continents (figure 20). Chacun d'entre eux peut être découpé en vastes zones géographiques et/ou en états indépendants. Il s'agit alors d'effectuer une succession de fissions et de combinaisons afin d'arriver au niveau de détail scénaristique escompté. Il est à noter que lors d'une opération de décomposition, l'élément concerné devient « ombré » ou « souligné » (comme cela a déjà été précisé) afin de différencier les atomes des molécules (figure 21). Très utile lorsque 2 atomes ou molécules représentant la même chose ont le même nom, l'opération de substitution consiste à remplacer un atome ou une molécule par un nouvel élément. Il peut s'agir de substituer un atome par un autre de fonction similaire, mais il est possible de le remplacer par un élément dont la fonction est différente. En effet, il n'est pas rare qu'au cours du processus de création, certains points soient sérieusement modifiés. Par exemple : « véhicule automoteur léger à quatre roues permettant le transport de plusieurs personnes avec quelques bagages » substitué en « voiture », « Château isolé » substitué en « grande demeure isolée ». De façon plus simple, un auteur exprime rarement une idée sans la retravailler sous une forme ou sous une autre. La réécriture, la modification d'une phrase de scénario peuvent-être assimilées à une substitution. La scénation d'un document interactif est imprévisible. Cependant, le créateur peut introduire des orientations ou des critères de scénation à travers les facteurs d'enclenchements ou les conjonctions logiques. Les facteurs d'enclenchement sont des circonstances ou des conjonctures qui définissent les conditions pour lesquelles les entités ou les événements correspondants entreront en activité. Si un seul des facteurs défini au sein d'une molécule est vérifié, l'entité est validée ou l'événement se produit. Si la validation – ou la mise en service – d'une entité est conditionnée par la conjonction ordonnée de facteurs, il suffit de créer une conjoncture appropriée. Si une entité est en service, elle valide elle -même, et récursivement, les entités qui la constituent (à la condition que leurs facteurs d'enclenchement soient vérifiés); si la représentation de ces dernières n'a aucun facteur d'enclenchement, elles sont alors validées par défaut. Ainsi, pour que l'entité « docu » soit validée (cf. figure 22) il faut que le facteur d'enclenchement « à partir du début de séance » soit vérifié. La molécule diégétique 15 « docu » est constituée de deux autres molécules traitant de « La vie des mygales en Génousie » et « Les ours de Poldavie ». Le premier thème est traité à l'aide d'un film documentaire « film 1 ». Aucune contrainte d'enclenchement n'est spécifiée pour « La vie des mygales en Génousie », par conséquent, cette entité constituée de « film 1 » est mise en service dès que « docu » est validée. Ce processus pourrait être qualifié de « validation automatique ». Par contre en ce qui concerne l'entité « Les ours de Poldavie », elle ne sera validée que lorsque le documentaire « film 1 » sera terminé. Une absence de facteurs d'enclenchement engendre la validation systématique des entités ou des événements, dès qu'un élément les contenant est en service. Les conjonctions logiques des états et des actions intégrées respectivement aux molécules conjoncturelles et molécules d'actions sont constituées d'opérateurs logiques. Ceux -ci définissent les conjonctions entre éléments constitutifs. Certains de ces opérateurs sont présentés dans ce texte, mais leur liste n'est pas exhaustive. Un auteur peut définir un nouvel opérateur logique si l'élément scénaristique développé le requiert. Ainsi, des règles de priorités d'enclenchement peuvent être définies en s'appuyant sur des conjonctions logiques des états ou des actions. Si par exemple le créateur décide qu'une partie du document sera constituée d'une simulation de diaporama avec un accompagnement musical (cf. figure 23), il peut vouloir synchroniser précisément les entités visuelles et sonores. En ce cas, la molécule d'action « jouer diaporama 1 » est un exemple de scénarisation de cet extrait documentaire. Cette molécule précise que les événements « Jouer musique » et « afficher photographies » seront synchrones, ce qui demande une attention particulière lors de la réalisation. Par contre, la molécule « jouer diaporama 2 », en raison de l'utilisation de la conjonction logique ‘ & ', indique que l'événement correspondant déclenchera « afficher photographies » et « jouer musique », mais que leur parfaite synchronisation n'est pas requise. La conjonction logique des actions « séq » de la molécule d'action " afficher photographies " indique que les trois photographies sont affichées les unes après les autres. L'auteur, comme cela a été déjà abordé en section 3.2.3., peut aussi utiliser l'algèbre d'ALLEN. L'auteur peut définir la position spatio-temporelle des entités à l'aide des facteurs d'enclenchement des molécules diégétiques. Ainsi, lorsque deux molécules ont des facteurs d'enclenchement identiques, les entités qu'elles représentent sont validées simultanément. De même – dans l'exemple de la figure 24 – « détonation » et « fumée à l'extrémité du revolver » sont des entités enclenchées en même temps, soit lorsque « l'ennemi tire », soit lorsque le « joueur tire » (ce dernier cas de figure se produit si le « joueur appuie sur la détente » et que le « revolver est armé »). Le scénario, s'il induit une forme de scénation à travers ses facteurs d'enclenchement, et les conjonctions logiques liées aux événements et aux conjonctures, peut aussi préciser la position spatiale de certaines entités. Ces indications sont incluses dans les descriptions perceptibles ou peuvent être définies par l'intermédiaire d'événements spécifiques. La définition des conjonctures – facteurs d'enclenchement - et des événements induisent une scénation variable, à l'intérieur même des entités du document. Ceci permet la description d'entités autonomes dont l'évolution entraîne la modification de la scénation. Ce ne sont plus les actions de l'utilisateur qui, seules, modifient l'évolution du document mais la conjonction des actions de l'utilisateur et de celles produites par les autres entités du document. De plus certains événements, dans le cadre de documents à données génératives, peuvent modifier les données. Ces documents sont alors des documents dynamiques. Les entités d'un document à données génératives sont « vivantes » dans le sens où elles peuvent évoluer en fonction du déroulement du document. Elles sont dynamiques. Une entité est dynamique si ses caractéristiques sont susceptibles de varier ou de modifier l'état d'autres entités au cours de la lecture du document. C'est le cas notamment en réalité virtuelle où la visualisation du décor est élaborée en temps réel, à partir d'une base de données réduite, ou aussi lorsque certains états (comme le diagnostic de la présence d'un lecteur malvoyant) permettent de modifier l'affichage des entités visuelles ou auditives. Les molécules diégétiques sont la représentation d'entités autonomes. Par analogie à l'intelligence artificielle, elles énoncent des bases de faits déclaratifs (molécules et atomes diégétiques définis à travers les descriptions sémantiques et perceptibles) et procéduraux (molécules et atomes d'actions contenus dans les molécules diégétiques). Dès lors, les molécules permettent une description dynamique des entités. Ces dernières peuvent s'enclencher, s'afficher, en fonction de la conjoncture générale du document. C'est le rôle des facteurs d'enclenchement. En résumé, les entités contiennent leurs propres modes opératoires (facteurs d'enclenchement et actions). L'évolution d'une entité du document résulte de la façon dont elle a été définie et/ou d'événements extérieurs, représentation des actions potentielles de ces entités, de leurs états et de leurs évolutions. Par exemple, l'espace du jeu de Tetris évolue constamment au fur et à mesure du déroulement de la partie. En effet, les formes qui arrivent modifient la zone de jeu, c'est-à-dire l'espace potentiellement accessible à de nouvelles formes. Il est bon de noter que certaines entités peuvent évoluer sans pour autant être affichées. Ainsi, une entité peut représenter le parcours du lecteur à travers un document; or, même si elle n'est pas visualisée, l'entité « parcours » évolue dès que le lecteur circule dans le document. Par ailleurs, la représentation d'entités dynamiques, alliée à la définition d'un sens hypothétique produit par leur affichage, permet d'envisager leur enclenchement par proximité sémantique (le créateur définit ce sens à partir d'hypothèses qui relèvent de choix, éventuellement artistiques, et qui s'avèrent souvent arbitraires). Le document pourra ainsi suivre une évolution cohérente vis-à-vis des objectifs du créateur en validant successivement des éléments proches sémantiquement ou, à l'inverse très éloignés : certaines situations peuvent en effet entraîner des ruptures sémantiques fortes. Une telle conception conduit à la réalisation de documents interactifs qui ne reposent plus exclusivement sur un schéma de mise en situation directement lié aux actions et aux réactions matérielles du lecteur. Dans un tel contexte il ne s'agit plus de concevoir des documents avec des interactions mais une réelle interactivité. La plupart des documents actuels ont un niveau d'interactivité assez faible. Ceci se matérialise par des commandes d'actions-réactions directes entre le document et son lecteur (l'incidence sur l'affichage de l'action du lecteur est instantanée). Ainsi un clic-souris, un « drag and drop », un « rollover » entraîne une réaction immédiate du système documentaire. Or, il est préférable – dans un souci de respect des objectifs de l'auteur, tant au plan artistique qu'au plan de la communication – de prendre en considération le comportement du lecteur pour faire évoluer le document multimédia. Certes, l'usager, son rapport au document, sa perception du document sont pris en compte dans la majorité des conceptions de documents multimédias, notamment à travers la conception des interfaces (Pignier et Drouillat, 2008). Les interfaces s'appuient de plus en plus sur des métaphores visant surtout à faciliter l'ergonomie de la navigation non plus d'un strict point de vue des spécialistes de la « communication homme-machine », mais en y intégrant les fonctions d'estime nécessaires à l'adhésion du lecteur au document. Toutefois, un auteur, qui plus est s'il est artiste, ira au-delà de cet aspect fonctionnel des relations entre le lecteur et le document. Il aura envie d'innover et d'avoir les moyens d'expression nécessaires à la réalisation du document qu'il a rêvé, du « jeu » de situation qu'il veut créer entre l'interacteur et le document qu'il a mis en place. L'autonomie des entités permet la représentation d'un modèle de l'interacteur. Il ne s'agit en aucun cas ici de réifier le lecteur mais d'en proposer un « avatar » 16. Il s'agit de circonscrire un état psychologique du lecteur en fonction de ses réactions. Ceci se fera souvent de façon totalement arbitraire, sans tenir compte d'un quelconque modèle psychologique scientifiquement établi, comme c'est le cas dans l'exemple de la figure 25. Le modèle ne sert qu' à établir une stratégie d'évolution. Un romancier, un scénariste ou un réalisateur de cinéma vont écrire en fonction des réactions potentielles d'un lecteur, d'un spectateur imaginaire. Dans le même ordre d'idée, un modèle de l'interacteur va permettre à l'auteur d'établir une stratégie d'interaction entre les entités du document et l'interacteur. Aujourd'hui, il est difficilement envisageable de déterminer directement et en temps réel, les états cognitifs et émotionnels d'un utilisateur. Cela implique, si l'on veut faire évoluer le système en fonction du lecteur, de passer par des modèles de représentation de celui -ci. En fait, un modèle du lecteur est une entité qui cherche à caractériser le lecteur à partir de faits objectifs et mesurables par le document et son environnement technique. Le caractère déduit peut ainsi influencer le déroulement du document. Éventuellement, l'auteur pourra déléguer à des spécialistes de l'intelligence artificielle la conception d'un système spécifique de diagnostic d'un état psychologique, cognitif de l'interacteur lors de la réalisation du document. Néanmoins, et particulièrement dans un contexte de création artistique, un concepteur peut vouloir faire évoluer le document en fonction du comportement du lecteur face au document, sans se préoccuper d'un quelconque modèle scientifique. Il peut s'aider pour cela de la représentation d'un modèle du lecteur avec des molécules diégétiques qu'il aura construites. Le modèle du lecteur qui suit s'inscrit prioritairement dans ce cadre. De plus, la prévision d'évolution d'un document en fonction d'un état imaginé du lecteur, peut générer des solutions simples de diagnostic d'état de l'interacteur. Ainsi, un auteur peut décider que le document considérera un lecteur nerveux si celui -ci clique à tort et à travers. À l'inverse si le lecteur n'a aucune action le document le considérera comme passif. Développé, ce modèle de l'interacteur peut permettre d'élaborer une stratégie ou un mode d'évolution d'un document. Ce type de modèle, à partir de règle simple, a permis à des groupes d'étudiants de scénariser des documents établissant des stratégies d'évolution face au lecteur ou son avatar au sein du document. Il s'agissait, par exemple, de documents déterminant la présence (ou l'absence) d'un handicap visuel chez le lecteur et afin de lui proposer des entités et une navigation adaptées à son handicap sans interface particulière. En résumé, le modèle du lecteur n'est pas là pour « fabriquer » un lecteur, mais pour circonscrire – de façon arbitraire, éventuellement avec une vision « d'artiste » – un hypothétique état psychologique en fonction de ses réactions. Ce modèle repose sur des faits observables par le document et son environnement technique. Le modèle en molécules scénaristiques qui vient d' être présenté permet de représenter un univers imaginaire, avec ses propres lois, sous la forme d'un scénario. Ce dernier définit le document, grâce à la représentation d'entités dynamiques. Le créateur ne définit plus des liaisons entre données. Il caractérise des entités (objet, lieu, un personnage, réel ou imaginaire, qui participe à l'évolution et/ou à la description de l'environnement). Les entités sont définies par des critères d'états et des caractéristiques d'évolution. Elles sont donc autonomes et peuvent interagir les unes avec les autres. Le lecteur participe à l'évolution du document multimédia à travers son avatar : « le modèle du lecteur ». Celui -ci définit un lecteur hypothétique, imaginé par l'auteur, afin de permettre aux entités artificielles du document d'agir en fonction du comportement présumé de ce lecteur imaginaire. En ce sens, l'interacteur constitue une entité de l'environnement. Enfin, la prise en compte d'une description sémantique des entités peut permettre de traiter les entités à partir de significations potentielles. En fait, dans un tel mode de conception, ce ne sont plus les données qui priment mais les informations qu'elles permettent de véhiculer. Les principes de base exposés dans ce document peuvent paraître simplistes au premier abord. Toutefois une étude menée sur plusieurs auteurs multimédia montre que l'idée même de documents adaptatifs ou en entités autonomes ne viennent pas à l'esprit des concepteurs. Ces principes sont éventuellement concevables pour des jeux, mais absolument pas pour des documents d'information. Par ailleurs, le mode de perception linéaire des documents empêche souvent les auteurs de « plonger » dans l'écriture d'entités autonomes. Ceci a aussi été mis en évidence progressivement avec des étudiants d'une filière audiovisuelle et multimédia positionnés en tant qu'auteurs, indépendamment de toute réalisation ultérieure effective. En résumé, l'imagination d'entités qui peuvent être autonomes et la conception de parties de documents, d'unités d'information, en fonction d'utilisateurs différents pose problème. Il y a aujourd'hui un manque de « documents témoins » permettant de corréler le « texte » (dans le sens représentation abstraite) et le document adaptatif avec des entités autonomes effectivement réalisées. Des scénarii « exemples » existent mais le format de cette publication empêche d'en insérer dans ce texte. Pour palier ce problème le lecteur pourra en consulter, publiés sur afin de mieux illustrer ces concepts. Un autre problème, identifié tant par les auteurs « professionnels » que les étudiants (et quel que soit le type de document multimédia réalisé), concerne l'absence d'outil d'écriture adapté. Cet outil – que l'on peut qualifier de « traitement de scénarii multimédias » – est en cours de développement .
Les documents multimédias actuels connaissent une forme de standardisation avec une structure très hiérarchisée. Ceci résulte notamment du besoin de maîtriser les coûts de production, de la linéarité de représentation des concepteurs, et de l'absence de formalisation d'écriture adaptée aux possibilités du multimédia. Cette absence de représentation performante et la « linéarité par partie » issue de l'héritage littéraire empêchent la production de documents d'auteurs utilisant toutes les possibilités créatives offertes par le multimédia. Cet article présente dans un premier temps les fonctions du scénario multimédia pour qu'il puisse être un réel modèle du document, l'approche de représentation des documents afin de s'affranchir de la sclérose des liens hypertextes. Dans un second temps, la scénarisation moléculaire, adaptée à la représentation des documents multimédias, est développée afin de répondre aux critères définis dans la première partie.
sciencesInfo_11-0249960_tei_DN_122_0047.tei.xml
termith-346-communication
Comme cela fut le cas lors des échanges publiés dans la livraison précédente de Questions de communication (2010), deux des chercheurs iciréunis s'expriment à la première personne, notamment lorsqu'ils exposent –situations concrètes à l'appui – des façons spécifiques de pratiquerl'interdisciplinarité. Par exemple, habitué des travaux conduits dans le domaine dela santé où peuvent être amenés à collaborer des chercheurs de disciplines diverses ,l'anthropologue Laurent Vidal traite des attendus, profits et difficultés desrecherches de cet ordre. Ainsi montre -t-il, notamment à partir d'enquêtes sur lesida conduites en Afrique, comment les chercheurs doivent composer, non seulemententre eux mais aussi avec la commande publique. Quant à Jérôme Bourdon, historien deformation, aujourd'hui chercheur en sciences de l'information et de lacommunication, il raconte une anecdote personnelle – la soutenance de sa thèse – quiest pour lui l'occasion d'illustrer les écarts théoriques et méthodologiques pouvantdistinguer des chercheurs travaillant sur un même objet, en l'espèce laradio-télévision française. On voit alors des identités disciplinaires se faire etse défaire au contact d'autres identités, en même temps que se constituent desdomaines et préoccupations scientifiques. Tel est d'ailleurs l'angle par lequel lephilosophe Jean-Paul Resweber approche l'interdisciplinarité, considérant que cettedernière est à la fois une étape assurant la transition entre la pluri - et de latransdisciplinarité, et un parcours ou se nouent et se dénouent des savoirs en mêmetemps que s'unifient des idées, des approches, des notions et/ou des concepts. Trois idées fortes ressortent des propos de Jean-Paul Resweber, Laurent Vidal etJérôme Bourdon. Pour le premier, il n'y a pas de discipline sansinterdiscipline; pour le second, il n'y pas de recherche sans interdiscipline ;pour le dernier, « l'interdisciplinarité est partout, c'est-à-dire nulle part » .Si les points de vue se rejoignent, leur portée diffère : elle conduit lepremier à revenir aux origines d'une discipline pour en suivre la construction ;elle pousse le deuxième à exposer les conditions de mise en œuvre d'unerecherche. Elle guide le troisième sur une voie décalée, celle d'une distancecritique vis-à-vis de l'interdisciplinarité. À l'instar de Michel Foucault (1966), Jean-Paul Resweber part de l'idée selonlaquelle, au commencement, une discipline s'organise autour de savoirsempiriques « disons de savoir-faire qui, peu à peu, vont être soumis à untravail de formalisation. Ainsi mis en perspective, les savoirs se transmuent enconnaissances ». Via la vulgarisation qu'en font leschercheurs, elles -mêmes se transmuent en savoir axiomatisé, ce qui fait qu'onpasse « des pratiques à la théorisation pour en revenir à la pratique ». Dans cemouvement, la discipline obéit donc « à une double logique d'extraction quiarrache les savoirs à la culture, et d'inculturation qui les reverse au comptede la culture. Par la médiation des connaissances qu'elle élabore, elletransforme les savoirs empiriques en savoirs susceptibles d' être partagés, unefois constitués en « capital symbolique » ». Mais le philosophe va plus loin .Toujours à l'instar de Michel Foucault (1969), il explique que « les scienceshumaines se développent à partir de trois disciplines-souches : la biologie ,l'économie et la linguistique ». Or, si les sciences humaines se constituent enempruntant à des disciplines-souches, elles le font aussi en annexant des« concepts appartenant à des disciplines déjà constituées ou en cours deconstitution ». D'où l'idée selon laquelle les disciplines, comme les langues ,s'éteindraient si elles ne créaient pas de nouveaux mots, concepts et/ou façonsd'approcher le réel… Du coup, pour lui, pluri - inter - et intra-disciplinaritésne sont pas distinctes, mais représentent chacune l'une des étapes d'un mêmecheminement, l'interdisciplinarité constituant le milieu « au triple sens de ceterme : l'écart ou la marge, l'espacement ou l'intervalle et le juste milieuvisé par l'interprétation ». Pas de désaccord avec Patrick Charaudeau, mais un déplacement de l'approche queJean-Paul Resweber qualifie lui -même comme étant en marge et en complément decelle du linguiste : « J'ai surtout insisté sur les finalités anthropologiquesqui cristallisent les intérêts ou les enjeux de l'interdisciplinarité et sur laméthode herméneutique nécessaire à leur réalisation, sans pour autant négligerles marqueurs qui témoignent du croisement et de la récollection dessavoirs ». Ce déplacement conduisant à ne pas seulement envisager l'interdisciplinarité entermes de profits est aussi celui que, dans une certaine mesure, Laurent Vidaladopte. Pour lui, une réflexion sur l'interdisciplinarité doit « s'accompagner ,ou à tout le moins se mettre en miroir, de la démarche réciproque qui consiste àpenser la question de l'interdisciplinarité non pas tant à partir de « sadiscipline » (Patrick Charaudeau le fait aussi), mais au travers d'un décryptagede la fabrique de sa discipline ». Pourquoi ? Parce qu'un point aveugle demeurequand le geste de l'interdisciplinarité est prôné, celui qui permettraitd'identifier son porteur ou son inspirateur : « En demandant « qui fait cetteinterdisciplinarité ? », j'attends – peut-être un peu paradoxalement – moins uneréponse formelle à la question qu'un retour sur la construction de la rechercheimpliquant plusieurs disciplines ». Pour attester de l'importance que, selonlui, il y aurait à poser la question, il revient sur les traces de deux étudesconduites en Afrique (Côte d'Ivoire, Sénégal) dans le domaine de la santé. L'une– « Santé maternelle » (2001-2005) – associait des anthropologues, des médecinset des spécialistes de la « mobilisation sociale et politique » autour d'unobjectif de compréhension des pratiques des personnels de santé prenant encharge les accouchements difficiles, et d'intervention visant à lestransformer; l'autre – « É valuation » – faisaittravailler ensemble anthropologues, économistes, démographe et épidémiologistepour évaluer « les conditions de mise en œuvre d'une action lancée par uneagence onusienne – onusida – qui expérimentait en Côte d'Ivoire, entre 1999 et2001, la délivrance de traitements du vih ». Dans les deux cas, Laurent Vidalétait responsable ou co-responsable de l'étude. Aussi, tentant de répondre à laquestion « qui détermine l'interdisciplinarité ? », il affirme qu'il ne s'agitaucunement de la personnalité assurant une fonction de direction. En outre, ildémontre que le mélange des disciplines ne s'opère pas à partir de principesposés une fois pour toutes, mais dans un cadre en permanence négocié « et quec'est dans cette confrontation -là que naissent des espaces d'autonomie maisaussi de possibles blocages ». Or, on le sait, ces blocages peuvent subsumer lecadre disciplinaire. En conséquence, constatant de réelles connivencesd'intérêts, d'approches, de vocabulaire entre chercheurs de secteurs différents ,Laurent Vidal s'interroge : « Comment une telle proximité de centres d'intérêtpeut-elle aller de pair avec de difficiles collaborations sur le« terrain » ? ». Dans le cadre des études qu'il a conduites, il explique cecipar le fait que, d'un côté, on trouve des chercheurs, de l'autre, desopérateurs : « Des métiers donc différents, qui décident de participer à un mêmeprojet mais qui, lorsqu'ils doivent traiter des questions dont ils s'estimentles spécialistes, tendent à vouloir affirmer leur expérience, leursavoir-faire ». À l'heure du vivre et travailler ensemble à l'université, ces propos font ôcombien écho à des situations maintes fois rencontrées. On y perçoit lamanifestation du besoin de légitimation de soi qui passe – est-il besoin de ledire : parfois, souvent ? – par le refus de l'autre ou le déni de ce quisingularise celui -ci. À cet égard, une phrase, adressée récemment dans uneréunion aux auteurs de cette introduction, est emblématique : « Mais commentpouvons -nous travailler avec vous à un tel programme ? Vos problématiques onttrente à quarante ans de retard ! ». Prononcée par le directeur (ayantd'ailleurs une haute idée de lui -même) d'un laboratoire hébergeant deschercheurs appartenant à une discipline reconnue de longue date, cette phraseétait destinée à sonner le glas d'une collaboration – imposée par des présidentsd'universités – entre ces chercheurs et ceux issus d'une discipline plusrécente, en l'occurrence les sciences de l'information et de la communication( sic). Si méprisant et faux soit-il, le propos exprime clairement ce quebeaucoup pensent tout bas : les disciplines ne se valent pas. Elles sont régiespar une échelle de grandeur – à peine masquée – au sommet de laquelle peuvent sesituer les plus anciennes d'entre elles, comme la philosophie. À ces propos et à la conclusion que nous en tirons, Jérôme Bourdon rétorqueraitprobablement qu'opposer une discipline à une autre est sans objet, la notionmême de discipline pouvant se révéler hasardeuse. Au demeurant, en préambule àsa contribution, il écrit : « Avant de croiser les disciplines, il faut savoiroù nous en sommes de la question disciplinaire, sinon, nous ressemblerons fort àla gentry anglaise chassant le renard, décrite par OscarWilde : l'innommable (la discipline) chassant l'immangeable( l'interdisciplinarité) ». C'est donc ce à quoi il s'emploie. Convoquant RogerChartier (1998), il pose l'idée selon laquelle concept et territoire sont deuxdes éléments de définition pouvant être mis à contribution pour aider àcomprendre les disciplines. Ainsi précise -t-il que certaines se reconnaissentplus dans l'un que dans l'autre. Et de développer une argumentation serrée de lafaçon dont les unes ou les autres investissent des territoires et/ou desconcepts spécifiques mais s'y affrontent aussi. Il explique : « L'axe qui va du primat de la conceptualisation au primat de ladescription des objets est certainement le plus fécond pour comprendre lesoppositions entre disciplines. À ce jeu, on est toujours le philosophe dequelqu'un (trop abstrait, votre affaire, vous ignorez les faits), ou songéographe (trop concrète, et donc faussement concrète, cher ami, votredescription, vous oubliez que le réel est construit – même si je suis trèscontent, quand même, de piocher dans votre description) ». Et si l'on y ajoute la question et les débats concernant les méthodes, on a, ensubstance, quelques-unes des difficultés majeures pouvant empêcher qu'undialogue ne s'établisse entre des chercheurs de disciplines différentes. Mais ,Laurent Vidal complète, et on le suit totalement : « Les échanges, leséventuelles divergences, ne se réduisent pas à des confrontationsdisciplinaires, même si elles peuvent parfois y renvoyer. Ce sont aussi destraditions de recherche ou d'action qui se rencontrent, des conceptions del'action elle -même qui sont en discussion et, enfin, des approches différentesdu travail ». On pourrait ajouter : ce sont aussi des individualités et unregard que l'on porte sur soi -même et les autres… Enfin, dans sa quête d'une définition de ce qu'est une discipline et doutant queles contours de celle -ci puissent connaître une forme de stabilisation, JérômeBourdon évoque la « stratégie de reconversion de ressources d'un champuniversitaire dans un autre ». Ainsi mentionne -t-il « la reconversion deslittéraires dans la sociologie des médias, dans les études culturelles, dansl'analyse du discours, qui permet de sauver au moins une partie d'un capitalculturel chèrement acquis ». Il en vient aussi à parler de ces voyages quiconduisent une discipline à en utiliser une autre – à en faire une scienceauxiliaire –, telle la sémiologie qui aurait acquis un statut « de scienceauxiliaire d'analyse des messages (singulièrement de l'image), ce qui est unedéfaite par rapport à l'ambition initiale ». L'analyse de Jérôme Bourdon est donc à distance du regard encourageant quePatrick Charaudeau portait sur ces voyages. En les envisageant sous l'angled'une mise en contexte, Jérôme Bourdon met à nu les conflits dont ils peuventêtre une résultante. L'interdisciplinarité oui, mais à condition de poser laquestion du sens qu'elle recouvre… Or, du sens aux conditions d'exercice decelle -ci, il n'y a qu'un pas. Par exemple celui qui permet d'interroger lesenjeux – politiques par exemple – de l'interdisciplinarité. Parmi les enjeux dont l'interdisciplinarité est une résultante, se trouve laquestion du pouvoir. Figurant en bonne place dans toutes les contributions, ellene fait pas pour autant l'objet d'un traitement analogue dans chacune. Jean-PaulResweber fait ce constat : « Les pouvoirs obligent les savoirs à se plier àd'autres enjeux que ceux dont ils se sont dès le départ dotés, à plier lesintérêts particuliers à des intérêts plus généraux ». En revanche, pour LaurentVidal, « les données du système, le « cadre » de l'action (la demande seprésente ainsi; les responsabilités dans le projet sont les suivantes) nesuffisent pas à guider l'intervention de l'individu, du chercheur et […] ,naturellement, à l'inverse, celui -ci n'est pas non plus maître de son action –sous prétexte qu'il serait anthropologue ou responsable d'une équipe ». Unregard contrasté donc pour une question d'importance qui conduit Jérôme Bourdonà s'engager dans une autre voie, celle d'une petite interdisciplinarité, ou plusmodestement, d'interméthodologie. C'est dans la démonstration de Jean-Paul Resweber que la question des enjeuxdisciplinaires/interdisciplinaires est la plus fortement posée, lui qui exposel'idée selon laquelle « l'herméneutique interdisciplinaire s'inscrit dans unevisée anthropologique ». Pour en expliciter et fonder certains traits, il croiseet fait se compléter les analyses de Jacques Lacan (1962-1963, 1966, 1975-1976) ,Jürgen Habermas (1969, 1982) et Paul Ricœur (1990, 2005). Plus précisément, laréférence au premier permet d'envisager la part fondamentale de la quête devérité dans le savoir. Mais cette quête est particulière. Conçue comme sensabsent, elle est impossible à thématiser et à ériger en axiome : « Voilà bien pourquoi elle peut faire « bouger » et« s'entrechoquer » les savoirs, afin qu'ils se structurent en un savoir – queJacques Lacan appelle aussi la langue –, savoir capable de tenir lieu du réeldont il est la longue et patiente écriture. […] En provoquant le conflit dessavoirs, elle [la vérité] fait le lit de la vérité qui exprime le désir del'homme et contribue, ni plus ni moins, à reconfigurer le réel, celui qui estl'objet de la passion de chacun d'entre nous ». En revanche, pour Jürgen Habermas, qui soumet les savoirs à une herméneutiquecritique, l'enjeu des savoirs n'est pas la vérité mais l'émancipation del'homme, c'est-à-dire celle qui consiste à « se débarrasser des illusions et desidéologies, pour faire la vérité sur soi et sur les autres ». À ce sujet ,Jean-Paul Resweber rappelle que Jürgen Habermas substitue à la notion dediscipline celle de « rationalité », entendue au sens où « chaque discipline sedéfinit moins par l'arsenal convenu du champ, du principe ou du paradigme, ducadre et des concepts, que par les logiques rationnelles qu'elles mettent enœuvre et par les intérêts que ces logiques mobilisent ». Ainsi voit-on desrationalités multiples (communicationnelles, discursives, rhétoriques ,philosophiques, mathématiques, politiques et/ou artistiques) s'exprimer et dontle croisement compose une interdisciplinarité qui a pour finalité de « créer unmilieu où elles peuvent être confrontées entre elles et soumises à uneinterprétation qui les redéfinit en fonction des intérêts humains ». Et Paul Ricœur ? Si ce dernier reprend le projet de Jürgen Habermas, « c'est à la philosophie qu'il confie la fonction d'unificationdes disciplines. D'une façon plus précise, il voit dans l'herméneutique le lieude l'articulation des méthodes et, par conséquent, celui de la résolution duconflit des méthodes ». En outre, « quelles que soient ses conclusions plus oumoins abouties, l'herméneutique vise à dé-substantialiser les catégories, lesconcepts et les représentations, en les situant, non sans les remanier, dans leprojet ouvert d'une anthropologie dont la clef de voûte est la notion desubjectivité et d'intersubjectivité ». Ceci posé, c'est aux lieux où l'interdisciplinarité se manifeste que Jean-PaulResweber s'intéresse. Ceux -ci sont divers et couvrent nombre de domaines del'échange, à commencer par le langage. On y trouve les médias, l'enseignement ,la recherche, l'expertise, la littérature. .. Dans tous ces lieux, et sans quepour autant le philosophe la pose de la sorte, la question du pouvoir est àl' œuvre. Du reste, pour Jean-Paul Resweber, cette dimension – pourtant centrale– n'est qu'effleurée par Patrick Charaudeau; ce qui manque à la démonstrationqu'il a mise en partage. Aussi le philosophe liste -t-il nombre de pointsrelatifs à celle -ci : « Le champ disciplinaire est labouré par les pouvoirsscientifiques, économiques et politiques. C'est un ensemble de pouvoirs qui faitla discipline : sociétés de discours, découpage des thèmes et des problèmes ,sacralisation des références et culte des grands auteurs, incursion du politiqueet de l'économie dans la définition des programmes, dans la planification de larecherche, dans l'agrément des laboratoires de recherche, dans la reconnaissanceet l'habilitation des diplômes, dans la valorisation professionnelle decertaines disciplines au détriment d'autres et surtout, de nos jours, dansl'institution de normes d'évaluation qui se justifient moins par l'efficacitéqu'elles garantissent que par la rhétorique de la performance qui leslégitime ». Ces marques du pouvoir, on les connaît; elles font partie du quotidien de larecherche et cadrent les pratiques scientifiques. Jean-Paul Resweber expliquemême qu'elles sont présentes dans les injonctions à l'interdisciplinarité qui« proviennent le plus souvent des pouvoirs administratifs et économiques ,relayés par les pouvoirs politiques ». Effectivement, quels sont aujourd'hui lescommanditaires de programmes de recherche qui oseraient faire l'impasse sur lepostulat d'interdisciplinarité ? On ne peut qu'en faire le constat : cetteobligation participe de l'ordinaire de la recherche. Si bien que, par un effetboomerang dû au caractère systématisant de la pratique, elle peut aussi conduireà une forme de « disciplinarisation » … de l'interdisciplinarité. Un risque queperçoit Laurent Vidal et contre lequel il propose d'adopter la position défenduepar Jacques Hamel (2005 : 111) qui envisage l'interdisciplinarité comme « unmariage de raison qui renvoie à l'intérêt et à la volonté de considérer lesconnaissances issues d'autres disciplines dans l'intention de mieux cerner et demieux éclairer son objet propre et, de ce fait, d'en produire une connaissanceplus précise ». En effet, selon Laurent Vidal, il est important de « garder son identité », unconseil qu'il formule dans la partie conclusive de son propos et qui le conduit ,à l'instar de Sylvie Fainzang (2003), à plaider « non pas tant pour la pluri - oul'interdisciplinarité que pour ce qu'elle nomme la « co-disciplinarité » » .Toutefois, pour que la démarche puisse être réalisable, deux conditions sont àrespecter : faire en sorte que l'éloignement entre disciplines soit mesuré, ladistance pouvant empêcher la compréhension des réflexes disciplinaires desautres chercheurs; encourager des moments d'explication pour lever toutemésinterprétation, lever des préventions ou a priori .L'anthropologue en livre un exemple issu de sa pratique : « Face à ces acteurs de la santé, l'anthropologue doit toutd'abord expliquer sa démarche. Les questions qui mobilisent son attentionpeuvent intriguer : je mentionnerai l'étonnement de certains professionnels desanté qui attendent de l'anthropologue plus une étude sur les recours à lamédecine traditionnelle ou les représentations de la maladie de leurs patientsqu'une étude portant sur leurs pratiques à eux, soignants ». Et si tout cela n'était qu'artifice ou affaire de circonstances ? C'est ce quesuggère Jérôme Bourdon lorsqu'il émet l'idée selon laquelle « les dynamiquessociales, institutionnelles (et personnelles, de surcroît [… ]) nous forcent àdes affiliations disciplinaires qui peuvent être vécues comme profondes, maisqui demeurent largement artificielles ». D'après ce chercheur, la promotion del'interdisciplinarité peut « participer […] d'un effort commun pour créer unrapport de forces favorables à l'émergence d'un objet, parfois le temps del'obtention d'un contrat de recherche ou d'édition, parfois un peu plusdurablement ». Une façon d'envisager l'interdisciplinarité qui correspond àl'idée qu'il avançait en préambule à sa démonstration et qui consistait à posercomme improbable une définition claire et stabilisée de la notion de discipline .En dépit de cette réserve, Jérôme Bourdon se risque pourtant à avancer despropositions. Une discipline serait structurée selon des caractères conceptuels ,territoriaux et méthodologiques, d'une part, matériels et sociaux, d'autre part ,individuels et psychologiques enfin, c'est-à-dire en lien avec « un attachementprimitif qui seul donne du plaisir (le discours m'importe, la statistiquem'importe, l'inconscient m'importe) qui travaille des individus et crée desattachements durables ». Malgré tout, si ce chercheur parvient à dessiner à grands traits ce que seraitune discipline, il peine à identifier les caractères les plus saillants del'interdiscipline. Aussi se veut-il provocateur : « Cherchons […] à prendrel'interdisciplinarité par un autre bout. Malgré le scepticisme de l'auteur ,n'a -t-elle pas connu des réussites éclatantes ? ». Et de regarder du côté dehautes figures dont les travaux sont fondés sur des rencontres entre disciplinescomme Michel Foucault, Claude Lévi-Strauss ou Roland Barthes… pour aboutir à uneimpasse. Par exemple, concernant Michel Foucault, Jérôme Bourdon considère qu'ilest ironique de le qualifier d'interdisciplinaire, lui qui transcende lesdisciplines (en l'occurrence la philosophie et l'histoire) plus qu'il ne lescroise. Impasse aussi du côté de chercheurs comme Paul Ricœur ou Roger Chartierqui convoquent nombre de disciplines tout en revenant à la leur, la philosophieou l'histoire. D'où un changement de cap avec cette question : « À défaut d'une « grande »définition de l'interdisciplinarité, qui suppose une « grande » définition desdisciplines qui se rencontreraient et se fertiliseraient mutuellement, peut-onse rabattre sur une définition modeste ? ». Là encore, il explique qu'il tientcette conception pour illusoire et s'en explique en convoquant un exemple quilui est familier : la télévision. Revenons sur quelques points de sadémonstration. Jérôme Bourdon explique que, dans un cadre collaboratif autour decet objet, l'historien procèdera à une analyse à large portée des archivesconcernant les hommes, les institutions, les programmes, les courriers, lacritique… Le sémiologue s'attachera aux contenus… Le sociologue procédera à desinterviews pour comprendre un fonctionnement, des règles, des usages… Le bilanest sans appel. Le profit tiré de cette collaboration est insatisfaisant : « Je crains d'abord que les dialogues ne soient très limités, ànouveau. […] Il y a des dialogues possibles, mais ils sont fragiles et trèsinégalement répartis. La sémiologie dure est condamnée, par une languespécifique, à s'isoler (ce qui fait aussi, à un autre point de vue, sa force) .Le sociologue et l'historien dialogueront peut-être plus facilement, mais trèsvite ils rencontreront, eux aussi, leurs limites. Plus profondément, onretrouvera là les problèmes de l'intra-disciplinarité qui sont, aujourd'hui ,tout aussi cruciaux, et montrent la tendance des sciences sociales à se diviserà l'infini, à l'abri de pavillons officiels qui abritent des marchandises deplus en plus diverses ». Pour Jérôme Bourdon – qui titre sa contribution « L'interdisciplinarité n'existepas » –, le mélange entre disciplines est l'affaire de chacun sans que pourautant il soit nécessaire, comme le prône Patrick Charaudeau de passer par unplaidoyer en sa faveur. Ainsi donne -t-il l'exemple des travaux d'Annette Kuhn( 2008) qui ont trait aux « souvenirs de spectateurs de cinéma anglaisd'avant-guerre pour comprendre la place du cinéma dans la vie quotidienne del'époque ». Partant de là, il démontre que la combinaison de perspectives –historiennes et sociologiques – adoptée par la chercheuse n'équivaut pas à unedémarche interdisciplinaire. C'est « de la bonne histoire et de la bonnesociologie qui pratiquent tout simplement une diversité de méthodes, plusprécisément de deux méthodes seulement, mais combinées de façon cohérente etsystématique ». En cela, la posture critique de Jérôme Bourdon est proche decelle de ses deux collègues qui, sans récuser la position de Patrick Charaudeau ,mettent néanmoins à distance les postulats que ce dernier défend. Pour Jean-PaulResweber, la mise à distance résulte d'une prise en compte des enjeuxépistémologiques de l'interdisciplinarité dont il a montré qu'ils ne sont passeulement théoriques. Pour Laurent Vidal, elle est le fruit d'un exposé réflexifsur le « faire » disciplinaire, ici l'anthropologie. Finalement, une question manque aux « Échanges » publiés dans les deux livraisonsde Questions de communication, celle abordant l'ailleursgéographique des recherches dans le secteur de l'information-communication. Or ,un dossier publié dans la revue canadienne Revueinternationale. Communication sociale et publique vient à point nommépour combler ce déficit, principalement deux contributions qui traitent desrapports entre communication et discipline dans les pays anglo-saxons. Lapremière, rédigée par Oumar Kane, professeur au département de communicationsociale et publique de l'université du Québec à Montréal, expose les attendus dela disciplinarisation de la communication, qu'il décrit comme étant unequasi-discipline. « Malgré son inscription dans une discipline différente (lascience politique), l' œuvre fondatrice d'Harold Innis a pu orienter une certaineforme d'institutionnalisation de la communication comme champd'étude au Canada davantage qu'aux États-Unis. Ce processus a suivi desvoies notablement différentes pour ce qui est des sciences del'information et de la communication (sic) françaises. Alors qu'enFrance l'institutionnalisation sociale a précédé et tiré rétrospectivementl'institutionnalisation épistémique (Boure, 2005), aux États-Unis la proximitéde la discipline avec la rhétorique et la culture institutionnelle américaineexpliquent la position centrale des départements plutôt que de l' État (Winkin ,2005) dans la structuration disciplinaire » (Kane, 2010 : 88). La comparaison entre la situation de la communication en France et celle dans lespays anglo-saxons est éclairante : elle montre la singularité du cas hexagonalet prouve l'ancrage culturel du débat ici initié. En effet, sil'interdisciplinarité est au fondement du caractère identitaire des sic enFrance, en Amérique du Nord, le domaine est désigné comme étant un champ derecherche. Quoi qu'il en soit, l'institutionnalisation de ce champ n'est passans poser problème, ce que souligne aussi François Cooren, professeur àl'université de Montréal. Ainsi annonce -t-il : « Les études en communication, c'est ma conviction, devraient àla fois se concentrer sur des objets communicationnels( le ou les foyer(s), donc) tout en développant desapproches originales (des prismes, donc) qui puissent les singulariser enregard d'autres disciplines plus établies, comme l'anthropologie, la sociologieou la psychologie » (Cooren, 2010 : 103-104). Faisant largement référence à un article fondateur sur ces questions (Craig ,2009), François Cooren enjoint à unifier autant les travaux se reconnaissantsous le mot pavillon de communication que les chercheurs concernés. Et làencore, à l'image de ce que les chercheurs français peuvent connaître, destensions peuvent se faire jour; elles sont autant internes (au sein d'un groupeparticulier) qu'externes, la question de l'ancienneté de certaines disciplinespouvant se manifester : « Il faut donc – et, d'une certaine manière, la spécificité denotre discipline en dépendrait – partir des phénomènes communicationnels pourcomprendre et expliquer le monde dans lequel nous vivons (que ce monde soitappréhendé dans ses dimensions psychologiques, sociales, économiques ,politiques, voire même biologiques), au risque sinon de se faire phagocyter pard'autres disciplines historiquement et institutionnellement plus établies » (ibid. : 105). Quelle leçon tirer de cette brève mise en regard ? En France, cela fait désormaisune quarantaine d'années que les interrogations actuellement à l'ordre du jouren Amérique du Nord se sont exprimées et ont donné forme à la discipline quesont les sic (Boure, 2006, 2007, 2008). Pour autant, peut-on dire que lesrecherches conduites en France à l'aune de cette discipline sont unifiées ?Indéniablement, non, chaque sous-champ de celle -ci pouvant lui -même se présenterselon des traits proches de ce qui constitue une discipline. Et le faitd'invoquer régulièrement l'interdisciplinarité comme élément d'unification n'estpas à même d'y parvenir. Ainsi l'interdisciplinarité ne peut-elle se contenterde fonctionner comme un slogan dont des esprits chagrins pourraient suspecterqu'il ne soit prononcé que pour masquer une certaine vacuité conceptuelle et/ouune forme de bricolage méthodologique. Un défi à relever…internationalement ?
Prolongeant le débat engagé dans la livraison précédente, Jérôme Bourdon, historien et chercheur en sciences de l'information et de la communication, Jean-Paul Resweber, philosophe, et Laurent Vidal, anthropologue, discutent le point de vue que défend Patrick Charaudeau (2010) sur l'interdisciplinarité. Deux idées principales ― largement étayées par chacun ― ressortent des contributions: la science est le résultat d'une maturation des idées, méthodes et théories, ce qui conduit à formuler l'hypothèse selon laquelle l'interdisciplinarité est au fondement même de la naissance des disciplines; elle est aussi au cœur d'enjeux qui ne sont pas seulement scientifiques.
sciencesInfo_13-0090592_tei_1003.xml
termith-347-communication
EN FRANCE, LE CHERCHEUR D'INFORMATION « pour et sur l'éducation » est confronté soit au thésaurus MOTBIS, utilisé par les centres de documentation et d'information (CDI) des lycées et collèges et par le réseau SCEREN-CNDP 1, soit au répertoire RAMEAU 2, utilisé notamment par la Bibliothèque nationale de France (BnF) et les bibliothèques universitaires, soit à ces deux vocabulaires à la fois, comme dans les instituts universitaires de formation des maîtres (IUFM). C'est pourquoi il est apparu nécessaire d'élaborer une interface de recherche (un système d'équivalences) permettant d'accéder harmonieusement aux deux langages : l'outil de recherche projeté doit permettre à un utilisateur de trouver de l'information documentaire pertinente, que celle -ci soit indexée à l'aide de MOTBIS ou de RAMEAU. Si l'on envisage la question d'une façon un peu plus générale et que l'on se place dans la perspective d'interroger des banques de données anglophones et francophones, il ne faut pas oublier de prendre en compte le thésaurus multilingue de l'ONU (UNBIS), celui de l'Unesco, le Thésaurus européen de l'éducation (TEE) et le Thésaurus européen multilingue de l'environnement (GEMET) et cela, au moins dans un premier temps, dans leurs versions anglophone (anglo-américaine) et francophone. Face à cette multiplicité de systèmes d'indexation, l'on ne peut pas se limiter à des procédures de « réindexation physique » entre deux d'entre eux (RAMEAU et MOTBIS, par exemple) et donc à une approche de compatibilité descendante (et appauvrissante). Il semble nécessaire d'envisager un système d'équivalences conceptuelles entre les représentations de concepts présentes dans chacun de ces langages contrôlés, sans passer obligatoirement par une phase de modification de l'indexation initiale. Le schéma classique d'utilisation des langages documentaires, outils uniques pour l'indexation et la recherche des références pertinentes, montre ainsi ses limites : il y a en effet une apparente contradiction entre la nécessité d'élaborer des langages documentaires utilisés par le plus grand nombre possible de centres de documentation pour échanger des références documentaires, et les besoins particuliers de catégories d'utilisateurs spécifiques. Cette contradiction peut être surmontée si l'on accepte de différencier la notion de langage d'indexation de celle d'interface d'interrogation. Il est nécessaire que ces interfaces soient élaborées en cohérence avec les langages d'indexation préexistants et il serait souhaitable que les représentations de concepts apparaissant dans ces derniers ne présentent aucune ambiguïté. Enfin il serait également très souhaitable que cette réflexion ne se limite pas à la seule recherche documentaire stricto sensu, mais soit étendue aux spécificités inhérentes à la recherche d'information en texte intégral dans des bases de données multilingues. Ce qui pose des problèmes de repérage de l'information pertinente de plus en plus cruciaux et de toute évidence encore moins bien maîtrisés par les utilisateurs non expérimentés. Si l'on se limite aux seuls langages documentaires actuellement utilisés dans des bases de données bibliographiques d'établissements scolaires français ou dans des banques de données sur cédérom largement diffusées en France, on peut recenser, outre RAMEAU et MOTBIS, le thésaurus THEA pour les bases de données documentaires des établissements d'enseignement agricole (aujourd'hui appelé Thésagri, ce thésaurus est maintenant totalement compatible avec MOTBIS 2006), ainsi que les listes de descripteurs spécifiques aux banques de données bibliographiques FRANCIS et PASCAL de l'INIST 3. Cette situation pose un réel problème de repérage de l'information pertinente dans la mesure où le même concept va être représenté, selon les cas, par des descripteurs (ou par des éléments de vedettes matière dans le cas de RAMEAU) hétérogènes. Ce problème avait été mis en évidence dans des articles publiés en 1997 et 1998 par Jacques Maniez et par Danièle Dégez 4 et méritait d' être pris en compte dans des interfaces visant à aider les utilisateurs dans leurs recherches. Le changement d'intitulé de la norme ANSI/NISO Z39.19 entre sa version de 2003 (Guidelines for the construction, format and management of monolingual thesauri) et l'actuelle version publiée en 2005 (Guidelines for the construction, format and management of monolingual controlled vocabularies) n'est certainement pas du domaine de l'anecdote et doit être replacé dans le contexte plus général de l'évolution des langages et nomenclatures documentaires depuis le milieu des années soixante-dix et surtout depuis le début des années deux mille au triple niveau nord-américain, français et international 5. Il convient en effet de noter que, dans ce domaine et depuis plus d'un siècle, les nouveautés sont d'abord apparues dans le monde anglo-saxon, particulièrement nord-américain, avant d' être reprises en Europe et codifiées sur le plan français (AFNOR) et international (ISO) : ainsi, pour ce qui est des langages documentaires précoordonnés, la Classification décimale de Dewey précède de plus de vingt-cinq ans la Classification décimale universelle, et les Library of Congress Subjects Headings (LCSH) apparaissent plus de soixante ans avant l'adoption par la Bibliothèque publique d'information (BPI) de leur version québécoise (le RVM Laval 6, lui même apparu dans les années quarante). En ce qui concerne les langages documentaires postcoordonnés, nous assistons à un phénomène comparable : le premier thésaurus apparaît aux États-Unis à la fin des années cinquante, et les thésaurus monolingues sont codifiés, tant sur le plan américain (ANSI/NISO) que sur les plans international (ISO) et français (AFNOR), au début des années soixante-dix (1974 pour la première édition de Z39.19). Notons également que, si la normalisation en ce domaine n'évolue guère depuis les années quatre-vingt au sein de l'ISO et de l'AFNOR, elle continue à évoluer bien plus régulièrement aux États-Unis puisque la procédure actuelle de révision de la norme ANSI/NISO est la seconde effectuée depuis le début des années deux mille. Cela n'est pas sans conséquences : devant les limites actuelles de la normalisation française et internationale en matière de thésaurus, les consultants français font constamment référence aux évolutions récentes de la normalisation américaine… Les thésaurus eux -mêmes ont certes été les langages documentaires dominants dans le contexte de l'informatisation massive des centres de documentation et des bibliothèques (années quatre-vingt dans le meilleur des cas en France, près de vingt ans après celle de la Library of Congress). Mais ils n'ont pas pris, du moins dans le secteur de l' Éducation nationale, la place des grandes listes nationales d'autorités matière (LCSH, RVM, RAMEAU, etc.) qui gardent par ailleurs une place prépondérante (à coté des classifications décimales !) dans les échanges nationaux et internationaux de données bibliographiques 7 et dans le « web invisible ». Sur le plan d'Internet lui -même, et particulièrement en ce qui concerne les systèmes de méthadones et le web sémantique, les thésaurus se trouvent de plus en plus confrontés à (ou concurrencés par ?) d'autres outils d'organisation et de représentation des connaissances tels que les ontologies. D'un point de vue plus général, les thésaurus sont peut-être victimes à la fois : des contraintes de la normalisation les concernant : aspect très contraignant et d'une certaine façon un peu réducteur, parfois, des possibilités de hiérarchisation des concepts/notions; stricte limitation de l'utilisation des descripteurs à la représentation des notions constitutives d'un « sujet » (à l'exclusion de tout autre contexte d'utilisation); des préventions souvent exercées à l'encontre de la polyhiérarchie (pourtant explicitement prévue par la normalisation existante); mais aussi de certaines limites actuelles d'une normalisation (AFNOR, ISO) qui remonte aujourd'hui à vingt ou vingt-cinq ans. Et, plus généralement, il convient de se demander si le schéma de base qui depuis plus d'un siècle sous-tend la notion même de langage documentaire – le même outil pour l'ensemble des indexeurs utilisant le même système d'indexation documentaire et pour les utilisateurs de bases de données, bibliographiques ou autres, recherchant l'information la plus pertinente sur le sujet qui les préoccupe à un moment donné – est aujourd'hui, face à l'hétérogénéité des ressources immédiatement accessibles et à celle des savoirs et des savoir-faire des utilisateurs concernés, encore véritablement efficace. S'il convient, comme indiqué précédemment, de bien différencier compatibilité et interopérabilité, il est tout aussi nécessaire de bien noter que des dispositifs d'interopérabilité ont été mis en œuvre avant que le terme ne soit employé et mis en exergue : l'ISBD, les formats UNIMARC (données bibliographiques et autorités) et ISO 2709, le modèle OSI, TCP-IP, Z39.50, etc., en donnent des illustrations dans divers domaines. Si cette notion d'interopérabilité est actuellement au centre des réflexions relatives à l'évolution et à la normalisation des vocabulaires contrôlés (dans la future norme britannique relative à ceux -ci, elle devrait constituer à elle seule une partie d'une cinquantaine de pages), il faut la replacer dans un contexte plus large de la gestion de l'information numérisée : à ce titre, il est intéressant de ce reporter au Référentiel général d'interopérabilité (RGI) publié par le ministère du Budget et de la Réforme de l' État en 2005 8. Il pourra également être intéressant de se reporter au document du ministère des Services gouvernementaux du Québec intitulé Cadre commun d'interopérabilité 9. La notion d'interopérabilité est une notion relativement émergente en France. Bien que le terme interopérabilité apparaisse souvent dans des documents en français accessibles sur Internet, il est loin d' être aussi communément usité que son équivalent anglophone interoperability : une recherche effectuée sur Google le 31 décembre 2006 sur le terme interopérabilité et sur son équivalent anglais donne respectivement 1.310.000 pages en français (dont 1.070.000 « Pages : France ») pour le premier contre 17.900.000 pages pour le second. De la même façon, si l'on consulte les dictionnaires du Conseil international de la langue française (CILF) 10, on ne trouve pas le terme recherché alors que la consultation du Grand Dictionnaire terminologique 11 nous apporte un résultat positif comportant l'équivalence indiquée et la définition suivante : « Capacité que possèdent des systèmes informatiques hétérogènes à fonctionner conjointement, grâce à l'utilisation de langages et de protocoles communs, et à donner accès à leurs ressources de façon réciproque. Notes : L'interopérabilité implique qu'un programme tournant sur un système ouvert fonctionnera également sur un autre système. L'interopérabilité a besoin de plus qu'une bonne connectivité technique puisqu'elle nécessite l'utilisation d'éléments comme des interfaces de programmation et des formats de données standardisés. L'interopérabilité définie ici est l'interopérabilité technique, mais il en existe d'autres types dont l'interopérabilité sémantique qui est associée à un mode de description de l'information contenue dans une base de données (cette description forme les métadonnées) ». De même, si l'on effectue dans la base de notices d'autorités RAMEAU de la BnF une recherche portant sur « Vedette matière RAMEAU contient interopérabilité », on obtient pour seul et unique résultat la construction « Interconnexion de réseaux (télécommunications) » qui pointe vers 16 notices bibliographiques de la base BN-OPALE+ dont une seule comporte le terme « interopérabilité » dans les mots du titre. Par contre une recherche formulée « Titre contient interopérabilité » le 31 décembre 2006 permet de trouver 14 références, toutes publiées depuis 1994 (à l'exception de deux publiées respectivement en 1988 et 1989). Une recherche également opérée le 31 décembre 2006 dans le SUDOC 12 sur « interopérabilité » ou « inter-opérabilité » dans le titre donne 45 résultats : parmi les références trouvées, 38, soit plus de 80 % de l'ensemble, ont été publiées ces dix dernières années (depuis 1996) et seulement deux sont antérieures à 1990 (respectivement 1988 et 1989). En fait, par delà l'interopérabilité des systèmes informatiques (ou interopérabilité technique), définie dans les années quatre-vingt par le modèle OSI et les divers protocoles de réseaux d'ordinateurs (protocole TCP-IP, protocole http, etc.), les préoccupations actuelles concernent de plus en plus l'interopérabilité des données elles -mêmes et c'est dans ce cadre que se place la problématique de l'interopérabilité terminologique. Depuis le début de la décennie deux mille, plusieurs documents, essentiellement d'origine anglo-saxonne, ont mis l'accent sur l'intérêt et l'importance de l'interopérabilité en ce domaine. En premier lieu, plusieurs interventions relatives à ce sujet lors des 67e, 68e et 69e conférences générales de l'IFLA 13 (2001-2003). • Amélioration de l'interopérabilité des systèmes grâce à Z39.50 : profils Z39.50 et bancs d'essai pour des développements en bibliothèques, par William E. Moen (2001) 14. Cette intervention d'un membre de l' École de bibliothéconomie et de sciences de l'information de l'Université du Nord Texas met l'accent, dès son introduction, sur les objectifs d'interopérabilité recherchés par le protocole ANSI-NISO défini « au début des années 1980 » et sur les améliorations qui lui ont été apportées à la fin des années quatre-vingt-dix (profils Z39-50). Elle présente ensuite les caractéristiques et les apports du « profil de Bath » publié en 2001 pour améliorer l'interopérabilité en ce domaine. Dans le cas de ce premier document, il convient donc de préciser que l'interopérabilité recherchée ne se limite pas à l'interopérabilité terminologique sur des indexats de natures et d'origines différentes, mais concerne des ensembles de notices bibliographiques dans des formats MARC hétérogènes. Cependant cette situation va se retrouver dans une bonne partie des cas dans lesquels des systèmes d'interopérabilité terminologique sont susceptibles d' être mis en œuvre. • Interopérabilité des accès matière : conclusions du projet HILT (High Level Thesaurus), par Dennis Nicholson (2002) 15. Cette contribution d'un membre du Centre pour la recherche informatisée en bibliothèque de la Strathclyde University de Glasgow présente les différentes phases du projet cité dans le titre et le prototype d' « interopérabilité des accès matière » TeRM (Terminologies Route Map ou navigateur terminologique) mis en œuvre à cette occasion en 2001-2002 sur LCSH et les thésaurus de l'Unesco et de l'AAT dans une approche Z39.50. • La réalisation de l'interopérabilité entre vocabulaires d'accès matière et systèmes d'organisation de la connaissance : une analyse méthodologique, par Lois Mai Chan et Marcia Lei Zeng (2002) 16. Cette contribution de deux membres de l' École de bibliothéconomie et de sciences de l'information de l'Université du Kentucky aborde le problème indiqué dans le titre dans le cadre de « l'environnement hétérogène de la recherche documentaire sur le Web [… ], du besoin d'interopérabilité entre […] différents vocabulaires et classifications mais aussi différentes langues » et dresse un panorama des méthodes employées pour réaliser l'interopérabilité. • Schémas de métadonnées pour les répertoires par sujet, par Lynne C. Howarth (2003) 17. L'auteur de cette communication, membre de la Faculté d'études de l'information de l'Université de Toronto, présente dans un premier temps les différents types de sujets définissables avant d'étudier les différentes structures de métadonnées applicables à ces divers sujets et d'étudier les moyens d'améliorer les dispositifs actuels, parmi lesquels il place l'interopérabilité en toute première préoccupation : « La nécessité d'améliorer les protocoles de métadonnées inter-domaines et les passerelles pour supporter l'échange des enregistrements ira grandissant; les standards de métadonnées supportant l'interopérabilité aux niveaux technique, sémantique, organisationnel, inter-communauté et international peuvent nécessiter d' être développés ou améliorés. » En deuxième lieu, la parution de la première édition de la norme ISO 16642 : Applications informatiques en terminologie – Plate-forme pour le balisage de terminologies informatisées 18 (août 2003). L'introduction de cette norme définit un méta-modèle de plate-forme informatisée fondé sur « une approche intégrée » utilisable « aussi bien dans l'analyse de nomenclatures terminologiques, existantes que dans la détermination de nouvelles » et inscrit délibérément cette approche dans l'optique de formats SGML (ISO 8879 de 1986) et de XML, (W3C). Elle indique également qu'une implémentation spécifique du méta-modèle terminologique exprimée en XML est appelée TML (Terminological Markup Language). Par ailleurs le point 4 de cette norme définit « les principes généraux et le principe d'interopérabilité » applicables à un ensemble de balisages TML. Enfin le changement d'intitulé de la norme américaine ANSI-NISO Z39.19 qui, dans sa dernière édition d'août 2005, comme nous l'avons déjà indiqué, est devenu Guidelines for the construction, format and management of monolingual controlled vocabularies alors que, depuis sa première édition en 1974, elle faisait mention de « monolingual thesauri ». L'une des nouveautés majeures de cette nouvelle édition réside dans le fait qu'elle consacre, dans ses annexes, une quinzaine de pages à la question de l'interopérabilité qu'il convient d'établir entre des vocabulaires contrôlés existants de diverses natures (listes d'autorités matière comme LCSH et RAMEAU, mais aussi thésaurus comme ERIC 19, etc.) et envisage plusieurs dispositifs pour y parvenir. Outre ces documents, d'origine essentiellement anglo-saxonne (nord-américaine et britannique), comme nous venons de le voir, il faut également citer le projet multilingue européen MACS (Multilingual ACcess to Subjects = Accès multilingue par sujet) étudié par la BnF au début de la présente décennie. Ainsi que l'indique la BnF 20, ce projet « a pour but de développer l'accès multilingue par sujet, afin de permettre à l'utilisateur final ou professionnel d'interroger directement, dans sa langue maternelle, le contenu de catalogues étrangers : un utilisateur français pourrait ainsi rechercher, en français, sur le sujet qui l'intéresse, tous les documents signalés par les catalogues de bibliothèques étrangères, même s'ils sont indexés en allemand, en anglais ou en toute autre langue. Actuellement, dans le prototype proposé, l'interrogation par sujet peut se faire, au choix, en anglais, en allemand ou en français, dans les catalogues des quatre bibliothèques nationales partenaires : la Bibliothèque nationale suisse (SNL), la BnF, la British Library, la Deutsche Bibliothek. Mais, tel qu'il a été conçu, ce projet pourrait être étendu à d'autres langues. L'interrogation multilingue a été rendue possible grâce au travail effectué par les gestionnaires des trois langages d'indexation utilisés dans ces bibliothèques : RAMEAU (pour le français), LCSH (pour l'anglais), SWD (pour l'allemand) […] À terme, relier ainsi les langages d'indexation déjà existants par des équivalences devrait permettre d'accéder, via le protocole Z39.50, aux millions d'indexations déjà réalisées avec ces langages. » Sur le plan français, il convient également de citer la contribution intitulée « Accès thématique en bibliothèque numérique : le rôle du langage documentaire de type " thésaurus " », dans l'ouvrage Les bibliothèques numériques dirigé par Fabrice Papy 21. Ce travail, chapitre 8 d'une étude menée sous la direction d'un enseignant-chercheur de l'Université Paris-8, aborde successivement les points suivants : « La problématique de l'accès thématique en bibliothèque numérique »; « Interopérabilité sémantique et langages documentaires »; « Le macrothésaurus en action : application en contexte gouvernemental ». Dans cette troisième partie, l'étude présente et compare les macrothésaurus EUROVOC (Union européenne), TSBGC (Thésaurus des Sujets de Base du Gouvernement du Canada), GILS Topic Tree (États-Unis) et GLL (Government Category List, Grande-Bretagne). Bien qu'il n'ait pas été initialement envisagé dans cette perspective d'interopérabilité multilingue, le projet OTAREN, mené à bien, à titre expérimental, par le SCEREN-CNDP depuis 2004, s'inscrit dans une problématique similaire. OTAREN (Outil Thématique d'Aide à la Recherche pour l' Éducation Nationale) est le prototype exploratoire d'une famille de langages de recherche susceptibles d' être proposés par le CNDP, dans un avenir plus ou moins proche, à diverses catégories d'utilisateurs : il a été conçu en fonction d'un contexte général qui est développé par ailleurs dans le cadre de ce numéro thématique et dont les principaux points sont : la diversification des modes d'accès à l'information sur les ressources accessibles à partir des micro-ordinateurs et ses conséquences en terme de « repérage de l'information pertinente »; l'apport de recherches documentaires portant à la fois sur du langage libre (mots du résumé, mots clés, etc.) et sur du langage contrôlé (descripteurs d'un thésaurus); la problématique de la différenciation entre langages d'indexation et interfaces de recherche. La possibilité, apparue au début des années quatre-vingt-dix sur certains logiciels de recherche documentaire sur micro-ordinateur, d'effectuer des recherches en « plein texte » sur un ensemble de champs (mots du titre, du résumé et de l'indexation, contrôlée ou non…) a mis en évidence trois phénomènes. • Les recherches effectuées uniquement sur une zone d'indexation contrôlée par le langage d'indexation sont toujours productrices de « silence documentaire », même si elles sont généralement très satisfaisantes en terme de lutte contre le « bruit documentaire ». Une bonne connaissance préalable du langage documentaire implanté ainsi que des procédures d'optimisation de la recherche (utilisation de l'autopostage sur le thésaurus) permet d'obtenir de bons résultats sans pour cela approcher l'exhaustivité en terme de pertinence. • Les recherches effectuées en « plein texte » permettent souvent d'exhumer des références documentaires tout à fait pertinentes qui ne pourraient pas être retrouvées par l'intermédiaire du langage documentaire implanté. Par contre, la recherche « plein texte » est à la fois potentiellement productrice de bruit documentaire (recherches portant sur des chaînes de caractères ambiguës) en même temps que d'un silence documentaire parfois extrêmement important. • Les chances d'améliorer les résultats de la recherche sont augmentées si l'utilisateur sait utiliser de façon conjointe l'autopostage descendant (dans le cas d'une recherche thématique avec un thésaurus) et la troncature, tout en restant quelque peu attentif à l'ambiguïté potentielle de certaines chaînes de caractères. Néanmoins, avec la plupart des outils actuels, ce type de recherche correspond fondamentalement à une recherche documentaire de type « expert », qui reste un but à atteindre dans une démarche de formation à la recherche documentaire mais n'est, de toute évidence, pas le cas de la plupart des élèves, au début de leur cursus secondaire tout au moins. • Historique de l'élaboration d'OTAREN 2006 francophone : 15 janvier 2004-28 avril 2006 OTAREN a été élaboré par la Direction des ressources et des technologies (DRT) du SCEREN-CNDP à partir de janvier 2004 sur la base initiale d'une version précédente du thésaurus MOTBIS (version 3.1 de 2001) et de la liste d'identificateurs ID-MEMO (complément à MOTBIS de noms de personnages et de sites maintenu par le CRDP de Poitou-Charentes entre 1992 et 2004). Ceci dans la double perspective de l'élaboration d'une nouvelle version du thésaurus (MOTBIS 2006) et de la compatibilité descendante avec le système d'indexation RAMEAU utilisé pour l'indexation des références bibliographiques dans la plupart des grandes bases bibliographiques françaises actuelles : BN-Opale de la BnF, SUDOC de l'ABES, ELECTRE, etc.). Deux exemples d'équivalences terminologiques présentes dans OTAREN Le premier des exemples présentés ci dessous, l'époque de Louis XIV (qui pourrait également être formulé par « France, 1643-1715 »), est représentatif de choix qui ont permis de passer d'environ 9 650 représentations de concepts et d'entités dans MOTBIS 3.1 et ID-Mémo (un peu plus de 9 000 dans MOTBIS 2006) à un peu moins de 8 000 dans OTAREN. Dans cet exemple, comme dans celui qui suivra, les « Te » (représentations du concept concerné dans d'autres systèmes d'indexation que MOTBIS) apparaissent séparés des « Ep » (représentations du concept concerné dans MOTBIS ou dans le langage naturel). Une fonctionnalité présente dans G3I, la commande « Transformer », permet de fusionner les deux listes sous la dénomination unique de « Te ». Entre crochets on trouvera l'indication du système d'indexation source. époque de Louis XIV : 1643-1715 1130 ‑Te Bordeaux (Gironde) | 1652-1653 (Soulèvement) [<hi rend="bold">RAMEAU</hi>] Colbert, Jean Baptiste (1619-1683) [<hi rend="bold">RAMEAU</hi>] Fouquet, Nicolas (1615-1680) [<hi rend="bold">RAMEAU</hi>] France | 1643-1661 (Régence) [<hi rend="bold">RAMEAU</hi>] France | 1643-1715 (Louis XIV) [<hi rend="bold">RAMEAU</hi>] France | 1648-1653 (Fronde) [<hi rend="bold">RAMEAU</hi>] France | History | Louis XIV, 1643-1715 [<hi rend="bold">LCSH</hi>] ‑La Reynie, Gabriel Nicolas de (1625-1709) [<hi rend="bold">RAMEAU</hi>] Louis XIV (roi de France; 1638-1715) [<hi rend="bold">RAMEAU</hi>] Mazarin, Jules (1602-1661) [<hi rend="bold">RAMEAU</hi>] ‑Vauban, Sébastien Le Prestre (1633-1707; marquis de) [<hi rend="bold">RAMEAU</hi>] Ep cardinal Mazarin Colbert, Jean-Baptiste : 1619-1683 [<hi rend="bold">MOTBIS</hi>] colbertisme cour de Louis XIV époque de Louis XIV Fouquet, Nicolas : 1615-1680 [<hi rend="bold">MOTBIS</hi>] France de Louis XIV Fronde : 1648-1652 [<hi rend="bold">MOTBIS</hi>] La Reynie : 1625-1709 [<hi rend="bold">MOTBIS</hi>] Louis le Grand : 1638-1715 Louis XIV : 1638-1715 [<hi rend="bold">MOTBIS</hi>] Louis XIV, roi de France Mazarin, Jules : 1602-1661 [<hi rend="bold">MOTBIS</hi>] Nicolas de La Reynie Nicolas Fouquet Régence : 1643-1661 régence d'Anne d'Autriche : 1643-1661 règne de Louis XIV règne de Louis XIV : 1643-1715 royaume de Louis XIV sous Louis XIV temps de Louis XIV Vauban : 1633-1707 [<hi rend="bold">MOTBIS</hi>] Tg 17e siècle royaume des Bourbons : 1589-1789 Ts question protestante : 1685-1715 Ta château de Versailles classicisme : 17-18e siècle Grande-Bretagne : 1603-1714 guerre de Trente Ans : 1618-1648 mercantilisme musique de Lully : 1632-1687 musique de Vivaldi : 1678-1741 œuvre de Molière : 1622-1673 œuvre de Madame de Sévigné : 1626-1696 œuvre de Pierre Corneille : 1606-1684 œuvre de Racine : 1639-1699 Id frCNDP-03.09.032323 Pr Oui No NC. périodes et événements Og OTAREN2006 / MB 2007 / Lg fre Mt 944.033 / Ds 29/09/2003 Cr - 03.09.29. Dm 27/03/2006 Dp 29/09/2003 Su - 03.09.29. / PPPBBBPF-03.09.29. / Va Non Am Non Nt 1130 Le deuxième exemple est assez révélateur d'une variété de formulations quelque peu différentes relatives à une notion du domaine éducatif, celle d'outil pédagogique, dans les divers langages consultés. Ces deux exemples, tout comme les quelque 7 976 autres constituant OTAREN, devront, bien évidemment, être évalués en fonction de l'homogénéité conceptuelle des 7 978 « grappes terminologiques » qu'ils proposent, de leur adaptation à tel ou tel public utilisateur (dans l'état actuel des choses, OTAREN représente un prototype généraliste s'adressant essentiellement à un public d'adultes et devra de toute évidence être adapté à des catégories d'utilisateurs plus ciblées) et à divers outils et situations de recherche (bibliographique ou non). L'expérimentation et l'évaluation du prototype d'OTAREN sont prévues dans le courant de l'année civile 2007. outil pédagogique 2105 Te audiovisual aid [<hi rend="bold">TEE-ENG</hi>] Audiovisual aids [<hi rend="bold">UNESCO-ENG</hi>] autoinstructional aid [<hi rend="bold">TEE-ENG</hi>] Auxiliaire audiovisuel [<hi rend="bold">UNESCO-FRE</hi>] Edition scolaire [<hi rend="bold">RAMEAU</hi>] Educational publications [<hi rend="bold">UNESCO-ENG</hi>] Educational publishing [<hi rend="bold">LCSH</hi>] guide de l'enseignant [<hi rend="bold">TEE-FRE</hi>] Livre de l'enseignant [<hi rend="bold">UNESCO-FRE</hi>] matériel autodidactique [<hi rend="bold">MOTBIS 3.1 / TEE-FRE</hi>] Matériel didactique [<hi rend="bold">RAMEAU / UNESCO-FRE</hi>] Matériels didactiques [<hi rend="bold">UNBIS-FRE</hi>] moyen audiovisuel [<hi rend="bold">TEE-FRE</hi>] moyen d'enseignement [<hi rend="bold">TEE-FRE</hi>] Publication educative [<hi rend="bold">UNESCO-FRE</hi>] teacher's guide [<hi rend="bold">TEE-ENG</hi>] teaching aid [<hi rend="bold">TEE-ENG</hi>] Teaching guides [<hi rend="bold">UNESCO-ENG</hi>] Teaching materials [<hi rend="bold">UNBIS-ENG / UNESCO-ENG</hi>] Ep aide audiovisuelle aide didactique autoscopie auxiliaire autodidactique édition pédagogique imprimerie scolaire livre du maître matériel d'enseignement matériel éducatif matériel pédagogique média pédagogique publication scolaire support didactique Tg technique pédagogique Ts didacticiel éducation aux médias jeu éducatif laboratoire de langues manuel scolaire théâtre scolaire TICE Ta BCD CDI. Centre de Documentation et d'Information centre de documentation pédagogique cours : éducation équipement audiovisuel équipement scolaire film documentaire film éducatif instructions pédagogiques méthode audiovisuelle pratique de classe séquence d'enseignement support de diffusion télévision éducative Id frCNDP-02.09.003863 Pr Oui No NC. cas général Og MOTBIS 3.1 / MOTBIS 2006 / Lg fre / Mt 371.3 / Ds 04/01/2002 Cr PPMIHNGF-02.09.17. Dm 09/11/2006 Dp 17/09/2002 Su PPMIHNGF-02.09.17. / PPMPKEOG-05.09.23. / Va Non Am Non Gr IUFM /DRTSJ / Nt 2105 Cette élaboration a été effectuée à l'aide du logiciel G3I (Gestionnaire d'Interfaces d'Indexation et d'Interrogation), outil d'élaboration et de maintenance de langages documentaires « client-serveur » également utilisé pour la maintenance du thésaurus MOTBIS. Dans sa version la plus récente (fin avril 2006), OTAREN comporte 7 989 notions déclarées équivalentes à 59 825 autres termes parmi lesquels 29 804 « constructions » RAMEAU. Le vocabulaire disponible est actuellement essentiellement français, mais des équivalences dans d'autres langues utilisées dans les pays de l'Union européenne (anglais-américain, allemand, espagnol, italien, etc.) sont relativement faciles à établir par l'intermédiaire de RAMEAU (LCSH) et par celui d'outils terminologiques tels que les dictionnaires du Conseil international de la langue française (CILF) ou le Grand Dictionnaire terminologique de l'Office québécois de la langue française. Ces trois mêmes sources (RAMEAU, dictionnaires du CILF, GDT) ont été également utilisées pour établir 1 335 définitions (relatives à 1 335 des 7989 notions du « noyau » d'OTAREN 2006). En ce qui concerne l'aspect « dictionnaire » d'OTAREN, chaque terme préférentiel est susceptible d' être accompagné d'une définition (champ « Définition » de la « fiche terme » dans G3I) précisant la signification du concept retenu dans l'outil de recherche et dans les langages d'indexation (RAMEAU, MOTBIS, etc.) avec lesquels elle est compatible. Toujours à la date du 28 avril 2006, 1 335 des 7989 « termes préférentiels » d'OTAREN 2006 comportent une définition (la plupart du temps issue des notices RAMEAU ou des définitions présentes dans les dictionnaires du CILF, ou plus rarement car plus récemment utilisé du Grand Dictionnaire terminologique). Les définitions actuelles ont été établies à des fins uniquement exploratoires et le développement de ce système de définitions ainsi que son emploi par les utilisateurs finals (élèves des collèges et lycées, par exemple) passent bien entendu par une négociation juridique de la possibilité d'utilisation des sources de définition repérées avec leurs producteurs (BnF, CILF, Office québécois de la langue française) ainsi que par une réflexion sur le bien-fondé de leur utilisation et sur les caractéristiques précises de leur formulation. • Vers un OTAREN bilingue (français-anglais) Une fois les équivalences établies entre OTAREN, d'une part, et les systèmes d'indexation français (RAMEAU et MOTBIS), d'autre part, il semblait logique d'utiliser les liens déjà établis entre RAMEAU et de grands systèmes d'indexation nord-américains (LCSH et, moins fréquemment, MeSH). Dans la même optique, les équivalences ont été également établies avec les systèmes d'indexation multilingue que sont les thésaurus de l'ONU (UNBIS-ENG et UNBIS-FRE) et ceux de l'Unesco (UNESCO-ENG et UNESCO-FRE) : ces systèmes d'indexation présentent en effet de multiples intérêts (émanations d'institutions internationales pérennes, ils proposent des représentations de concepts qui recoupent largement celles présentes dans OTAREN et ils sont facilement accessibles sur le Web). Le travail effectué depuis le début du mois de mai 2006 a actuellement permis (fin décembre 2006 et malgré une interruption consécutive aux congés annuels) d'établir plus de 11 000 équivalences supplémentaires avec les quelque 8 000 notions présentes dans OTAREN. Dans l'état actuel des choses, cela pourrait nous amener, vers la fin de l'année scolaire 2006-2007, à un outil d'interopérabilité de l'ordre de 85 000 termes comprenant environ 8 000 représentations de notions non ambiguës et environ 77 000 équivalents. Le tableau ci-dessous présente, d'un point de vue chronologique et statistique, les grandes étapes de cette élaboration. Principales étapes de l'élaboration d'OTAREN Situation initiale OTAREN 2004 OTAREN 2005 OTAREB Evolution 15/01/2004 30/10/2004 30/10/2005 20/12/2006 2004-2006 Nombre total de termes 15 759 47 016 61 815 80 854 + 65 095 Nombre de termes du 9 651 8 598 8 215 978 - 1 673 « noyau » Nombre de termes de la 6 107 38 410 53 600 68 860 + 66 769 « périphérie » Dont, nombre 16 951 26 347 41 232 + 41 232 d'équivalences RAMEAU-LCSH-UNESCO… Nombre d'associations 4 539 5 341 6 156 6 741 + 2 202 Nombre total de relations 25 043 62 698 82 334 104 135 + 79 092
A partir de l'exemple de l'information “pour et sur l'éducation”, cette dernière étude aborde la délicate question de la compatibilité et de l'interopérabilité des langages documentaires, conditions d'un juste repérage de l'information pertinente dans des sources de plus en plus nombreuses et volumineuses. François Feyler explique ici que, lorsqu'on est confronté à une multiplicité de systèmes d'indexation, il faut envisager un système d'équivalence terminologiques entre les représentations de concepts présentes dans des langages contrôlés, sans passer obligatoirement par une phase de modification de l'indexation initiale. Ce qu'illustre le projet OTAREN développé par le CNDP pour l'Éducation nationale.
sciencesInfo_08-0113842_tei_DOCSI_idPAS_D_ISBN_pu2007-01s_sa16_art16.tei.xml
termith-348-communication
La grande difficulté liée à la conception de systèmes d'information tels que des sites internet tient au fait que, la plupart du temps, les personnes qui les conçoivent et celles qui auront à les utiliser ont des représentations mentales différentes quant à leurs contenus (Zimmerman et Akerelrea, 2002). La difficulté du concepteur à organiser les contenus provient d'un manque de connaissances quant à la manière dont les utilisateurs réels feront usage de l'information (Robertson, 2001). Il est donc nécessaire pour le concepteur de pouvoir disposer de connaissances relatives à la manière dont ses utilisateurs se représentent le domaine dont traite le système à concevoir, de sorte à les prendre en compte dans l'architecture de l'information. Les méthodes du tri de cartes (card sorting) peuvent contribuer à la résolution de ce problème. Ces méthodes consistent à faire trier par des participants des cartes représentant les unités d'information du domaine dont traitera le système d'information, et à analyser les regroupements et distinctions effectués (les tris). Ces méthodes peuvent donc aider les praticiens à comprendre les « modèles mentaux » des utilisateurs et fournir un aperçu de la manière dont les utilisateurs regrouperaient les contenus pour accomplir des tâches communes (Hannah, 2005; Spencer, 2009). La présente contribution, de portée essentiellement méthodologique, entend proposer une présentation des alternatives possibles concernant l'utilisation des épreuves de tri de cartes dans un contexte de conception de systèmes interactifs ou de documents numériques. Notre présentation suivra le déroulement d'une série de tests que nous avons réalisés afin de guider la définition de l'architecture d'information du site web d'un département universitaire 1. Au-delà de l'état de la littérature, l'objectif sera de proposer, au départ de cette expérience empirique, une méthode de recueil, d'analyse et d'interprétation des résultats d'épreuves de tri de cartes située dans le paysage des pratiques existantes, combinant analyses qualitative et quantitative des données recueillies, dans le but de mieux cibler les représentations des usagers. Les méthodes d'analyse de tri de cartes cherchent à mettre en évidence des éléments relatifs aux catégorisations établies par les sujets en tant qu'elles servent d'indicateurs des représentations mentales de ceux -ci à propos du domaine sur lequel porte le tri de cartes. Ces méthodes reposent sur le présupposé qu'une partie importante des connaissances des individus se trouve dans les catégories qu'ils utilisent (Rugg et McGeorge, 2005, p. 94), ainsi que sur l'idée que la manière dont les participants définissent extérieurement des catégories reflète leurs représentations mentales de ces concepts. C'est à ce titre que Bisseret et al. (1999) classent les méthodes de tri dans les techniques permettant de provoquer des observables pour mettre au jour les activités cognitives humaines, en particulier pour éliciter l'organisation des catégories mentales des experts d'un domaine donné. Au-delà de ces présupposés communs, il est nécessaire de parler des méthodes d'analyse de tri de cartes, dans la mesure où ce terme regroupe un ensemble de méthodes, avec des objectifs et des modus operandi particuliers, utilisées dans différents domaines. Ce point vise à cerner les grands types d'usages de ces méthodologies, relevés dans la littérature. En psychologie cognitive, le tri de cartes est utilisé dans différentes batteries de tests 2 visant à évaluer la capacité de sujets (le plus souvent des enfants ou des adultes victimes de dommages cérébraux) à manipuler des catégories mentales, à trier des items suivant un critère défini quand plusieurs clés de tri sont possibles, ou à combiner plusieurs critères incompatibles. Ce sont les capacités cognitives des sujets qui sont ici au centre de l'attention, les résultats de ces tests donnant des indications sur le processus de formation des concepts. En ingénierie de la connaissance et en pédagogie, les méthodes de tri de cartes sont utilisées afin d'objectiver la capacité des individus à structurer un domaine de connaissances donné (McCauley, Murphy, Haller, et Zander, 2005). Dans cette perspective, il s'agit principalement de décrire la complexité des catégories des sujets, souvent en comparant ou distinguant différentes sous-populations (novices vs. experts, hommes vs. femmes, étudiants vs. enseignants, etc.). Le contenu des catégories n'est pas étudié dans cette approche, qui se focalise sur le degré de complexité des tris, ou sur leur similarité. Cet usage du tri de cartes permet également d'évaluer l'évolution de la capacité des sujets à structurer le domaine de connaissances concerné au cours d'un parcours de formation (McCauley et al., 2005). Dans le domaine de la conception des systèmes interactifs et des documents numériques, l'objectif poursuivi par la mise en œuvre d'épreuves de tri de cartes est de renseigner les concepteurs sur la façon dont les futurs usagers du système ou du document structurent mentalement le domaine de connaissance que celui -ci couvrira. En révélant les logiques de catégorisation à l' œuvre chez les sujets interrogés, les tris de cartes doivent aider le concepteur à structurer le système d'une façon cohérente avec la façon dont ces sujets pensent le domaine concerné. Dans un contexte de conception d'interfaces-utilisateurs, ces méthodes peuvent également être utilisées pour identifier les concepts d'activités auxquels se réfèrent les usagers. Sebillotte (1990) les utilise notamment pour améliorer la manière dont les commandes sont désignées dans les interfaces d'appareils domestiques. Dans certains cas, ces méthodologies sont employées dans le but d'objectiver la manière dont les experts d'un domaine structurent leurs connaissances, en vue de proposer des systèmes d'information les plus adaptés possible à ces publics très particuliers (par exemple de la documentation de maintenance). Cette connaissance est supposée être organisée hiérarchiquement et, surtout, l'expert interrogé est supposé connaître tous les items de la hiérarchie. Plus souvent, les systèmes d'information conçus sont destinés au « grand public », comme les sites internet, dont les sujets ne connaissent pas nécessairement les items (ou l'ensemble des items) faisant l'objet de la session de tri de cartes. Dans le cadre de l'étude que nous avons menée et qui est détaillée ci-après, c'est bien à cette seconde catégorie d'usage de ces méthodes que nous nous rattachons : la liste des items était préalablement inconnue des participants (bien qu'ils savaient qu'une partie de cette information existait, et étaient capables de dire à quoi se référaient les intitulés des cartes) qui n'auraient pu générer une hiérarchie d'un domaine de connaissance qu'ils ne maîtrisaient pas préalablement. En fonction du projet de conception particulier dans le cadre duquel elles sont mises en œuvre, les méthodes de tri de cartes seront utilisées pour : mettre en évidence la structure conceptuelle de la connaissance des sujets à propos du domaine d'information sur lequel porte le tri; identifier les catégories pertinentes établies par les sujets; déterminer ce que chaque catégorie signifie pour les sujets, en analysant quels items sont placés dans chaque catégorie; définir les points communs et différences entre sujets dans l'utilisation d'une catégorisation donnée; établir quelle règle prime sur quelle autre dans les catégorisations des sujets. Comme l'a montré Hannah (2005) dans sa méta-analyse des publications relatives aux méthodes de tris de cartes pour la conception de systèmes d'information, bien que largement utilisées et documentées dans de nombreux ouvrages consacrés à la conception ergonomique des sites web (e.g. Boucher, 2007; Brinck, Gergle, et S. D. Wood, 2001; Pearrow, 2006; Van Duyne, Landay, et Hong, 2007), on relève en réalité peu de travaux scientifiques systématiques à leur sujet, l'approche la plus commune dans la littérature scientifique étant celle (évoquée précédemment) de l'ingénierie des connaissances (Deibel, Richard Anderson, et Ruth Anderson, 2005; Fossum et Haller, 2005; McCauley et al., 2005; Rugg et McGeorge, 2005; Sanders et al., 2005). La littérature basée sur l'expérience empirique des praticiens met souvent en avant les avantages pratiques de ces méthodes : elles sont bon marché, rapides, faciles à mettre en œuvre, fiables, évitent de se fier aux seules opinions des utilisateurs et se centrent sur leur comportement (Hannah, 2005). Maurer et Warfel (2004) précisent en outre qu'elles sont utilisées depuis des années et fournissent de bonnes bases à la conception. Gerrard et Dickinson (2005), qui ont utilisé le tri de cartes pour étudier les signaux sociaux communiqués par l'habillement, soulignent qu'il s'agit d'une méthode bien établie, pouvant être utilisée pour étudier les catégorisations d'entités élaborées par les sujets en utilisant leurs propres mots, mais dans un cadre qui permet en même temps une comparaison relativement simple des résultats entre sujets. Martine et Rugg (2005) mettent en avant un avantage semblable dans leur étude visant à mesurer, par cette méthode, la similarité de produits visuels comme des pages web : la méthode est basée sur les perceptions individuelles des répondants et non sur des attributs choisis par le chercheur; elle rend en outre possible l'identification de résultats pour de grands ensembles de répondants sans avoir à coder ou modifier leur réponse originelle. Un avantage supplémentaire de ces méthodes est leur pouvoir de surprise : les catégories utilisées par les sujets pour structurer le domaine couvert par les cartes peuvent se révéler complètement inattendues pour le chercheur (Gerrard et Dickinson, 2005). Symétriquement, Maurer et Warfel (2004) mettent en avant différents désavantages de ces méthodes parmi lesquels l'absence de prise en considération de la tâche de l'utilisateur (pouvant mener celui -ci à classer l'information sur la base de caractéristiques de surface indépendantes de la façon dont il l'utiliserait en contexte), une certaine variabilité dans les résultats, et une analyse pouvant parfois s'avérer chronophage. La méthode que nous allons présenter a été développée à l'occasion d'un travail empirique de réflexion sur la structure à donner au site web d'un département universitaire. Les sessions de tris de cartes ont été organisées dans le cadre d'un travail de révision du site web de ce département, dont la version initiale avait été élaborée plusieurs années auparavant, et par conséquent avait perdu de sa cohérence du fait de l'ajout de contenus dont la place n'avait pas été prévue dans la maquette originale. Le cahier des charges imposait l'élaboration d'un site à destination de publics extérieurs (futurs étudiants, chercheurs, partenaires potentiels…) sur les activités de recherche, d'enseignement et de service menées au sein du département, mais également à destination de publics internes (étudiants inscrits dans le département, personnel) comme outil d'information, de communication interne et de gestion. Le nombre de tris nécessaires pour obtenir des résultats valides fait l'objet d'approches parfois contradictoires. Dans sa vaste revue de la littérature, Hannah, déjà cité, souligne qu'aucun des travaux pris en considération ne mentionne de critère pour déterminer le nombre de participants nécessaires à une telle expérience (Hannah, 2005, p. 56). La détermination du nombre de participants semble le plus souvent empirique. Dans un article sur les méthodes de « free-listing », Sinha (2003) souligne que le nombre de participants nécessaires est très variable dans la mesure où plus il y a de consensus sur un domaine donné, moins il est nécessaire d'avoir recours à un nombre important de sujets pour obtenir des données valides. Des évaluations quantitatives ont cependant été menées. Ainsi, Tullis et Wood (2004) ont constitué un ensemble de 168 tris différents d'une série de cartes donnée, au sein duquel ils ont procédé au tirage aléatoire d'échantillons de 8, 12, 15, 20, 30, 40, 50, 60 et 70 tris (10 échantillons pour chaque taille). Ils ont ensuite comparé la similarité moyenne entre les échantillons et l'ensemble de la population pour chaque taille d'échantillon. Leurs résultats montrent que des échantillons de 20 tris (ou plus) ont une corrélation avec l'ensemble de la population supérieure à 0,92. Ils recommandent donc de mener les tests sur des échantillons de 20 ou 30 sujets. Se basant sur la même étude, Nielsen (2004) recommande, lui, un minimum de 15 sujets pour garantir une corrélation supérieure à 0,9 entre l'échantillon et la population de référence. Dans le cadre de notre étude, des sessions de tris de cartes ont donc été organisées avec 36 sujets, appartenant à trois catégories d'utilisateurs du site définies a priori (des futurs étudiants, des étudiants, des membres du personnel universitaire – académique, scientifique et administratif). Chacune de ces catégories de public comptait 12 sujets. L'objectif initial était de rassembler un échantillon de 15 sujets pour chaque catégorie d'usager, ce qui s'est avéré impossible pour des raisons logistiques. Toutefois, on soulignera, en référence aux recommandations de Sinha, que la probabilité que le consensus soit assez fort au sein de chacune de ces catégories est assez importante, étant donné qu'au sein d'une catégorie donnée, les sujets sont fortement susceptibles, par un certain « formatage institutionnel », d'avoir les mêmes besoins et représentations relativement au département universitaire. Les étudiants et futurs étudiants ont reçu pour leur participation un bon d'achat de livres de 12,5 €. Les membres du personnel ont participé gratuitement à l'expérience. Chaque épreuve de tri a porté sur un jeu de 121 cartes reprenant en titre l'ensemble des informations que le département souhaitait publier sur son site, allant de l'information sur les programmes d'étude aux publications de recherche, en passant par les informations pratiques d'accès au bâtiment du département, ou relatives aux horaires des cours et examens. Le nombre de cartes à traiter par les sujets durant notre expérience est légèrement supérieur à ce qui est généralement proposé dans la littérature (de 30 à 100 cartes, selon Hannah (2005)), même si les jeux de cartes utilisés par divers auteurs comprennent entre 30 et 219 cartes (Martin et Kidwell, 2001; Nielsen et Sano, 1994; Zimmerman et Akerelrea, 2002). Il existe plusieurs façons de définir comment les participants à une épreuve de tri de cartes doivent s'acquitter de leur tâche. On peut ainsi distinguer les tris fermés, dans lesquels les participants doivent répartir les cartes dans des catégories prédéfinies, des tris ouverts, où les participants créent leurs propres regroupements (Fincher et Tenenberg, 2005). Une alternative intermédiaire évoquée par Spencer (2009, p. 52) consiste à imposer le critère de catégorisation (par public, par tâche, par étape d'un processus…) et à laisser les participants définir les catégories correspondantes. Les tris ouverts peuvent être effectués suivant un seul critère de classement, ou suivant plusieurs critères à la fois. Dans le premier cas, les participants sont le plus souvent amenés à trier les mêmes cartes plusieurs fois d'affilée, en utilisant à chaque fois un critère différent, jusqu' à ce qu'ils soient à court de critères (Gerrard et Dickinson, 2005; Martine et Rugg, 2005). On parle alors de tris répétés (ou itératifs), par opposition aux tris uniques. Enfin, les tris peuvent varier quant au nombre de niveaux d'organisation les structurant (Rugg et McGeorge, 2005), les tris les plus simples n'en comportant qu'un seul (les cartes sont réparties en piles), les plus complexes en comportant plusieurs. Le nombre de niveaux d'organisation peut ou non être imposé aux participants. Par ailleurs, les épreuves de tri de cartes peuvent être menées seul ou en groupes. Maurer et Warfel (2004) recommandent ainsi de recourir à de petits groupes (typiquement de 3 personnes) afin que les participants discutent entre eux de leurs classifications, atteignent un consensus concernant celles -ci et rendent les catégorisations problématiques explicites. Spencer (2009, p. 54) note à ce sujet que dans bien des cas, la discussion entre participants est aussi informative que le résultat de la tâche. Robertson (2001) considère quant à lui qu'un minimum de quatre personnes est nécessaire pour générer suffisamment de discussion et de désaccord pour rendre l'échange intéressant, des groupes de plus de huit personnes étant selon lui difficilement gérables. Comme le fait remarquer Tullis (2003), le recours à des tris de groupes rend la technique du tri de cartes similaire à celle de l'élaboration de diagrammes d'affinité (Beyer et Holtzblatt, 1997). Une alternative aux tris de groupes est celle utilisée par Zimmerman et Akerelrea (2002), dont les sujets trient leurs cartes individuellement, puis confrontent leurs tris respectifs afin d'établir un consensus autour d'un tri unifié. Si l'obtention d'un consensus dès le recueil des données peut représenter un gain de temps pour le concepteur cherchant à identifier ou à valider des catégories utilisables dans le site web qu'il développe, elle comporte le désavantage corrélatif de faire perdre aux données la richesse et la variété des représentations des individus (Bisseret et al., 1999). Il existe aujourd'hui sur le marché plusieurs logiciels et applications web qui permettent de mener des sessions de tri de cartes (ouvert ou fermé) informatisées 3. Les caractéristiques des tris que nous avons menés ne nous ont cependant pas permis de recourir à de tels outils (cf. infra). La consigne donnée aux sujets de notre étude était d'effectuer un tri individuel ouvert unique à critères multiples. Il s'agissait pour chacun de trier les 121 cartes suivant le ou les critères de leur choix, et de nommer chacun des regroupements créés, en sachant qu'il n'y avait pas de « bonne » ou « mauvaise » réponse. Les sujets devaient regrouper les cartes en piles (sans restriction quant au nombre de piles), et pouvaient ensuite regrouper les piles en groupes de piles, en ayant recours à autant de niveaux d'organisation qu'ils le souhaitaient (en d'autres mots, une catégorie pouvait en comporter d'autres, plus restreintes). Enfin, ils avaient également la possibilité de dupliquer des cartes s'ils souhaitaient les classer dans des catégories différentes. Certains sujets ont pris l'initiative de ne pas classer certaines cartes. Nous avons pris le parti de poser peu de contraintes à nos sujets concernant la manière d'organiser leurs tris, et d'aménager les techniques d'analyse des données récoltées en conséquence. En effet, les techniques d'explicitation des connaissances telles que le tri de cartes visent à révéler l'organisation mentale des sujets à propos d'un domaine de connaissance donné. Dans ce cadre, il semble opportun de faire en sorte que le mode de représentation externe de cette organisation (les piles de cartes) puisse refléter certaines des propriétés basiques de l'organisation des représentations mentales des sujets. Les individus possèdent des connaissances sur le monde à tous les niveaux d'abstraction (des concepts les plus abstraits aux plus spécifiques) et à toutes les échelles (de la plus large à la plus petite), suivant une organisation qui peut être décrite en termes de réseaux schématiques (Rumelhart et Norman, 1995). L'instruction de trier les cartes en piles avec un seul niveau de distinction ne permet pas de représenter de telles relations entre les items. Nos piles multiniveaux permettent de représenter les relations entre items de l'information générale (« l'enseignement ») à l'information spécifique (« les horaires des cours de master »), et du niveau le plus large (« le département » dans son ensemble) aux unités plus petites (« les groupes de recherche établis au département »), sans devoir poser a priori d'hypothèses concernant le type de structure hiérarchique que les piles représentent (elles peuvent représenter à la fois des distinctions d'échelle et d'abstraction) ou sur combien de niveaux elles s'échelonnent. Upchurch et al. (2001) soulignent qu'il est important de clarifier avec le participant le point de vue adopté par celui -ci pour effectuer le tri, et ce avant de commencer. Nous avons dû ainsi faire preuve de vigilance sur ce point avec les secrétaires du département, qui ont l'habitude d'organiser leur travail en fonction de besoins des étudiants et des professeurs, en insistant sur le fait que leur tri devait refléter la manière dont elles organiseraient les items pour leurs propres besoins, et non en répondant à une demande qui leur serait faite. Enfin, le choix a été fait de ne pas exposer a priori aux sujets l'objet de l'étude à laquelle ils participaient. L'objectif était d'éviter que les sujets ne cherchent à produire ou reproduire une structure de site web, afin de pouvoir centrer le recueil des données sur leurs représentations relatives à l'organisation du domaine, et non sur leurs représentations du site lui -même. Les travaux relevés dans la littérature (Martine et Rugg, 2005; Maurer et Warfel, 2004) proposent, sur cette question de l'information des sujets, des positions contrastées, souvent sans explication précise pour justifier le choix effectué. Les techniques d'analyse mises en œuvre pour traiter des données de tri de cartes dépendent à la fois de l'objectif poursuivi et des caractéristiques du protocole de recueil de données. Deibel, Anderson et Anderson (2005) ont proposé une typologie des méthodes d'analyse de tris de cartes, comportant quatre types d'approches aux objectifs différents : l'approche structurelle, purement quantitative, est centrée sur la forme des tris (nombre et taille des catégories) et ignore les noms des catégories, leur contenu et les critères de regroupement. Elle permet d'évaluer la richesse des classifications propres à un individu (quand on compare les différents tris qu'il a générés) ou la variété des classifications au sein d'un échantillon (Fossum et Haller, 2005; McCauley et al., 2005), l'approche basée sur les items (cartes) évalue à quelle fréquence différentes cartes sont placées dans la même catégorie par plusieurs sujets, l'approche catégorielle repose sur l'examen des noms des catégories structurant une série de tris (sans considérer les cartes placées dans celles -ci), notamment afin d'y identifier les catégories récurrentes, l'approche superordonnée examine les catégories et les critères utilisés dans plusieurs tris, afin d'effectuer des regroupements de tris reposant sur les mêmes logiques de classement. Dans le cadre de l'étude présentée ici, nous avons recouru à une combinaison des approches catégorielles et superordonnées dans le cadre d'analyses qualitatives des données recueillies, et de l'approche basée sur les items, impliquant un traitement quantitatif de celles -ci. Cette combinaison nous a permis d'atteindre notre objectif : explorer la manière dont des sujets correspondant à différents profils d'usagers (approche superordonnée) se représentent le domaine de contenu couvert par le site, c'est-à-dire identifier les catégories structurant ce domaine (approche catégorielle), ainsi que le contenu de ces catégories (approche basée sur les items), afin de guider la création de l'architecture de l'information d'un site internet. Les propriétés des données recueillies ont également eu des conséquences sur les analyses que nous avons menées. Par exemple, nous avons travaillé au départ de tris ouverts, les objectifs de notre étude incluant l'identification des catégories utilisées par les sujets et l'analyse de leur variété. Aussi, l'absence de liste standardisée de catégories commune à tous les sujets (imposée à ceux -ci a priori ou abstraite de leurs tris a posteriori) nous a empêché d'utiliser des outils d'analyse tels que le modèle Excel élaboré par Lamantia (2003), qui permet d'objectiver la distribution des cartes dans une série de catégories déjà identifiées. De même, la possibilité laissée aux participants de placer les cartes dans plusieurs catégories ne nous a pas permis d'utiliser le modèle Excel proposé par Spencer (2009), qui suppose qu'au sein d'un tri donné, chaque carte appartienne à une seule catégorie. Très peu de travaux s'intéressent spécifiquement aux méthodes d'analyse qualitative des données issues des tests de tri de cartes. La dimension qualitative mise en avant dans les documents à visée pratique concerne généralement les regroupements de cartes définis par les sujets ainsi que leurs intitulés, comme données de premier plan pour l'architecture du site lui -même. Les auteurs qui évoquent brièvement la question du mode de traitement de ces données se contentent généralement de souligner la nécessité d'interprétation par un chercheur pour tirer des informations utiles par des méthodes non quantitatives, sans s'attarder sur la manière dont cette action peut être menée systématiquement. Un chercheur, du flair et de la patience, en somme, avec les inconvénients liés au fait de s'en remettre au jugement d'un individu seul. Fincher et Tenenberg (2005) montrent que les méthodes d'analyse sémantique, non automatisables dans le cas de tris ouverts, sont difficiles, voire impossibles, à mener sur un grand nombre de tris et/ou de catégories. C'est d'ailleurs pour cette raison, soulignent ces auteurs, que sont développés des outils de traitement syntaxique automatisés en vue d'aider le chercheur dans cette tâche. L'expérience que nous avons menée prend le contre-pied de cette posture, en n'utilisant pas le traitement quantitatif en premier recours, mais au contraire en le mobilisant pour valider et affiner ce que notre analyse qualitative aura pu mettre en évidence. Dans un premier temps, le résultat du classement des cartes effectué par chaque sujet a donc été analysé séparément. L'objectif de cette première étape était, sujet par sujet, de mettre en évidence la logique générale de classement adoptée par chaque individu, quelle que soit la catégorie de public à laquelle il appartient. Pour ce faire, nous avons considéré les regroupements de cartes effectués par le sujet, la hiérarchie établie entre ces groupes et les intitulés attribués à chaque groupe. Les justifications de ces regroupements fournies par les sujets, lorsqu'elles avaient été formulées, ont également été prises en compte. Cette première étape aboutit à un bref descriptif, pour chaque sujet, de la logique de classement des cartes que celui -ci a adoptée ou choisi de mettre en avant. Dans un deuxième temps, ces logiques individuelles de classement ont été rassemblées et comparées par catégories de publics : futurs étudiants, étudiants et des membres du personnel. L'objectif de cette étape était de relever des logiques communes au sein de chaque catégorie de publics identifiée a priori, l'hypothèse étant que chaque catégorie effectuerait un regroupement spécifique, avec sa logique propre, en fonction de sa représentation des éléments de contenu à classer et de son rapport à ceux -ci. Cette deuxième étape n'a pas permis de révéler une logique homogène propre à chaque catégorie de publics. En revanche, des similarités ont été relevées entre les logiques de classement d'individus appartenant à des catégories de publics différentes. Par exemple, la logique « Institutionnelle » (cf. ci-après) a été adoptée à titre principal par deux membres du personnel académique, un membre du personnel administratif et un étudiant. Les logiques identifiées sont de deux ordres : sur le plan sémantique, les groupes de cartes désignés par des sujets d'une catégorie donnée peuvent suivre une logique qui a également été adoptée par des sujets d'une autre catégorie de public; sur le plan structurel, nous avons observé que la quasi-totalité des sujets, quel que soit leur public d'appartenance, utilisait une logique de classement à (au moins) deux niveaux, faisant appel à des critères de classement différents pour chacun des niveaux. Par exemple, il s'agissait d'abord de regrouper à un niveau principal les cartes en fonction des publics auxquels les informations pouvaient être destinées. Les sujets créaient ensuite, au sein de ces groupes et à un niveau secondaire, des sous-groupes distingués selon une logique différente, par exemple une logique sémantique interne au contenu. Les logiques adoptées à un niveau principal par certains individus pouvaient se retrouver à un niveau secondaire dans le classement effectué par d'autres. Les logiques de classement identifiées lors de cette deuxième étape permettent de définir de nouvelles catégories d'individus au sein desquelles chaque sujet peut être placé. Celles -ci ont été définies de sorte à ce qu'elles soient exclusives – à un niveau de classement donné, chaque sujet ne peut se retrouver en même temps que dans une et une seule catégorie. Les catégories identifiant les logiques de classement au sein de notre échantillon étaient les suivantes : « Par publics » : c'est un classement par type de public concerné en priorité par le contenu des cartes. Cette logique s'observe chez les sujets regroupant les cartes en fonction de « ce qui concerne les étudiants », « ce qui est utile au personnel », etc. « Institutionnelle » : il s'agit de reproduire la logique de l'organisation institutionnelle du département (les niveaux de gestion enseignement et recherche, les unités de recherche, etc.), « Par similarité » : les sujets regroupent les cartes suivant une logique sémantique interne au contenu. Par exemple, ils peuvent regrouper ensemble toutes les cartes mentionnant les horaires, ou les conditions d'admission des programmes d'études, « Temporelle » : les informations sont regroupées suivant une succession temporelle logique. Ce cas de figure a été assez peu observé dans notre échantillon, et concerne des sujets ayant classé les cartes suivant une logique du type : « ce qui est utile avant les études, pendant les études et après les études ». Dans un troisième temps, les catégories identifiées au point précédent ont servi de base à un traitement quantitatif des données recueillies. Celui -ci visait à objectiver la structuration interne des tris élaborés par les sujets appartenant à ces catégories. Là où d'autres études recourant au tri de cartes ont tenté d'articuler des traitements qualitatifs et quantitatifs des données, cette combinaison a le plus souvent consisté en l'utilisation du traitement quantitatif pour identifier des regroupements potentiellement intéressants, pouvant faire l'objet d'une analyse qualitative subséquente (Deibel et al., 2005). Notre approche repose sur l'articulation inverse : elle recourt à l'analyse qualitative afin de délimiter des groupes de tris pouvant faire l'objet d'un traitement quantitatif. Les mesures et techniques statistiques disponibles pour les données de tri de cartes peuvent être réparties en deux catégories, en fonction du fait que l'on cherche à comparer les tris dans leur ensemble, ou la répartition des cartes au sein de ceux -ci. La première catégorie de techniques permet d'identifier les regroupements de cartes récurrents au sein d'une collection de tris, ainsi que leurs contenus. Ces techniques reposent sur le calcul de la similarité entre cartes considérées par paires. La similarité correspond à la fréquence à laquelle deux cartes données sont classées dans la ou les même(s) catégories au sein des tris analysés, et peut être calculée de plusieurs façons, dépendant en partie du protocole de recueil de données. Le plus souvent, elle prend la forme d'une mesure bornée entre 0 (absence de similarité : les deux cartes ne sont jamais présentes dans la même pile) et 1 (similarité maximale : les deux cartes sont toujours classées dans la même pile). Alternativement, pour les besoins de l'analyse statistique (cf. infra), les relations entre cartes peuvent être évaluées en termes de distance, une mesure inversement proportionnelle à celle de similarité. Hudson (2005) suggère de compléter la catégorisation des cartes dans les piles par un score de « qualité d'adéquation » assigné par le participant à chaque carte, afin de décrire à quel point la carte a sa place dans la pile (de raisonnablement = 1 à parfaitement = 3). Ce score peut alors intervenir dans le calcul de la similarité entre cartes. Les scores de similarité calculés pour chaque paire de cartes possible dans la série de cartes triées par les sujets sont réunis dans une matrice de similarité de taille n * n, où n équivaut au nombre de cartes triées. Pour toute paire de cartes [<hi rend="italic">i,j</hi> ], la cellule de la matrice correspondant à la i ème ligne de la j ème colonne contient le score de similarité entre i et j. Le calcul de la similarité est le plus simple dans le cas des tris ne comportant qu'un niveau d'organisation (les sujets répartissent les cartes en piles, sans effectuer plus de regroupements). Pour chaque paire de cartes dans un tri donné, elle correspond alors à une variable dichotomique, prenant pour valeur 1 si les deux cartes ont été placées dans la même pile, et 0 dans le cas inverse. Pour obtenir la matrice de similarité d'une série de tris de ce type, on effectue la moyenne arithmétique des matrices de tris individuels, la valeur de chaque cellule de la matrice finale correspondant à la somme des valeurs des cellules correspondantes dans les matrices des tris individuels, divisée par le nombre de tris. Dans le cas de tris répétés, des matrices intermédiaires, calculant les scores de similarités moyens pour les tris de chaque sujet pris isolément, peuvent être calculées (Martine et Rugg, 2005), afin d'assurer à chaque sujet une pondération équivalente dans la matrice finale (en l'absence de cette étape supplémentaire, les sujets ayant produit plus de tris différents y obtiendraient un poids supérieur aux autres). Dans le cas des tris comptant deux niveaux d'organisation (piles de cartes rassemblées en groupes de piles), Tullis (2003) propose de coder la distance entre cartes de la façon suivante : la distance entre cartes classées dans la même pile est de 0, celle entre cartes présentes dans le même groupe de piles de 1, et celle entre cartes de groupes différents de 2. Cette solution peut être extrapolée aux tris à n niveaux d'organisation, pour autant que n soit équivalent pour tous les tris recueillis. Dans le cas inverse, la distance entre deux cartes appartenant à des groupes du plus haut niveau d'organisation dépendrait du nombre de niveaux structurant le tri. Le traitement quantitatif des données recueillies dans le cadre de notre étude a nécessité un codage des similarités entre cartes plus complexe, étant donné les propriétés des tris produits par nos sujets : nombre de niveaux d'organisation variable d'un tri à l'autre, cartes pouvant être classées à tous les niveaux d'organisation, classement multiple et non-classement de certaines cartes. La solution retenue a été d'utiliser le coefficient de communauté de Jaccard (Capra, 2005; Jaccard, 1912), calculé à partir de la formule suivante : où a correspond au nombre de catégories contenant les deux cartes d'une paire donnée, et b et c correspond au nombre de catégories ne contenant respectivement que la première et que la seconde carte. En bref, il s'agit de calculer la proportion des catégories comprenant les deux cartes (intersection) par rapport à l'ensemble des catégories comprenant une ou les deux cartes (union). Prenons un exemple issu de nos données. Le sujet ETU5 a classé les trois cartes suivantes : Numéros, intitulés et catégories des cartes 12, 50 et 51 telles que classées par ETU5 No Intitulé Catégories (noms donnés par le sujet ) 12 « Collaborations de recherche » 2. « Recherche, assistanat = après les études en restant dans le département » 2.3 « La recherche en général » 50 « Horaire des examens de Master » 3. « Ce qui concerne les étudiants » 3.1. « Informations pour les étudiants » 3.1.1 « Examens » 51 « Horaire des cours de Master » 3. « Ce qui concerne les étudiants » 3.1. « Informations pour les étudiants » 3.1.2 « Horaires de cours » La carte 12 fait partie de deux catégories (2 et 2.3). Les cartes 50 et 51 font partie de trois catégories (3, 3.1, et respectivement 3.1.1 et 3.1.2). La carte 12 n'a aucune catégorie commune avec les cartes 50 et 51, qui partagent deux catégories sur quatre. Si l'on calcule le coefficient de Jaccard pour les paires [12;50] et [50;51 ], on obtient : Matrice de similarité (partielle) pour les cartes 12, 50 et 51 telles que classées par ETU5 Carte 12 Carte 50 Carte 51 Carte 12 1 Carte 50 0 1 Carte 51 0 0,5 1 Ce mode de calcul présente l'avantage d'offrir une mesure bornée entre 0 (similarité minimale) et 1 (similarité maximale), applicable aux tris comportant des catégories emboitées, des cartes classées dans plusieurs catégories, et des cartes non classées. L'utilisation du coefficient de Jaccard pour les données de tri de cartes a été proposée par Capra (2005), dans le cadre du traitement de tris de 70 recommandations en matière d'utilisabilité des interfaces logicielles par huit praticiens du domaine, qui ont généré un total de 77 catégories et sous-catégories pour les classer. Capra a calculé les coefficients de Jaccard sur base de ces 77 catégories prises dans leur ensemble, et non pour chaque tri individuel. Etant donné la variance élevée du nombre de niveaux d'organisation dans les tris que nous avons recueillis (N ∈ [1;9]), nous avons calculé ces mêmes coefficients pour chaque tri individuel, avant de générer des matrices moyennes par groupe de sujets. La solution de Capra aurait été équivalente à accorder un poids supérieur aux sujets ayant établi des classifications aux nombreux niveaux d'organisation dans le calcul des coefficients. Nous avons généré les matrices de similarité des tris individuels à l'aide d'un script PHP écrit pour l'occasion, au départ d'une exportation au format CSV de l'encodage de ces tris dans Excel, mettant en vis-à-vis le numéro et l'intitulé de chaque carte avec le numéro de la catégorie à laquelle elle appartenait (par exemple « 3.1.2 » pour la carte 51 dans le tri d'ETU5 cité précédemment, une telle notation permettant d'extraire de façon automatisée les différentes catégories emboîtées accueillant la carte, soit ici : « 3 », « 3.1 » et « 3.1.2 »). Le même script PHP a également généré les matrices moyennes pour l'ensemble de notre échantillon et pour chacun des trois groupes de sujets recourant à une logique de classement de haut niveau différente, identifiée par l'analyse qualitative des tris : logique institutionnelle, par similarité et par publics 4. Enfin, le script a converti chacune de ces matrices en matrice de distance, en remplaçant la valeur J de chaque cellule par la valeur inverse (1 - J), de sorte que les scores expriment la distance entre cartes, afin de pouvoir faire l'objet d'une analyse de regroupements hiérarchiques (cf. infra). Les matrices de similarité ou de distance peuvent faire l'objet de plusieurs types de traitements, parmi lesquels on peut citer l'échelonnement multidimensionnel (multidimensional scaling), l'analyse des regroupements hiérarchiques (hierarchical cluster analysis), et l'analyse factorielle des correspondances (factor analysis) 5. Ces trois méthodes ont pour objet d'identifier des groupes de cartes caractérisées par une faible distance les séparant dans les données des matrices générées à l'étape précédente. L'échelonnement multidimensionnel a été utilisé par Tullis (2003) dans le cadre du redesign d'un intranet. Cette technique permet de générer une représentation cartographique en deux dimensions reflétant les distances moyennes entre cartes (chaque carte correspondant à un point), de sorte à pouvoir visualiser des groupes de cartes « proches » susceptibles d'apparaître dans la même catégorie du site web en cours de conception. L'analyse des regroupements hiérarchiques est la technique statistique la plus communément utilisée pour traiter des données de tri de cartes. C'est celle à laquelle nous avons recouru pour traiter nos matrices de distances, à l'aide du logiciel SPSS. Cette analyse est dite hiérarchique car elle identifie des groupes de cas sur base de groupes précédemment établis, soit de façon agrégative, soit de façon divisive. Le regroupement agrégatif considère chaque cas (ici, chaque carte) comme son propre groupe, ou cluster, puis regroupe les cas séparés par la plus faible distance en clusters agrégés. Ces clusters sont ensuite progressivement regroupés entre eux suivant le même principe, jusqu' à ne plus former qu'un cluster global. L'approche divisive fonctionne suivant le principe inverse, partant du cluster formé par tous les cas pour le séparer en clusters plus petits en fonction des distances entre cas. Pour le traitement de nos données, nous avons opté pour le regroupement agrégatif avec liaison moyenne entre groupes (average linkage between groups), dans lequel la distance entre clusters utilisée pour effectuer les regroupements à chaque étape du calcul est une distance moyenne calculée sur base de la position des différents cas composant les clusters concernés. L'analyse des regroupements hiérarchiques produit une représentation arborescente de ses résultats appelée dendrogramme (figure 1), figurant l'ordre dans lequel les regroupements de cas ont été opérés. Chaque branche de l'arborescence correspond à un cluster. Les cas sont listés en ordonnée, dans un ordre qui est fonction de leur regroupement. L'axe des abscisses représente la distance entre les cas ou les clusters : plus le point ou se rejoignent deux branches de l'arborescence est distant de l'origine, plus les deux clusters concernés sont distants. L'identification de groupes de cartes distincts sur base d'un dendrogramme nécessite un choix dans le chef de l'analyste, correspondant au seuil de distance entre groupes auquel on décide d'opérer la séparation. Pour déterminer le nombre de clusters séparés par une distance donnée, on trace une droite verticale partant de l'axe des abscisses à la valeur du seuil choisi. Chaque branche du dendrogramme croisant ladite droite correspond alors à un cluster. L'exemple donné par la figure 1 représente un cas intéressant à cet égard, puisqu'il comprend deux branches principales au sein desquelles la séparation des clusters n'est pas également aisée. Dans la branche inférieure, on observe une série d'embranchements de bas niveau (agrégés à une distance inférieure à 7) se rejoignant à un seuil de distance élevé, ce qui correspond à une série de groupes à haute cohésion interne relativement distants les uns des autres. Une droite verticale tracée à une distance de 15 délimiterait ainsi huit groupes de cartes. Dans la branche supérieure, les regroupements s'échelonnent de façon régulière sur toute la longueur de l'axe des abscisses, témoignant d'une situation dans laquelle aucun groupe ne se démarque clairement du reste de l'embranchement. L'analyse factorielle des correspondances (AFC) a été proposée par Capra (2005) comme une alternative à l'analyse des regroupements hiérarchiques pour le traitement de données de tris de cartes. Le principal avantage du recours à l'analyse factorielle dans un tel contexte est qu'elle permet de définir des groupes de cartes se chevauchant (certaines cartes appartenant à plusieurs groupes), dans la mesure où une même carte peut contribuer à plusieurs des facteurs identifiés par l'analyse. Ceci est intéressant dans le contexte de la conception de sites internet, un site donné pouvant faire figurer une même page dans plusieurs sections. Cependant, l'AFC présente une limite par rapport à l'analyse des regroupements hiérarchiques : elle ne permet d'identifier des regroupements qu' à un seul niveau hiérarchique. C'est pour cette raison que nous avons décidé de ne pas l'utiliser dans le cadre de l'analyse de nos données. La seconde catégorie de techniques de traitement quantitatif applicables aux données de tris de cartes concerne les méthodes permettant de comparer des séries de tris d'un point de vue structurel (cf. supra), afin d'évaluer la similarité ou la variabilité entre tris. Plusieurs des outils statistiques de ce type reposent sur la mesure de la distance d'édition entre tris (Deibel et al., 2005), correspondant au nombre de cartes devant être déplacées pour convertir un tri donné en un autre. Par exemple, le NMST (Normalized Minimum Spanning Tree — Fossum et Haller, 2005; McCauley et al., 2005) fournit une mesure de ce type pour une collection de tris, mesurant l'orthogonalité des tris entre eux, c'est-à-dire le degré auquel ceux -ci représentent différentes formes de catégorisation : plus les tris sont différents (en termes de distance d'édition), plus le NMST sera élevé. Une autre méthode de comparaison structurelle a été élaborée par Ewing et al. (2002), sous-tendue par un modèle shannonien des systèmes d'information. Celle -ci est conçue non plus pour comparer des tris individuels, mais pour mesurer quantitativement le décalage informationnel entre différents dendrogrammes représentant le même domaine. L'usage qu'en font Ewing et al. leur permet de quantifier les différences de conception d'un ensemble de descripteurs de patients et d'actions cliniques dans le chef de différentes catégories de personnel médical (infirmiers et docteurs juniors et seniors), au départ de l'analyse des dendrogrammes issus des tris de cartes menés avec chaque catégorie de personnel. Cette technique peut s'avérer intéressante pour confirmer l'hétérogénéité des représentations de différentes catégories d'usagers, et la nécessité d'intégrer ces différentes représentations dans la conception d'un site internet ou une ressource documentaire. Les données traitées nécessitent encore un travail d'interprétation de la part du chercheur ou du praticien en vue de passer de la connaissance qu'il aura acquise des représentations mentales de son public à l'architecture du système ou document à concevoir. Dans une perspective de conception, l'objectif du tri de cartes n'est pas d'identifier l'appartenance de chaque carte à une catégorie définie. Comme nous l'avons souligné, il s'agit de mettre au jour la manière dont les sujets se représentent le domaine de contenu traité, en montrant notamment les convergences entre les sujets, mais également leurs divergences (par exemple) en fonction de leur appartenance à une catégorie particulière de public (les étudiants, les femmes, les clients…). Le point de départ de l'interprétation des résultats tient dans la lecture des dendrogrammes générés par l'analyse décrite aux sections précédentes, qui permettra d'identifier des groupements pouvant informer la conception de l'architecture d'information d'un système ou d'une ressource documentaire. Comme on a pu le voir, l'identification de ces regroupements consiste à choisir à quel niveau de distance entre branches du dendrogramme on estime qu'il y a lieu d'effectuer des distinctions. Ce choix se heurte parfois à une difficulté, mise en exergue précédemment : certaines branches des dendrogrammes analysés ne permettent pas de distinguer des clusters bien délimités. Les résultats de nos analyses comportent ainsi des branches que l'on peut qualifier de « nettes », au sein desquelles les regroupements à distinguer apparaissent clairement, et d'autres branches « floues », au sein desquelles les distinctions sont difficiles à établir (cf. l'exemple illustré par la figure 1). L'un des avantages de la combinaison des approches qualitative et quantitative telle que nous l'avons proposée précédemment apparaît lorsque l'on compare le dendrogramme issu de l'analyse de l'ensemble de nos données (tous sujets confondus) à ceux représentant chacun un groupe de sujets distincts. La séparation par groupes de sujets adoptant une même logique de classement au niveau d'organisation principal permet en effet d'accroître la part du jeu de cartes structuré dans des branches « nettes », au sein desquelles des regroupements indépendants se détachent distinctement. En effet, en regroupant les sujets présentant une logique de classement global proche, on s'assure de rendre les niveaux hiérarchiques inférieurs des dendrogrammes produits par l'analyse par clusters plus nets, puisque l'on accroît le degré d'accord inter-sujet sur les niveaux supérieurs. En outre, l'examen comparé des dendrogrammes des différents groupes de sujets a fait apparaître certains clusters de bas niveau communs à plusieurs groupes, même si ceux -ci se trouvent englobés dans des catégories superordonnées différentes d'un groupe à l'autre. Ainsi en va -t-il de certaines informations relatives aux programmes d'enseignement gérés par le département universitaire déjà évoqué (conditions d'admission, objectifs, structure… pour chaque programme), faisant l'objet d'un regroupement systématique par programme, et non par type d'information (ces regroupements par programme d'étude apparaissent par exemple dans la moitié inférieure de la figure 1). De tels résultats permettent de justifier certains choix de conception (« doit-on regrouper les conditions d'admission de tous les programmes dans une seule rubrique, ou créer une rubrique par programme contenant les informations qui lui sont relatives ? »). Cependant, un travail d'interprétation des données est toujours nécessaire après l'identification des catégories et la compréhension du mode de raisonnement, en particulier lorsque les zones de flou identifiées par l'analyse sont nombreuses ou recouvrent des plages importantes des items à intégrer. Dans ce cas, il peut être utile d'approfondir l'analyse, au moins pour investiguer les zones problématiques. La combinaison d'analyses qualitative et quantitative des données que nous avons proposée permet, potentiellement, de le faire en traitant les données à différents niveaux. Les regroupements validés à un niveau de classement général peuvent être affinés en répétant une (ou plusieurs) « boucle(s) » de traitement. Il s'agirait d'abord, en partant des résultats obtenus par le processus quali-quantitatif, de formuler une hypothèse portant sur la distinction de logiques de classement plus spécifiques. Ensuite, comme lors du premier traitement, cette hypothèse peut être confrontée aux classements des cartes effectués par chaque individu (les tris individuels). Enfin, les nouvelles catégories ainsi définies peuvent faire l'objet d'une validation par traitement quantitatif, et ainsi de suite, jusqu' à obtenir le niveau de précision requis. Précisons toutefois que pour avoir une signification, cet approfondissement de l'analyse des données ne peut s'envisager qu'avec un nombre suffisant d'observations (pour éviter de désagréger les données observées en cas individuels – le contraire de ce que l'on cherche à mettre en évidence) effectuées sur un nombre suffisant de cartes (car si des clusters signifiants n'ont pu être mis en évidence sur un nombre très limité de cartes, il est peu probable de pouvoir le faire en procédant à une analyse de second niveau). Comme nous l'avons montré dans cette contribution méthodologique, l'analyse des données issues des sessions de tri de cartes permet de mettre en évidence des regroupements partagés par les sujets et des ensembles de contenus moins bien définis. Les résultats de l'analyse servent de base pour élaborer la structure du site à construire, celle -ci ne pouvant se contenter de reproduire la structure établie par les sujets (Spencer, 2009, p. 145-150). Il peut en effet y avoir des divergences entre les sujets, on peut constater que les catégorisations identifiées ne conviennent pas à tous les types de publics (la structure à adopter sera donc à moduler en fonction du public visé), et le concepteur doit souvent prendre en compte des contraintes stratégiques de communication externes aux représentations du public. Ces représentations, même objectivées, ne constituent pas en soi une stratégie de communication. Les limites de l'étude que nous avons présentée précédemment à titre illustratif mettent par ailleurs en avant une difficulté inhérente à l'utilisation du tri de cartes à des fins de conception : celle de la validation de ses résultats. Il s'agit d'un problème complexe, dans la mesure où ces résultats ne sont qu'une source de données parmi plusieurs guidant le concepteur dans l'élaboration de l'architecture d'information qu'il doit mettre en place. Qui plus est, la validation de ces résultats (par exemple en termes de gain d'utilisabilité de l'architecture qu'ils ont contribué à concevoir) n'est pas la validation des choix méthodologiques opérés parmi les alternatives disponibles. Un tel processus de validation systématique, nécessitant la mise en œuvre concurrente de plusieurs méthodes alternatives visant à en comparer les résultats, dépasse en réalité le projet de cet article. In fine, les conclusions à tirer des données issues de tests de tri de cartes dépendent des objectifs poursuivis par le document interactif ou numérique à produire. Le concepteur devra poser des choix dans lesquels entrent en compte des éléments externes aux données, tels que les objectifs stratégiques, une éventuelle priorité entre publics ou objectifs, les moyens disponibles, etc .
La présente contribution entend proposer une présentation des alternatives possibles concernant l'utilisation des épreuves de tri de cartes dans un contexte de conception de systèmes interactifs ou de documents numériques. Notre présentation suit le déroulement d'une série de tests que nous avons réalisés afin de guider la définition de l'architecture d'information du site web d'un département universitaire. Au-delà de l'état de la littérature, l'objectif est de proposer, au départ de cette expérience empirique, une méthode de recueil, d'analyse et d'interprétation des résultats d'épreuves de tri de cartes située dans le paysage des pratiques existantes, combinant analyses qualitative et quantitative des données recueillies, dans le but de mieux cibler les représentations des usagers.
sciencesInfo_11-0282257_tei_DN_122_0023.tei.xml
termith-349-communication
Les SIC disposent de méthodes et de concepts permettant d'étudierdifférents types d'objets et de phénomènes y compris les plus actuels et lesplus complexes. Certains objets d'études combinés à des terrains spécifiquessuggèrent parfois de sortir du cadre théorique établi par les SIC et de faireappel à des références théoriques classiques - jugées parfois comme trèsanciennes - ou encore à des références relevant d'autres disciplines éloignées des SIC; ceci tout entravaillant sur une problématique relevant des SIC et en adoptant une approchecommunicationnelle précise et bien établie. C'était le cas de notre recherche dethèse intitulée Communication et relations symboliques : les représentationssociales des femmes entre les médias, la politique, la culture etl'Islam, soutenue à l'Université Stendhal en Octobre 2006. Dans cettethèse, nous avons analysé le rôle des moyens de communication de masse( télévision, cinéma et presse écrite) dans la construction, l'évolution et ladisparition des représentations sociales des femmes. Nous avons traité du rôledes médias, des institutions (Etat, famille, école et instances religieuses) etdes processus symboliques dans la construction et l'évolution desreprésentations sociales des femmes dans la société tunisienne. Ceci afin decomprendre l'interdépendance des processus de représentations (valeurs, idées ,opinions) et de communication (médias, discours, relations publiques). Tout au long, de ce travail de recherche, notamment lors dequelques réunions de doctorants comme pendant la soutenance de thèse, nos choixde lecture et de références théoriques ont interpellé et ont suscité débat etquestions. C'est en réponse à certaines de ces questions et sur la base deslectures et des choix théoriques effectués lors de la thèse que nous proposonsdans cette contribution d'engager une réflexion sur les différentspositionnements théoriques adoptés en SIC pour analyser la production desreprésentations sociales. Nous présenterons, dans une première partie, lanécessité de s'ouvrir à d'autres disciplines, y puiser des lectures et desréférences théoriques ainsi que la nécessité de se référer aux auteursclassiques tels que P. Bourdieu ou C. Castoriadis. Nous y expliquerons lesraisons qui nous ont amenée à combiner des écrits et des concepts « classiques »qui paraissent pour certains hétérogènes, que plusieurs considèrent comme trèsanciens et qu'une majorité juge éloignés des SIC. Dans une seconde partie, nousmettrons en avant les difficultés qu'entraînent de tels choix théoriques et lanécessité de les justifier. Dès l'élaboration de la problématique, nous avons comprisque cette dernière s'intégrait parfaitement dans le cadre théorique dela sociologie de la connaissance qui s'intéresse à la constructionsociale de la réalité bien au-delà de l'élaboration théorique par desspécialistes du travail intellectuel. Elle consiste en l'analysesociologique de la réalité de la vie quotidienne, précisément de laconnaissance commune qui guide les conduites personnelles dans la viequotidienne. On sort, ici, du cadre de l'analyse des idées et despensées pour l'élargir à celui des actions ou des activités objectivestoujours sous-tendues par des significations subjectives qui participentde cette réalité de la vie quotidienne. Notre choix du cadre théoriquede la sociologie de la connaissance est déterminé par le double intérêtqu'elle porte à l'insertion sociale des représentations individuelles età leur caractère idéologique et pratique mélangé. En effet, la plupartdes femmes (et des hommes) n'a pas une conscience claire e t s'interroge encore moins de façon philosophique ouscientifique sur son statut social vécu comme donné et établi. Ceci sevoit en particulier dans le cas de la culture traditionnelle arabo-musulmane où laplace de la femme est fortement déterminée par sa socialisation et sonéducation dès l'enfance et ce depuis de nombreuses générations. Laconnaissance pratique de ce qu'une femme doit faire ou ne pas faire ,doit penser ou ne pas penser, doit dire ou ne doit pas dire estnaturalisée à la fois par la socialisation primaire et par l'emprise desvaleurs sociales et des représentations religieuses sur toute la vie desfemmes. Néanmoins, celles -ci sont des individus singuliers qui ont leurpensée propre et qui réagissent diversement à la situation qui leur estfaite et aux idées qui leur sont inculquées. Dans ces réactions où semanifestent des frustrations d'ordre psychique ou sexuel par exemple ,des résistances (refus d'un mari, refus de l'enfermement), voire desrebellions (refus d'assumer le devoir conjugal d'ordre sexuel, prendreun amant), les transformations du contexte social et la circulation dereprésentations alternatives exercent un rôle important. Lacompréhension de cette circulation entre connaissances pratiquesintériorisées et transformations des représentations sociales étaitindispensable à notre problématique; d'où l'intérêt et l'apport de lasociologie de la connaissance. Par ailleurs, le lien entre la sociologiede la connaissance et les représentations sociales est clair à partir dumoment où l'on admet qu'en tant que mode de connaissance, lareprésentation suppose la capacité à traduire le réel dans un cadresocial de vie quotidienne et sous la forme de pensées qui s'y accordent .Il s'agit d'une reconstitution du réel qui n'est, certes pas, neutre niimpartiale, dans laquelle l'individu qui y procède croit être fidèle àla réalité et n'avoir déformé aucun de ses aspects. Le cadre théorique de la sociologie de la connaissancenous a amenée à découvrir des auteurs et des approches auxquelles nousn'avions pas pensé lors du choix du sujet et de l'élaboration de laproblématique. Certaines de ces lectures auxquelles nous nous sommesréférée dans la thèse ne faisaient pas l'unanimité dans le domaine desSIC. Parmi ces références, nous citons La construction sociale de la réalité des sociologues nord-américains (Berger, Luckmann, 1986) ,nous y avons puisé ce qu'ils appellent un « stock social commun » et définissent comme un ensemble objectivé deconnaissances ou de représentations communément admises qui se constitueau fur et à mesure de l'accumulation « sélective » des expériencespersonnelles et historiques accumulées dans une culture sociale .Socialement produit et partagé par les membres d'une même société oucommunauté, ce stock résulte des expériences individuelles etcollectives ainsi que des événements historiques, des faits sociauxobjectivés et accumulés. Il s'agit d'une action sur le long terme quidépasse la vie d'une ou de plusieurs générations, c'est l'histoireentière d'une communauté ou d'un groupe social qui entre en jeu. Cetteindication est importante pour notre sujet. En effet, il y a bien larencontre entre une très longue histoire objectivée dans la culturearabo-musulmane et les pratiques qu'elle engendre, avec ce qu'entraînevariablement le statut de la femme tunisienne. Le concept de « Stock social » s'adapte parfaitement à laréalité de l'imaginaire arabo-musulman, socle et origine des principalesreprésentations, pratiques et valeurs sociales dans la sociététunisienne. Même avec le recul pris depuis la soutenance, nous sommesconvaincus que sans le recours à la notion de « Stock social » et auxniveaux de légitimation développés par P. Berger et T. Luckmann, nousn'aurions pas pu appréhender avec autant de précision, ni approcherd'aussi près les composantes et les niveaux de l'imaginairearabo-musulman et par conséquent les modes de légitimation desreprésentations sociales répertoriées. L'ancrage dans la sociologie de la connaissance estcontestable en SIC pour certains des chercheurs que nous avons côtoyés .Certains considèrent la sociologie de la connaissance comme trèséloignée des SIC, d'autres la jugent comme une discipline très récenteet fortement influencée par la sociologie nord-américaine, donc à manieravec précaution. Toutefois, cet ancrage s'est avéré indispensable pourrépondre à notre problématique et traiter spécifiquement du terraintunisien, du quotidien, des pratiques et des valeurs gérant la vie desfemmes et les représentations faites des femmes tunisiennes. Un objectif tel que celui que nous nous sommes fixés, àsavoir analyser les modes de construction et d'évolution desreprésentations sociales des femmes et étudier les rôles des médias, dela politique, de la religion et de la culture dans ces processus ,nécessite la mobilisation d'un certain nombre de théories relevant aussibien de la sociologie, de la psychosociologie que des SIC elles -mêmes .Nous avons, en effet, rapidement saisi que s'intéresser à cet objet ,c'est accepter de questionner un objet aux frontières diffuses ,socialement construit dans l'interaction médiatique, culturelle ,politique et religieuse, interactions qui produisent autantd'aller-retour producteurs d'une image sans cesse en mouvement. Pourmontrer le caractère instable et évolutif des représentations et deleurs fondements, nous avons dû rassembler des travaux développés pardes chercheurs d'horizons différents et des concepts considéréshabituellement comme hétérogènes. Ainsi, par exemple, nous avons associédes notions telles que : la domination et la violence symboliquedéveloppées par P. Bourdieu (sociologie), la notion de représentationssociales de S. Moscovici (psychosociologie) et celle des significationsimaginaires sociales développée par C. Castoriadis (philosophie). C'estégalement dans cette perspective que nous avons fait appel aux écrits deP. Berger et T. Luckmann (sociologie de la connaissance). Notreapproche, en articulant ces différents concepts théoriques nous permetd'accéder au plus près de l'objet étudié pour l'appréhender dans touteson épaisseur et sa complexité. En effet, en plus du cadre théorique général qui nous aorientée vers des lectures éloignées des SIC et qui nous a amenée àaffirmer un positionnement théorique clair en sociologie de laconnaissance, le concept même de représentations sociales a influencél'orientation bibliographique et théorique de la recherche. Nous noussommes rapidement rendus compte que le concept de représentationssociales que nous croyions pouvoir aborder du point de vue des sciencesde l'information et de la communication, s'est avéré difficile à saisirpar sa transversalité et son caractère interdisciplinaire etpluridisciplinaire. Dénomination « carrefour » ou notion « valise » ,elle est présentée par les psychologues sociaux comme une « jonction entre les domaines de l'individuel et du social ,articulation des approches cognitives et sociales, pluridisciplinaire enfin parl'intérêt qu'y portent historiens des mentalités, linguistes ,sociologues, anthropologues et psychologues sociaux » (Bonardi, Roussiau, 1999, p. 7). Cette pluridisciplinarité du concept est également mise enavant par W. Doise qui affirme que « le carrefour auquel se trouve lanotion de représentations sociales est particulièrement dense, les voiesqui y débouchent sont multiples et il n'y a aucune carte qui en donneles coordonnées communes. En effet, psychanalystes, cliniciens ,psychologues, psychosociologues, sociologues, historiens peuventconverger vers ce carrefour tout en croyant se déplacer dans des espacesdifférents de sorte qu'ils ne devraient jamais se rencontrer » (Doise ,2002, p. 82). Chacune de ces disciplines a récupéré le concept à safaçon et l'a traité selon la méthode ou l'approche qui lui convient lemieux mais elles ont toutes gardé des liens entre -elles qui sontessentiellement dus à l'héritage philosophique commun présentant lecadre général des représentations sociales. Ces liens directs ouindirects d'explication et même de justification nous ont paruindispensables à une théorisation des représentations sociales et sont àla base de toute tentative de présentation et de définition. Comprendre ce concept nécessite donc de tenir compte del'apport de chacune des disciplines qui l'ont adopté comme thème centralet du caractère complémentaire ou bien contradictoire des définitionsqu'elles en offrent. C'est ce constat qui explique et qui justifie notrerecours à beaucoup d'écrits en psychologie et en psychologie sociale, enplus de ceux relevant de la sociologie. C'est d'ailleurs, grâce à ceslectures différentes et variées, que nous avons pu saisir le sens de ceconcept, en dégager les caractéristiques fondamentales et que nous avonspu en extraire la construction d'un point de vue cohérent et opératoireadapté à la nature de notre terrain et qui nous a permis d'appréhenderla culture arabo-musulmane et l'identité féminine dans leurs complexitéset dans leurs interactions. La première discipline à avoir envisagé le lien entrereprésentations sociales et médias a été la psychologie sociale. D'oùnotre intérêt pour des écrits relevant de cette discipline. Nous nepouvions pas ignorer l'apport considérable du psychologue social S .Moscovici qui a été le premier à établir le lien entre les médias demasse et l'évolution des représentations sociales. Tout en partant del'héritage durkheimien, S. Moscovici passe des représentationscollectives aux représentations sociales qu'il envisage comme dynamiquesà l'instar des sociétés contemporaines (Moscovici, 1961). La définitionde S. Moscovici a été développée et enrichie par d'autres tels que P .Moliner, P. Rateau, C. Bonardi, etc. qui ont également traité laquestion des relations entre médias et représentations sociales du pointde vue de la psychologie sociale. Nous avons choisi de puiser danscertaines de leurs définitions qui complétaient celle de S. Moscovici, jugée très ancienneparce que datant de 1961. Nous nous sommes contentée de nous référer aux définitionsdonnées par les auteurs cités précédemment sans pour autant nous référerà leurs résultats, méthodologies ou ancrages théoriques très éloignésdes SIC et qui représentaient par conséquent un risque considérable pourl'ancrage de notre recherche en SIC. Chez P. Berger et T. Luckhmann, nous avons emprunté laconception des univers symboliques. Construction cognitive émanant desprocessus de réflexion subjective et des structures mentales visant àlégitimer un ordre et des institutions socialement établis. Ceci en leurdonnant une signification et un sens et assurant, de la sorte, lamaîtrise de l'environnement, purement symbolique à la base, objectivéainsi que socialement produit et partagé. L'univers symboliquecorrespond à la conception des représentations sociales données par lespsychosociologues. Nous avons rapproché la conception des universsymboliques avec celle de C. Castoriadis bien qu'il inclut lesreprésentations sociales dans l'ensemble plus englobant de l'imaginairesocial et historique d'une société donnée. Il parle de « significations imaginaires sociales » qui « ne sont évidemment pas ce que les individus sereprésentent, consciemment ou inconsciemment, ou ce qu'il pensent .Elles sont ce moyennant et à partir de quoi les individus sontformés comme individus sociaux, pouvant participer au faire et aureprésenter/dire social, pouvant représenter, agir et penser demanière compatible, cohérente, convergente même si elle estconflictuelle. » (Castoriadis, 1975, p. 528). Ces significationsimaginaires sociales diffèrent évidemment d'une société à une autre etforment, selon le philosophe et psychanalyste, une sorte de « magma » dans et par lequel la société prend sens, institue ets'institue. Le rôle principal de ces significations est d'apporter desréponses aux questions individuelles et sociales cruciales. Ce rôle estassuré chez P. Berger et T. Luckhmann par les « schémas typificatoires » qui gèrent les interactions sociales et qui vont – engrande partie – nous dicter les comportements à suivre et les attitudesà adopter dans telle ou telle situation. C'est dans ces schémastypificatoires que les femmes tunisiennes puisent inconsciemment desmanières de penser et des façons d'agir sans pour la majoritéd'entre -elles se poser la question de leur validité ou de leurobjectivité. Dans ces schémas, elles trouvent des règles de conduiteleur imposant le respect et la pudeur lors de l'interaction avec lepère, ils leur indiquent la nécessité de la soumission face à labelle-mère ou encore ils leur inculquent des façons de tenir le corps ,de serrer les jambes et pour certaines de rougir et de baisser le regarden présence d'un étranger. Nous retrouvons une idée similaire chez P .Bourdieu qui parle d'une « logique pratique » totalement différente de la logique intellectuelle des« savants ». Selon lui cette logique pratique fonctionne sur la basede schèmes classificatoires pré-réflexifs composant les « habitus ». Bien que dans un système théorique différent, il y achez P. Bourdieu l'idée que ces schèmes représentationnels sont liés àdes groupes sociaux spécifiques auxquels il donne le nom de « champs »sociaux. Les schémas typificatoires se rapprochent étroitement dela notion d'habitus agissant dans un champ social donné qui désignel'ensemble des dispositions acquises, sous forme de « catégories » deperceptions, de pensées et d'actions données à l'individu dans et par un contexte social donné lui permettant deréguler, inconsciemment, ses décisions et ses comportements. Le lien entre habitus etreprésentations sociales apparaît évident si l'on envisage lesreprésentations comme forme de connaissance et d'interprétation communesde la réalité. Il nous faut, toutefois, préciser que contrairement auxpsychologues sociaux cités précédemment (Moscovici, Moliner, Jodelet ,Roussiau, Rateau, Bonardi, Doise) mais en accord avec des théoriciensconstructivistes (Berger et Luckmann), l'inspiration structuraliste deP. Bourdieu présente les représentations (quoique n'employant jamais ceconcept) que possèdent ou dont disposent les individus comme liées etfortement dictées et/ou déterminées par la position sociale de cesindividus dans un champ social donné. Pour P. Bourdieu et pour P. Bergeret T. Luckmann, les rapports sociaux sont l'élément ou l'instance qui ,détermine et explique, l'apparition et l'évolution de telle ou telleautre représentation et permet d'expliquer et d'interpréter leséventuelles relations entre représentations sociales. Le modèle del'habitus envisage donc les représentations comme directement etintimement déterminées par certaines conditions sociales dont la plusimportante serait l'appartenance à telle ou telle classe sociale en mêmetemps qu' à tel ou tel champ social, comme l'attestent ses travaux surl'école, les carrières professionnelles, le goût, etc. Lesreprésentations ne sont alors que l'expression ou la traduction deshabitus émanant de champs sociaux précis. Les pratiques, les échanges etles interactions ne sont que « le produit de dispositions qui, étantl'intériorisation des mêmes structures objectives, sontobjectivement concentrées, (…) les pratiques des membres d'un mêmegroupe (…) sont dotées d'un sens objectif à la fois unitaire etsystématique, transcendant aux intentions subjectives et aux projetsconscients, individuels ou collectifs. » (Bourdieu, 1972, p. 183). Cette conception théoriques'exprime de façon immédiate lorsque l'on compare la position et lesreprésentations des femmes tunisiennes selon qu'elles vivent dans unmilieu rural traditionnel ou dans une famille instruite dans une grandeville. La combinaison de ces notions relevant de différentesdisciplines nous a permis de construire notre propre définition desreprésentations sociales des femmes, une définition opératoire etpertinente pour permettre de répondre à notre problématique et decorrespondre aux limites imposées par l'objet et le terrain. Mais ellepose certains problèmes que nous présentons dans la partiesuivante. Les choix d'auteurs et de lectures que nous avons faits et quinous ont été imposés par la nature du terrain et l'étendue des conceptsclefs sont facilement contestables en SIC et c'est pour cette raison qu'ilsont fait l'objet de plusieurs reproches et questions en raison de leursconséquences d'ordre épistémologique et méthodologique. Questions etreproches formulées par des spécialistes des SIC lors de réunions delaboratoire et surtout par les membres du jury pendant la soutenance de lathèse. Parmi les problèmes soulevés par nos choix de lectures, laprésence dans notre bibliographie de plusieurs ouvrages considérés commetrès anciens puisque datant des années 60 et 70 (Moscovici, 1961 ,Castoriadis, 1975 et Bourdieu, 1972, 1979). Il est vrai que ces ouvragesdatent de plusieurs décennies mais ceci n'implique pas qu'ils soientdépassés ou sans intérêt. Les écrits de C. Castoriadis, de P. Bourdieu et de bien d'autres sont encore aujourd'hui des textes deréférence dans plusieurs domaines. Nous sommes convaincus que nous n'aurions pas putraiter notre sujet, ni répondre à notre problématique sans faire appel auxconcepts de « Domination masculine » et de « Violence symbolique » mis en avant par P. Bourdieu dans les années 80. Cesconcepts pourraient paraître dépassés lorsqu'on étudie les rapports sociauxde sexe, les représentations des femmes ou encore les images médiatiques desfemmes dans les sociétés européennes ou américaine. Il n'en est pas de mêmepour la société patriarcale tunisienne véhiculant un lourd héritagearabo-musulman, avec des rapports sociaux, des pratiques et des valeursfortement marqués par la supériorité masculine. Le recours à des conceptsplus récents et à la mode en Europe comme celui du « Genre » n'étaitnullement adapté au terrain tunisien. Les concepts fondamentaux, en dépit deleur ancienneté, sont, en effet, indispensables pour cerner certains objetsd'étude et éclairer des problématiques complexes. Se pose également le problème des auteurs et concepts éloignésdes SIC, qui pour certaines personnes remettrait en question l'approchecommunicationnelle et l'ancrage de la recherche en SIC. Consciente desancrages et des traditions épistémologiques bien établis des disciplinesmobilisées et de leurs différences avec les SIC, nous avons clairementexplicité notre approche communicationnelle fondée sur une problématiquetentant de prouver et d'expliquer les interactions entre médias et processussymboliques et traitant de contenus et de processus médiatiques et de modesde réception. Le recours à des concepts éloignés des SIC ne représente pasen soi une négation de l'ancrage en SIC. La nature du sujet combinée à lanature interdisciplinaire des SIC elles -mêmes, impose l'élargissement àd'autres disciplines plus anciennes ou ayant traité des représentationssociales sous d'autres angles. La combinaison de plusieurs auteurs( Moscovici, Castoriadis et Bourdieu) appartenant à diverses disciplines etqui ne se sont jamais mutuellement cités était risqué mais se justifiait parla nécessité de construire une définition la plus opératoire possible desreprésentations sociales. Chose qui nous a amené à combiner plusieursconceptions, tout en respectant leurs différences et les nuances existantentre elles. Le choix de ces lectures et l'appropriation de conceptionsrelevant d'autres disciplines, pose également le problème de l'ancrageépistémologique. Tout en respectant les approches des auteurs cités et leurstraditions épistémologiques, nous nous sommes cantonnée à une méthodologieet un ancrage en SIC. C'est ainsi, par exemple, que nous avons choisi de nepuiser chez les psychosociologues que leurs définitions des représentationssociales et de laisser de coté leurs méthodes, basées d'une part, sur lamobilisation d'échantillons considérables dépassant nos capacités, etd'autre part sur une séparation, déterminante en psychosociologie, entrenoyau central et périphérie mais qui n'était d'aucun intérêt pour notretravail. Les SIC ont produit des concepts propres à la discipline ainsique les outils méthodologiques permettant de les étudier, ce qui a permisaux chercheurs en Info/Com de traiter plusieurs objets et de questionnernombre de phénomènes parmi les plus complexes. Ceci n'empêche, toutefois ,pas les chercheurs en SIC de recourir dans certains cas à des conceptsforgés et développés dans d'autres disciplines. Il s'agit ici d'unespécificité avantageuse des SIC qui marque leur ouverture puisqu'elles permettent aux chercheurs de la discipline deformuler des problématiques complexes sans les enfermer a priori dans des modes de pensée ou les enfermer dans des moulescontraignants en leur imposant des concepts à utiliser et des méthodes àmobiliser. Les SIC offrent aux chercheurs une certaine marge de manœuvrelorsqu'ils traitent de certaines problématiques telle que celle que nousavons étudiée. La complexité de la problématique alliant l'étude desinteractions sociales, des processus symboliques et des discours médiatiqueset la nature du terrain de recherche, nous ont amenée à faire des choixthéoriques et méthodologiques et à « bricoler » une définition desreprésentations sociales afin de construire une partie théorique nouspermettant le plus possible d'approcher et d'apprivoiser notre objet derecherche. Les choix de lecture sont directement dictés et initiés par lanature du sujet et de l'objet mais également par la natureinterdisciplinaire des SIC. Le recours aux classiques et aux auteursfondamentaux, qui peuvent paraître anciens ou dépassés, est encoreindispensable et peut se justifier par la nécessité de maîtriser lesconcepts, de délimiter les courants de pensée et de cerner les objets derecherche. L'ouverture à d'autres disciplines, avec des traditionsépistémologiques établies, est un exercice périlleux mais nécessaire dansplusieurs types de recherches notamment celles qui mobilisent des conceptsrarement traités en SIC .
Cette contribution se propose d'engager une réflexion sur les différents positionnements théoriques et épistémologiques adoptés en SIC pour analyser la production des représentations sociales et la nécessité de s'ouvrir à d'autres disciplines. Ceci en nous référant aux lectures et aux choix théoriques effectués lors de notre travail de thèse qui a nécessité la mobilisation d'un certain nombre de théories relevant aussi bien de la sociologie, de la psychosociologie que des SIC elles-mêmes. Nous expliquons les raisons qui nous ont amenée à combiner des écrits et des concepts « classiques » qui paraissent pour certains hétérogènes, que plusieurs considèrent comme très anciens et qu'une majorité jugent éloignés des SIC. Nous témoignons des résistances auxquelles nous avons dû faire face et comment nous avons justifié et argumenté nos références théoriques. Nous montrons, en parallèle, les limites et les enjeux épistémologiques d'une telle approche dans le cadre des études en SIC et les biais que peut entraîner une combinaison simultanée de plusieurs concepts empruntés à différentes disciplines aux traditions épistémologiques bien établies.
sciencesInfo_10-0351928_tei_989.xml
termith-350-communication
Le domaine de la recherche d'information en tant que thème de recherches informatiques est quasiment aussi ancien que l'informatique elle -même. A l'origine, il s'inscrivait dans la poursuite du travail des documentalistes dont le rôle a toujours été de classer et classifier les documents dans le but de pouvoir les retrouver à la demande d'un utilisateur. Ce modèle de recherche d'information, que nous appelerons plus précisément « recherche documentaire », reste toujours en usage aujourd'hui et est même devenu bien plus connu du grand public depuis l'avènement de la Toile sur internet, rapidement suivi par l'apparition de « moteurs de recherche » (Wanderer en 1993, Lycos et Excite en 1995, Altavista en 1996. ..) et de « répertoires thématiques » (Yahoo en 1994. ..). Cependant, l'aspect recherche documentaire de la recherche d'information n'est pas le seul, et traditionnellement on y retrouve aussi le « routage », le « filtrage » et l' « extraction d'information ». Avant de présenter où des questions concernant le temps interviennent dans le domaine de la recherche d'information, nous avons à évoquer ce que le mot-clé « temps » (time en anglais) représente majoritairement dans ce domaine. Le modèle classique de la recherche documentaire se découpe temporellement en deux phases : la phase d'indexation et la phase d'interrogation. Le plus souvent, lorsque le mot temps est utilisé, il fait référence à la durée d'exécution par un ordinateur de la phase d'indexation ou de la phase d'interrogation. Ces temps sont fortement liés à la complexité algorithmique des méthodes mises en œuvre et à la qualité de l'ingénierie logicielle. Le temps d'interrogation, visible et palpable par les utilisateurs d'un système de recherche d'information, se doit d' être compatible avec les exigences des utilisateurs et leur nombre. De l'autre côté, la durée du temps d'indexation doit permettre au système de recherche d'information d' être en phase avec l'évolution de la collection qu'il a à indexer. Nombre de travaux en recherche d'information abordent ces aspects temporels d'un point de vue informatique, mais ce ne sont pas ceux qui nous intéressent ici. Nous allons présenter brièvement comment différents aspects temporels interviennent dans les activités de recherche d'information. Nous ferons référence aux trois temps : temps de l'univers du discours; temps de publication; temps de l'évolution. Historiquement, le temps de l'univers du discours est le premier à avoir été explicitement pris en compte dans les domaines de la recherche documentaire et de l'extraction d'information. La prise en compte de ce temps consiste à considérer que les documents et les besoins d'information contiennent des concepts qui sont spécifiquement liés à un aspect temporel : une date, un lien avec un événement historique. Il s'agit donc de repérer ces concepts lors de l'indexation dans le but de pouvoir spécifi - quement les retrouver. Cette tâche consiste à reconnaître une certaine classe d' « entités nommées ». Les conférences MUC 1 se sont attachées à définir des tâches particulières et ont retenu trois classes d'entités nommées : celles comprenant i) les noms propres et les acronymes (organization, person, et location), ii) les expressions temporelles absolues (date et time) iii) les expressions numériques monétaires et de pourcentage (money et percent). Cette reconnaissance est compliquée par le fait que les dates peuvent prendre des formes très diverses dépendant des conventions nationales. Citons par exemple l'ordre entre le numéro du mois et le quantième qui diffère dans les usages anglais et américain. Ainsi, selon l'ordre retenu, l'écriture « 3-9-2004 » désigne le 3 septembre (G.B.) ou le 9 mars (U.S.A.) de l'année 2004. Certaines applications informatiques qui doivent s'appuyer sur des dates absolues ne peuvent admettre différentes interprétations et normalisent de ce fait l'écriture qui doit être partagée par tous les agents. En particulier les agents de messagerie électroniques doivent respecter à la lettre les recommandations du RFC 2822 (2001) pour spécifier une date et une heure; en voici un exemple « Fri,⌴⌴3⌴Sep⌴2004⌴17:01:56⌴+0200⌴(MEST) ». Dans certains cas, la reconnaissance devrait s'appuyer pour être complète sur des connaissances bien plus larges que celles des différentes conventions d'écriture des dates. Par exemple, depuis le 11 septembre 2001, l'expression « 11 septembre » peut désigner soit la date du 11 septembre 2001 même si l'année n'est pas mentionnée, soit l'événement associé à cette date (a -t-on encore affaire à une entité nommée de type date ?) soit encore une date ordinaire. D'autres travaux se sont intéressés à l'analyse temporelle de la langue naturelle. Les premiers remontent à plus de 20 ans (Hirschman, 1981) et se poursuivent encore aujourd'hui (Mani and Wilson, 2000; Mani et al., 2004). Dans ces travaux, le but est de découvrir les relations temporelles entre des événements. Ces relations sont déduites à partir d'indices comme les conjonctions (quand, pendant que, avant que. ..), le temps de conjugaison des verbes, les expressions adverbiales (après l'accident, la semaine dernière, plus tard, hier. ..) en plus des références absolues évoquées précédemment. Ces aspects sont plus spécifiquement pris en compte aujourd'hui par les communautés qui s'intéressent aux traitement automatique de la langue (TAL en français, NLP en anglais, Natural Language Processing). L'application des méthodes d'extraction de dates et de compréhension automatique des relations temporelles trouve son application dans les systèmes Question-Réponse (Q/R en français, Q/A en anglais, Question Answering). Le domaine Q/R est à la frontière de la recherche d'information; en effet la problématique va au-delà du dépistage des documents pertinents à un besoin d'information puisqu'il s'agit de répondre explicitement au besoin d'information qui est une question. Lorsque la question porte sur un aspect temporel (Quand. .. ?, Combien de temps a duré. .. ?), ces applications doivent s'appuyer entre autres sur des raisonnements, donc sur l'intelligence artificielle, et en particulier sur la partie qui traite des raisonnements temporels. Ce temps de l'univers du discours est aussi celui qui apparaît d'une façon explicite dans des bases de données ayant un contenu où des dates (sous une forme exacte ou approchée, absolue ou relative, d'événement ou d'intervalle avec une durée, etc.) sont représentées. De nombreux travaux existent dans ce domaine. Des groupes de travail et des communautés organisent des conférences sur ce sujet (Rolland et al., 1988; Clifford and Tuzhilin, 1995; Etzion et al., 1998). Il faut noter que les aspects temporels sont souvent liés à des aspects spatiaux (Hadzilacos et al., 2003), et que ce domaine à son tour se trouve être lié à celui des systèmes d'informations géographiques (SIG). Pour répondre au mieux à des besoins d'information qui manifestent des aspects temporels, plusieurs approches nécessitent d' être assemblées. Il faut d'abord reconnaître dans les documents les références temporelles (extraction d'entités nommées) et les relations temporelles (grâce aux méthodes de traitement automatique de la langue). Les éléments d'information recueillis permettent de renseigner des bases de données dans lesquelles peuvent intervenir des raisonnements temporels. Le temps documentaire place un document parmi un réseau d'autres documents. Dans le modèle classique de l'édition, un document se positionne par rapport à des documents déjà parus, donc plus anciens que lui. C'est ici, au niveau de la date de publication (souvent seulement une indication d'année) qu'intervient une notion de temps. Si l'on revient à la recherche d'information, cela se traduit dans un besoin d'information par des critères concernant cette date de parution. Ces critères peuvent se traduire par des contraintes booléennes sur un attribut particulier – celui qui conserve la date de parution – ou un critère de classement, typiquement trier les documents retrouvés par un système booléen du plus récent au plus ancien. Le temps n'est plus alors, comme dans le cas du temps de l'univers du discours, relatif au contenu du document, mais il concerne un attribut externe au document; on parle de méta-information. Les méta-informations (metadata en anglais) sont un moyen d'expression des données du catalogage dans les bibliothèques. De ce fait, leur mise en place dans les ordinateurs a conduit à de nombreuses normalisations pour donner des possibilités d'échange et d'interrogation sur plusieurs bases de données bibliographiques. Il s'agit donc ici plus d'une problématique de normalisation que d'une problématique de modélisation du temps permettant des raisonnements ou d'une problématique d'extraction d'information. En effet, les dates en question sont non ambiguës et renseignées par des documentalistes, par contre ces derniers doivent respecter des conventions permettant le partage de l'information créée d'une façon fiable. Toutefois la complexité de certains système de codage de méta-informations fait que la notice d'un document peut être considérée comme un document à part entière. Le champ 250 de MARC 2 qui permet de préciser l'édition peut par exemple être rédigé ainsi : 250##$a2nd ed.250##$aRev. as of Jan. 1, 1958. et il peut y avoir ou non indication d'une date. Le champ 260 qui précise les informations relatives à la version de publication d'un travail peut être complexe : 250##$aBelfast [i.e. Dublin:$b[s.n.] ,$c1946 [reprinted 1965] 250##$aWashington, D.C. (1649 K St., N.W., Washington 20006:$bWider Opportunities for Women,$c1979 printing, c1975. La partie contenant une indication temporelle est facilement repérable grâce à son introduction par $c. Par contre, son analyse complète n'est pas triviale, puisqu'elle peut contenir plusieurs dates, et différentes indications (printing, reprinted dans ces exemples). Au niveau de la granularité de la représentation du temps, les besoins ne sont pas les mêmes dans toutes les applications. Pour un catalogage de publications traditionnelles (livres), l'année ou encore l'année et le mois suffisent. Pour le catalogage de clichés photographiques, l'heure doit aussi être précisée, et les normalisations doivent permettre de préciser l'heure utilisée : heure locale, heure GMT, ou autre. Il y a donc une question de granularité dans la représentation des instants. Mais outre les problèmes de formatage de l'écriture de la date, il faut aussi prendre en compte l'évolution de la modélisation sous-jacente du temps. Pour fixer les idées, deux exemples. Le premier se place au niveau de granularité de l'année. On considère généralement que le passage au calendrier grégorien est survenu en 1752. A cette époque, la plupart des pays avaient reconnu ce calendrier (mais quelques-uns ne le reconnurent qu'au début du 20ème siècle). Les onze jours suivants le 2 septembre furent éliminés, et donc le calendrier de ce mois est un peu particulier : le lendemain du 2 septembre fut le 14 septembre. Second exemple, au niveau de granularité de la seconde, il faut savoir que le International Earth Rotation and Reference Systems Service 3 est responsable de l'annonce de l'ajout ou du retrait d'une seconde additionnelle pour ajuster le temps UTC mesuré avec un ensemble d'horloges atomiques, et le temps astronomique, plus irrégulier. Ces secondes additionnelles sont ajoutées ou retirées à la fin du mois précédent un premier juillet ou un premier janvier. Depuis la création du système des secondes additionnelles il y a eu 22 secondes ajoutées et la dernière remonte au 31 décembre 1998. Selon les applications on peut avoir besoin ou non de tenir compte de ces irrégularités. Autour des méta-informations, les actions sont très nombreuses et éventuellement ciblés sur des domaines d'application particulier. Le site de International Federation of Library Associations and Institutions 4 régulièrement mis à jour fournit de nombreux points d'entrée dans ce domaine. On peut noter que lorsque des méta-informations temporelles existent dans les modèles de méta-informations, celles -ci sont souvent couplés à des méta-informations spatiales. C'est particulièrement évident pour les méta-informations des SIG, mais aussi dans la proposition de Dublin Core 5 où c'est un seul et même élément Coverage qui recouvre les aspects spatiaux et temporels. Du côté des outils de recherche d'information, ceux des bibliothèques permettent de donner des critères booléens sur la date de publication. Une intégration plus poussée nécessiterait d'avoir une prise de décision multicritère combinant des aspects de pertinence de contenu (aspects bien connus, bien que restant difficiles en recherche d'information) avec des aspects d'adéquation plus ou moins correcte à des critères sur les méta-informations, et de ce fait s'écarter d'un modèle purement booléen pour ces critères, en particulier celui du temps. A notre connaissance ces problèmes sont peu abordés, des premières propositions étant celles de Furuta and Na (2002) dans le cadre de la navigation sur la Toile. Parler de l'évolution d'un document suppose de préciser ce qu'est un document et de le distinguer de son contenu. En effet, pour qu'il y ait évolution quelque chose doit changer, et si l'on considère qu'un document est son contenu; deux contenus différents (ne serait -ce que par une virgule) sont différents. Une formalisation de l'évolution consiste donc à considérer que les documents peuvent être identifiés indépendamment de leur contenu. Le temps de l'évolution des documents apparaît avec les documents numériques. En effet, sous une forme classique les documents n'ont pas d'évolution. Dans le monde des livres, il y a la notion d'édition et la notion de tirage, mais leurs instances restent en petit nombre et sont espacées dans le temps, de plus elles sont parfaitement identifiées et une nouvelle édition ne vient pas en remplacer une plus ancienne mais vient s'ajouter à la collection. Dire qu'il n'y a pas d'évolution d'un document signifie qu'une référence bibliographique ou une description dans un catalogue de bibliothèque désignent un document, bien sûr par son titre et ses auteurs, mais aussi par son année d'édition et son numéro d'édition (par exemple : 2ème édition, 1969); le tout permettant de préciser de façon unique un contenu. Tout est fait donc pour qu'il n'y ait pas de distinction entre l'identification d'un document et son contenu. Dans le monde des documents numériques en général et de la Toile en particulier, l'identifiant d'un document est différent de son contenu. Sur un poste de travail personnel ou partagé, l'identifiant d'un document est le nom du fichier qui le supporte, et son contenu est susceptible de changer sans que le nom ne change. De même, sur la Toile l'identifiant est une URL. Pour formaliser, nous appelons I l'ensemble des identifiants de la collection; dans le cas de la Toile, I est l'ensemble des URL valides. Nous modélisons le temps par un axe de nombres réels ℝ. Enfin, nous appelons D l'ensemble des contenus de documents. L'évolution de la collection se modélise alors par une fonction δ : I × ℝ → D. Cette fonction associe à un couple composé d'un identificateur de document x et d'une date t le contenu de ce document à cette date : δ (x, t). Cette formalisation nous permet d'expliciter deux modèles de définition d'une collection : le modèle muable et le modèle immuable. Une collection muable ne connaît qu'une instance temporelle d'un identifiant de document. Autrement dit la collection se modélise par une fonction : I → D. Le problème à traiter, dû à l'évolution, consiste à ce que la fonction δ soit aussi proche que possible de la fonction o : x ↦ δ( x, t o) où to désigne l'instant présent. Dans le cas d'un système de recherche d'information, pour que la fonction soit exactement δo, il faudrait que l'agent responsable de la modification du contenu d'un document avertisse l'agent responsable de l'indexation. Les moteurs de recherche sur la Toile travaillent sur des collections muables, mais ils ne sont pas prévenus des modifications de contenu. Ils reconstruisent donc en permanence leur base d'index (et donc la base de documents). Cette reconstruction se fait par un parcours régulier de ce qui est connu i) pour voir si derrière la référence (l'URL) se trouve toujours un document, ii) pour charger le contenu textuel courant du document, iii) pour référencer les documents pointés avec des URL par ce document. Les moteurs essayent donc d'avoir dans leur base des index les plus à jour possibles. Les solutions sont orientées essentiellement dans la recherche de la plus grande vitesse possible de parcours et sont abordées par de l'ingéniérie logicielle sur des parcs d'ordinateurs. La mise à jour par rapport à la volatilité de la collection pose des problèmes plus difficiles si le système de recherche d'information n'est pas centralisé et qu'on se trouve donc dans un cadre de recherche d'information distribuée (Sato et al., 2003). Une collection immuable considère plusieurs versions temporelles associées à un même identificateur de document. Par contre, là encore, si l'agent responsable de la mise à jour de la collection n'est pas prévenu des modifications apportées aux documents, il n'a pas nécessairement toutes les versions. D'un point de vue pratique, maintenir la collection consiste à échantillonner dans le temps la fonction δ : on ne connaît donc pas exactement les δ(, t) pour toutes les valeurs de t, mais seulement pour un sous-ensemble fini (ti). La suite (ti) est une suite croissante de dates, bornée par la date actuelle. Une collection immuable modélise la fonctionnalité d'archivage. Sur la Toile, l'archivage est partiellement traité par le site de Internet Archive 6. Une fois une archive constituée, les questions de recherche d'information qui se posent sont celles évoquées dans la section 3. Une particularité des documents numériques est que leur insertion dans le contexte des autres documents y est accessible, prenant la forme des liens entre les pages HTML, liens représentés par les balises <A HREF="…">. La nouveauté n'est pas tant l'existence de ces liens – ils existent dans la tradition scientifique sous la forme de références bibliographiques que l'on trouve à la fin des articles – que dans leur disponibilité au même titre que le contenu textuel. Il y a cependant une différence, due au temps de l'évolution des contenus, entre les références au passé des citations bibliographiques traditionnelles et les liens hypertextuels entre les documents. Les premiers ne font référence qu' à du passé identifiable et immuable. Les seconds ne sont représentés que par un pointeur vers des données qui elles ne sont pas immuables. Des travaux de plus en plus nombreux – et certains moteurs de recherche – utilisent ces liens sans toutefois aborder ce problème de volatilité. La différence que nous évoquons modifie la sémantique des méthodes qui sont utilisées. Par exemple, la méthode des cocitations introduite par Small (1973) permet de structurer un corpus par les citations qu'il fait dans son passé. L'utilisation de cette méthode sur un graphe de citations qui n'est plus seulement orienté vers le passé, comme celui de la Toile, permet de faire émerger de nouvelles interprétations (Prime-Claverie et al., 2004) où la structuration n'est plus seulement dans l'espace documentaire mais dans l'espace des acteurs qui ont participé à la publication des documents. La particularité du filtrage et du routage par rapport à la recherche documentaire est que la collection de documents est dynamique dans le sens où l'on a à gérer un flot de documents. Par contre, les besoins d'informations sont relativement statiques. Cette particularité liée au flot et donc au temps est bien évidemment présente dans tous les travaux. Nous ne donnerons donc pas de références particulières. On peut cependant insister sur un aspect particulier de ce sous-domaine qui concerne la découverte de « nouveautés ». Une piste de TREC 7 est consacrée à cette activité depuis 2002 et permet à travers les actes de la conférence de connaître les acteurs de ce sous-domaine. Ce rapide panorama des interactions entre recherche d'information et aspects temporels montre que les spécificités temporelles sont traitées au cas par cas. Malgré tout il y a une continuité de problématique. Le temps de l'univers du discours énonce des propositions dont il assure qu'elles sont vraies à certains instants ou pendant une certaine période. Les documents qui contiennent ces propositions sont eux -mêmes sujets à évolution au cours du temps historique, à condition de distinguer comme nous l'avons modélisé l'identifiant d'un document de son contenu. La date de publication dans le temps historique permet à un lecteur de cerner la signification des dates mentionnées dans l'univers du discours, et au-delà lui permet de replacer tout le contenu textuel dans le cadre culturel de son époque d'écriture. La recherche documentaire connaît bien les problèmes de polysémie, et cette dernière est toujours augmentée par l'accroissement du volume des collections. Les concepts évoluent au gré des évolutions des civilisations, le vocabulaire évolue lui aussi, mais certains mots sont réutilisés avec des sens différents, toute l'étymologie est là pour nous le rappeler. Toutefois la relative jeunesse des documents électroniques fait que la très grande majorité des documents disponibles sous forme numérique sont contemporains, si bien qu'il n'y a pas eu d'études prenant en compte en recherche documentaire l'évolution du sens des mots .
Cet article présente un panorama des liens entre recherche d'information et aspects temporels des documents. Une première analyse amène à distinguer le temps évoqué par le discours des documents et le temps de situation de ces documents dans le temps historique. Le temps de l'univers du discours doit être pris en compte dans la phase d'indexation de la recherche documentaire. Il peut être traité par extraction d'entités nommées et plus finement par une analyse de la langue pour déterminer les relations temporelles. Le traitement des informations de catalogage si elles ne suivent pas des normes très strictes est en fait un problème voisin. Le temps de publication, qui est dans le monde de l'édition traditionnelle la principale donnée de catalogage à caractère temporel, devient dans le monde du document numérique une donnée fondamentale permettant de modéliser l'évolution des documents. Nous introduisons les notions de collections « muable » et immuable. Nous évoquons aussi les questions de granularité de représentation du temps.
sciencesInfo_05-0351970_tei_DN_084_0055.tei.xml
termith-351-communication
L'étude des médias s'intéresse aux formes, aux significations, aux modalités deproduction et de réception, au contexte historique et aux enjeux politiques descontenus d'actualité diffusés par voie imprimée, audiovisuelle ou numérique. Qu'elle soit regroupée sousl'appellation media studies dans le monde académiqueanglophone, qu'elle se déploie en France dans l'espace interdisciplinaire dessciences de l'information et de la communication (sic) ouà partir de branches spécialisées de la sociologie comme des sciences du langage ,l'étude des médias réunit des approches plurielles mais relevant trèsmajoritairement des sciences humaines et sociales (shs) .Toutefois, depuis quelques années, avec le développement de l'internet, les médiasont été l'objet d'analyses issues de disciplines scientifiques bien différentes. Desconcepts et démarches sont importés des sciences physiques et de l'informatique pourmener des observations – à dimension fortement quantitative – de la diffusiond'informations sur l'internet. Ce phénomène est loin d' être marginal. Au contraire ,il se caractérise par la grande visibilité – au niveau international et jusqu'auprèsdes professionnels des médias en ligne – de travaux réalisés par des physiciens etdes informaticiens. Dans une telle situation, l'étude des médias n'est plus ledomaine réservé ou de prédilection des sciences humaines et sociales. Plusexactement, dans plusieurs travaux sur l'information en ligne, les méthodes decollecte à grande échelle et de traitement statistique d'énormes volumes de donnéess'imposent, ou sont reprises par des chercheurs en shs quiles mixent avec leurs méthodes plus habituelles. Afin de lever toute ambigüité ,précisons que l'emploi de méthodes quantitatives outillées par l'informatique neconstitue bien évidemment pas une nouveauté en soi pour l'étude des médias. Parexemple, des logiciels de lexicométrie ou des outils de traitement automatique de lalangue sont employés depuis plusieurs décennies pour analyser le discours de presse .De plus en plus fréquemment rangées sous l'appellation de digitalmethods, les méthodes auxquelles nous consacrons cet article sont égalementquantitatives et outillées par l'informatique. Mais avec l'internet, elles ont cecide nouveau : pouvoir s'appliquer immédiatement à des corpus quasi infinis carnativement numériques. C'est donc bien dans l'envergure et la rapidité de leur application que réside lanouveauté de l'emploi des digital methods en étude desmédias. Derrière l'avalanche souvent impressionnante des chiffres et représentationsgraphiques livrés dans les travaux de ce type, l'objectif est ici de pointer lesapports et les limites du recours à de telles méthodes. Celles -ci offrent despossibilités nouvelles à l'étude des médias, notamment au niveau de la taille descorpus rendus disponibles pour l'observation et le rendu synthétique des résultats .Mais, parallèlement, ces méthodes souffrent dans bien des cas d'une certainesuperficialité des indicateurs et d'un manque d'approfondissement qualitatif del'analyse des contenus médiatiques dus aux nécessités de systématisation etd'automatisation de l'observation à grande échelle. Parfois aussi, un déficit plusgénéral de problématisation en amont de la recherche, voire un manque d'intégrationde la dimension sociologique de la production et de la réception des contenusmédiatiques, peut conduire à des interprétations assez sommaires. Pour illustrer ceséléments de réflexion, nous reviendrons sur quelques recherches consacrées à laquestion de la diversité de l'information en ligne. Le choix de cette thématique est dû à plusieurs raisons. D'abord, étudier ladiversité de l'information en ligne incite à comparer l'offre d'informations dansdes espaces médiatiques pluriels, en l'occurrence plusieurs sites web ou catégories de sites (sites de journaux, de radios, de télévisions ,mais aussi sites participatifs, blogs, etc.). Ceci rend particulièrement opportunesles possibilités d'analyse sur de larges corpus fournies par les digital methods. De ce fait, nous examinerons trois recherches exploitantgraduellement les possibilités de telles méthodes. Par ailleurs, le choix de cettethématique est intrinsèquement lié à nos propres activités de recherche : enpratique, nous avons expérimenté ce type de méthodes en coordonnant une recherchecollective sur la diversité de l'information en ligne, associant des chercheurs eninformatique et en sciences de l'information et de la communication. C'est donc untémoignage réflexif qui est également proposé. Mais avant de présenter ces recherches et ce retour d'expérience, il paraîtnécessaire de situer le contexte scientifique dans lequel ils surviennent et depréciser que ces travaux prennent place dans un cadre beaucoup plus large où serejoignent l'affirmation d'une « nouvelle science des réseaux » – très largementappuyée sur la physique et les mathématiques – ainsi que le plaidoyer pour desméthodes d'observation spécifiques (digital methods), tirantprofit des capacités de traitement informatique et des matériaux numériques del'internet. Ce cadrage théorique initial permettra de mieux comprendre l'emprisegrandissante des démarches quantitatives et statistiques à propos de l'informationen ligne, et les enjeux épistémologiques plus profonds qui en découlent. Dans les recherches qui sont au centre de notre propos, les références aux textesfondateurs de l'étude des médias voisinent avec des renvois à des publicationsen informatique, mathématiques, physique ou encore biologie. À titre d'exemple ,dans la bibliographie de l'une d'entre elles (Leskovec etal., 2009), l'ouvrage The People's Choice dePaul Lazarsfeld, Bernard Berelson et Hazel Gaudet (1944), considéré comme untravail inaugural en matière de sociologie empirique des médias de masse, estréférencé juste après une modélisation de la maturation folliculaire, issue d'unacte de colloque en biologie mathématique (Lacker, Peskin, 1981). De manièresemblable, dans une autre de ces recherches (Asur et al. ,2011), un article rétrospectif de Maxwell E. McCombs et Donald L. Shaw (1993 )sur leur propre concept d ' agenda setting, concept largement travaillé dans l'étude des médias, précèdeune synthèse de Michaël Mitzenmacher (2004) sur les lois de puissance et lesdistributions logarithmiques publiée dans la revue InternetMathematics. Un tel voisinage de références, en apparence trèshétéroclite, surprendra certainement le lecteur non familier de ce typed'écrits. Il s'inscrit pourtant dans une vaste entreprise scientifique engagéemaintenant depuis plus d'une dizaine d'années. Depuis que l'internet constitueun objet de recherche en tant que tel, des chercheurs en sciences dites exacteset plus précisément en sciences physiques et en mathématiques ont tenté d'enmodéliser la structuration, à travers une autoproclamée « nouvelle science desréseaux ». Dans son versant empirique, cette perspective théorique s'appuie trèsfortement sur des méthodes de traitement informatique de données numériques. Aupoint de revendiquer des méthodes nouvelles, des digitalmethods propres à l'analyse de l'internet, appliquées à l'étude del'information en ligne dans les recherches examinées ici. Depuis la fin des années 90 se succèdent des travaux, initiés principalementpar des physiciens et des informaticiens, consistant à « mesurer »l'internet. Une première consécration académique est intervenue avec lapublication de ces derniers dans les revues Science et Nature. Dans la livraison 401 de cette dernière ,paru en septembre 1999, figurent deux résumés emblématiques de tellesdémarches. Un premier article s'évertue à estimer le diamètre du World Wide Web, indiquant que la distance parhyperliens entre toutes les pages web est en moyenne de 19 clics, et enconclue à une structure hautement connectée de l'internet (Albert et al., 1999). Après avoir observé une répartitiontypique des lois de puissance entre un faible nombre de sites très fourni enpages web et de nombreux sites formés d'une poignée de pages, le secondarticle propose une modélisation de l'expansion future de l'internet( Huberman, Adamic, 1999). Ces recherches pionnières, et leur grandevisibilité conférée par la publication dans des revues d'envergure mondiale ,entraînent dans leur sillage une multitude d'autres travaux tout au long dela décennie 2000. Un nouvel espace scientifique va ainsi progressivement seformer, revendiqué comme spécifique et dénommé « nouvelle science desréseaux ». L'idée est de faire du réseau un concept pandisciplinaire, des'appuyer sur les éléments de connaissance issus de différentes disciplinesau cours du temps (théorie mathématique des graphes, physique fractale ,biologie cellulaire, sociologie des réseaux sociaux), puis de les appliquerà la description et à la compréhension de l'ensemble des phénomènes reposantsur une structure réticulaire, à commencer par l'internet. Un tel projet estnotamment explicité dans un ouvrage coordonné par trois des figures de prouede cette « nouvelle science des réseaux » : Mark Newman, Albert-LaszloBarabasi, et Duncan J. Watts (2006). Consistant essentiellement en uneanthologie des recherches passées et contemporaines recourant au concept deréseau, l'ouvrage débute avec l'annonce d'une nouvelle ère scientifique enla matière. D'après les auteurs, les recherches sur les réseaux sont restéesjusqu'ici trop théoriques du côté des sciences dites exactes – lasophistication artificielle des modèles mathématiques de graphes estregrettée –, et trop peu systématiques du côté des shs. À cet égard, les velléités empiriques de la sociologie desréseaux sociaux sont jugées très opportunes mais jusqu'ici limitées par desméthodes d'observation et de recueil insuffisamment quantitatives. L'arrivéede l'internet, expliquent les auteurs, a permis de dépasser ces deuxlimites, et d'ouvrir ainsi l'horizon pour (re-)fonder une science desréseaux qui traverse toutes les disciplines scientifiques. D'une part ,estiment-ils, l'internet fait partie des « real-worldnetworks », des réseaux animés dont l'évolution et la dynamiquesont mues par les pratiques des acteurs sociaux. D'autre part, ces pratiquessociales peuvent être analysées à grande échelle, à partir de traitementsautomatisés, en raison de la nature numérique des immenses jeux de donnéesmis à disposition avec l'internet : « Not only has the Internet focusedpopular and scientific attention alike on the topic of networks andnetworked systems, but it has led to data collections methods for socialand other networks that avoid many of the difficulties of traditionalsociometry » (Newman etal., 2006 : 6). C'est donc dans cette double optique qu'émerge la « nouvelle science desréseaux ». Il s'agit non seulement de rassembler des connaissances éparsestouchant aux réseaux pour élaborer un paradigme transversal et unifiant .Pour ces chercheurs acculturés aux méthodes quantitatives, il s'agit ausside saisir l'occasion fournie par la composante numérique de l'internet ,informatiquement exploitable, pour tester et élaborer des modélisationsmathématiques à grande échelle de ce qu'ils estiment être un réseau« réel », autrement dit en lien avec des activités sociales. Sans toujours s'inscrire explicitement dans ce courant de la « nouvellescience des réseaux », plusieurs chercheurs vont néanmoins partager une mêmeposture, consistant à tirer profit des ressources numériques de l'internetpour y déployer des méthodes d'analyse quantitative embrassant de largescorpus de données. Expérimentées de façon assez dispersée dans un premiertemps, ces méthodes ont maintenant une assise plus stable, jusqu' à gagnerune certaine autonomie. En France, le collectif WebAtlas initié par Franck Ghitalla a joué un rôle important dans ladiffusion de ces méthodes, avec notamment la mise au point d'outils decartographie de l'internet (Navicrawler, Gephi), et en essaimant autant vers des applicationsindustrielles (Linkfluence) que vers la mise enplace de structures d'appui aux recherches en shs (Médialab de Sciences Po). Au niveau international, c'est sans doute Richard Rogers qui a le plusfortement affirmé cette volonté avec la Digital MethodsInitiative, coordonnée depuis l'université d'Amsterdam. En effet ,Richard Rogers (2010 : 242) plaide pour le développement de méthodesd'observation spécifiques à l'internet (digitalmethods) plutôt que l'adaptation des méthodes classiques des shs à ce nouvel objet (digitizedmethods) : « A series of volumes and handbooks hasnow appeared where the researchers continue to develop quite a classicsocial scientific armature, which includes interviews, surveys ,observation, and others. What I would like to point out in particular isthese could be categorized or conceptualized as digitized methods. Thatis, taking methods – existing methods – and trying to move themonline ». Contre cet emploi des bonnes vieilles méthodes pour étudier l'internet ,Richard Rogers milite pour des méthodes nouvelles qui soient au plus près duterrain, terrain numérique s'entend : « What I'd like to try to do [. ..] isintroduce a new era in Internet-related research where we no longer needto go off-line, or to digitize method, in order to study the online .Rather, in studying the online, we make and ground findings aboutsociety and culture with the Internet. Thus, the Internet is a researchsite where one can ground findings about reality » (ibid. : 243). En comparaison des promoteurs de la « nouvelle science des réseaux » évoquésprécédemment, Richard Rogers et les chercheurs gravitant autour de la Digital Methods Initiative possèdent une proximitébeaucoup plus forte avec les shs. Leur approche del'internet est moins formalisée sur le plan mathématique, ils s'interrogentde façon approfondie sur les interprétations à apposer aux donnéescollectées, et n'érigent pas le réseau en référent paradigmatique absolu .Néanmoins, malgré ces différences d'ordre théorique et méthodologique, onpeut déceler plusieurs points de convergence entre les courants de la« nouvelle science des réseaux » et de la Digital MethodsInitiative quant à l'appréhension de l'internet. Premier pointcommun : l'internet est considéré comme un objet de recherche en soi, digned'intérêt à lui seul. Plus encore, Richard Rogers liste les sous-domainesd'étude de l'internet qu'il convient d'investiguer en tant que tels : lessites, mais également les liens hypertextuels, les moteurs de recherche, lessphères du web, etc. Deuxième point de convergence :les éléments observés directement sur l'internet ne sont pas vus comme depurs artefacts, ils sont aussi censés renseigner sur les pratiques socialesqui les activent. À titre d'illustration, voici le premier exemple donné parl'auteur dans son article-manifeste de 2010 : le projet Google Flu Trends (Ginsberg et al., 2009 )de cartographie de la propagation internationale de la grippe. Ces cartessont élaborées à partir de la géolocalisation des requêtes des internautessur le terme flu dans Google, et s'avèrent trèsproches de celles rendues avec quelques jours de décalage par les organismesinstitutionnels de surveillance de l'épidémie. Troisième position commune :la matérialité entièrement numérique de l'internet est vue comme un terrainpropice à des observations exhaustives. Ce dernier point justifie le recoursà des méthodes outillées par l'informatique comme moyen de collecte et detraitement d'immenses jeux de données. Ainsi Richard Rogers et son équipedéveloppent-ils plusieurs outils logiciels destinés à exploiter lesressources numériques de l'internet, avec en outre un soin tout particulierporté au design – couleurs différenciées des liensentrants et sortants, nuages de tags pour lesanalyses de contenu, etc. – pour faciliter l'appropriation de cesobservations extrêmement volumineuses. L'application de telles prises deposition théoriques et méthodologiques à l'étude des médias n'est pas sansbouleverser cette dernière. On voit ici les apports résidant dans lescapacités de réaliser des analyses à grande échelle et, en même temps, leslimites consistant dans bien des cas à inférer des pratiques sociales àpartir de simples agrégats statistiques construits directement à partir duweb. Nous proposons de les examiner plus endétail à partir du cas d'analyses portant sur la diversité de l'informationen ligne. En matière d'étude des médias, la question du pluralisme de l'information esttrès ancienne. Elle interroge principalement la propriété des différents médiasen présence, ainsi que la diversité des contenus (sujets abordés dans l'agendamédiatique, angles choisis pour les traiter, opinions et points de vue exprimés ,etc.) proposés aux lecteurs, auditeurs, téléspectateurs. Cette question a connuun regain d'intérêt avec le développement de l'internet. Outre le fait des'ajouter à la presse écrite, à la radio, et à la télévision, l'internet alui -même fait naître une pluralité de nouveaux espaces médiatiques : webzines et sites de journalisme participatif, blogs, services dits de réseaux sociaux, en plus desdéclinaisons numériques des médias existants. Une telle profusion a conduit leschercheurs à se pencher sur la diversité de l'information en ligne. Parmi eux ,certains ont tenté d'évaluer la pluralité des informations offertes surplusieurs des espaces médiatiques de l'internet, expérimentant au passage lesopportunités de travailler sur des corpus élargis grâce aux digital methods. Les trois recherches examinées dans la présentesection poursuivent ce double objectif. La première (Carpenter, 2010) compareles thématiques abordées dans les sites de quotidiens imprimés avec lesthématiques mises en avant par les sites de journalisme participatif. Ladeuxième (Leskovec et al., 2009) vise à observer lapropagation des principales informations à la « Une » de l'agenda médiatiquenumérique et à déterminer la réactivité des blogs parrapport aux sites de médias traditionnels. La troisième (Asur et al., 2011) s'attache aux principaux sujets de discussion sur Twitter pour voir s'ils sont lancés par les internauteseux -mêmes ou s'ils trouvent leur origine dans les sites de médias traditionnels .Ces recherches ont été choisies parmi les plus récentes autour de la diversitéde l'information en ligne, et surtout parce qu'elles recourent à des méthodesquantitatives outillées par l'informatique. Toutefois, elles le font de manièreplus ou moins intensive : de la simple assistance pour la constitution de corpusà l'analyse entièrement automatisée, apparaît une gradation variable dans lerecours aux digital methods. Des trois recherches examinées, celle de Serena Carpenter, professeureassistante dans une école de journalisme (Arizona State University) ettitulaire d'un doctorat en Media and InformationStudies, est sans aucun doute la moins engagée dans les digital methods. Pour reprendre la dichotomieproposée par Richard Rogers, on pourrait même dire que cette rechercheemprunte à la fois aux digital methods et aux digitized methods. Les digitalmethods sont mobilisées pour constituer le corpus et atteindre unecertaine exhaustivité vis-à-vis de l'objectif visé par la recherche. Maisl'analyse des données ainsi récoltées est beaucoup plus usuelle etartisanale, pratiquée « à la main » diraient les chercheurs en informatique .Avant d'entrer dans le détail de cette recherche, rappelons -en l'objectif :il s'agit de comparer la diversité de l'information offerte par les sites dejournalisme participatif avec celle des versions web de quotidiens « papier ». Ici, la matérialiténumérique des informations et leur facilité de collecte à partir del'internet ont été exploitées pour conduire une étude qui couvre l'ensembledu territoire des États-Unis. De façon exhaustive, les 50 États ont étécouverts par l'étude. Dans chacun des États, ont été identifiés les sitesparticipatifs et en particulier leur ville d'implantation. Et si unquotidien imprimé était diffusé dans une de ces villes, alors son site web était retenu. On en arrive à une liste de 122sites web, se répartissant entre 72 sites dejournalisme participatif et 50 sites de quotidiens « papier », avec toutjuste un quotidien par État donc. Les articles apparaissant sur la paged'accueil de ces 122 sites ont été collectés pendant une période de un mois( mars 2007) pour aboutir à un total de 6485 articles. Au-delà du caractère volumineux du corpus, il convient de souligner laplus-value apportée par l'internet comme moyen d'accès commode à des donnéesconcernant des espaces géographiquement très dispersés. S'il avait fallurecueillir les articles « papier » de tels quotidiens, il aurait fallu soitcontacter directement chacun des médias visés, soit passer par des servicesd'archive ou des centres de documentation sans forcément l'assurance d'unaccès unique à toutes les données souhaitées. On voit donc là les facilitésprocurées au chercheur utilisant des méthodes de collecte adaptées auterrain numérique de l'internet : il peut beaucoup plus librement déterminerson corpus, sans véritable contrainte extérieure, et se l'approprierconcrètement de façon plutôt confortable (rapatriement et thésaurisation dedonnées à distance, depuis son propre bureau. .. d'ordinateur). Dans laprésente recherche, la logique des méthodes spécifiques à l'internet n'esttoutefois pas poussée jusqu' à son terme. En effet, une fois le corpusrassemblé, et alors que sa matérialité numérique autoriserait destraitements automatiques, le choix est au contraire fait de retourner à desméthodes d'analyse beaucoup plus traditionnelles. À cet égard, une opérationest révélatrice : les articles, après avoir été partitionnés en deuxéchantillons (482 articles pour les sites de journalisme participatif; 480pour les sites de quotidiens), sont imprimés sur des feuilles séparées .Chaque article est alors soumis à l'expertise d'étudiants recrutés pour enidentifier les thématiques (économie et finance, international ,environnement, etc.), en comptabiliser les hyperliens, et en relever leséléments multimédias (extraits sonores et vidéos). Une fois passés au tamisde cette grille d'analyse, le contenu et la structure des articles sontappréhendés sous forme de statistiques pour les besoins de la comparaison .En ce qui concerne les thématiques abordées par exemple, on apprend ainsique les sites de journalisme participatif tout comme les sites de quotidiens« papier » se concentrent sur les affaires gouvernementales, y consacrantrespectivement 27 % et 22 % de leurs articles, mais que les premiersprivilégient ensuite le divertissement (16 % de leurs articles), tandis queles seconds accordent une place équivalente à l'économie et à la finance( 16 % des articles aussi). Plus généralement, en prenant en compte larépartition de l'ensemble des thématiques abordées par chaque type de site ,la recherche en vient à conclure que l'agenda des sites participatifs estlégèrement plus équilibré que celui des sites de quotidiens « papier ». Enguise de bilan, on retiendra l'intérêt principal résidant dans le spectred'observation : ont été comparés les sites participatifs et leurs équivalents mainstream dans l'ensemble desÉtats-Unis. Avec une rapidité de collecte des données sans équivalent auregard de ce qu'aurait été le travail de documentation et d'archivage papierou audiovisuel. Mais, à partir d'un corpus aussi intéressant, l'analyses'avère assez sommaire, se limitant notamment, à une identification desgrandes thématiques abordées sans rentrer dans le détail des événementsmédiatiques et de leur mode de traitement par chaque publication. Bref ,l'analyse n'est pas très fouillée, faute sans doute d'une insuffisance demoyens affectée à l'observation de ce très volumineux corpus. Car cela enest bien la contrepartie : si l'internet permet la collecte de gros volumesde données, leur analyse n'en est que plus conséquente. Face à ce défi, desressources humaines plus consistantes auraient pu constituer une solution .Surtout, des méthodes de traitement automatisé, complément en quelque sortelogique aux procédés informatiques de collecte des données, auraient pu êtremises en œuvre. C'est le cas dans d'autres recherches où la démarche des digital methods est plus aboutie. La recherche sur laquelle nous allons maintenant nous pencher a été présentéeen 2009 par Jure Leskovec, Lars Backstrom et John Kleinberg, qui tousofficient dans des départements d'informatique (Computerscience), le premier à Stanford et les deux autres à Cornell. Bienque spécialistes d'informatique, ces trois chercheurs placent trèsclairement leur travail dans le domaine de l'étude des médias, se posantcomme initiateurs d'une alternative quantitative aux recherches qualitativesmenées jusqu' à présent en shs. Sur le pointparticulier du cycle des nouvelles, c'est-à-dire du renouvellement desévénements majeurs portés à la « Une » de l'actualité et de leur circulationentre les différents médias, ils entendent ainsi prolonger et dépasser lesrecherches accomplies jusqu'ici : « While the dynamics of the news cyclehas been a subject of intense interest to researchers in media and thepolitical process, the focus has been mainly qualitative, with acorresponding lack of techniques for undertaking quantitative analysisof the news cycle as a whole » (Leskovec et al., 2009 : 1). Pour atteindre un tel objectif, l'artillerie lourde des digital methods est déployée, tant sur le plan de la constitutiondu corpus, que sur celui de l'analyse automatisée et de la visualisation desrésultats obtenus. Le corpus affiché est énorme : durant une période de 3mois, ceux précédant l'élection présidentielle de 2008 aux États-Unis ,environ 20 000 sites web (les sites figurant dans lerépertoire Google News) et 1,6 millions de « blogs, forums and other media » ont été explorés àpartir de l ' api (interface de programmation )Spinn3r. Plus de 90 millions de documents, articles de sites et billets deblogs, auront été ainsi collectés. Enfin ,dernière étape dans cette constitution de corpus, ont été extraits de cettesomme de documents web environ 112 millions decitations (discours rapportés à l'intérieur des articles et billets), toutessoumises à un traitement automatisé. Ainsi les citations ont-elles étéregroupées en fonction de leurs proximités lexicales. Les phrases identiquesainsi que les segments de phrase identiques ou voisins ont constitué desagrégats (clusters) qualifiés de memes par les auteurs. Ces memes sontcensés représenter une idée semblable ou un « concept », celui exprimé dansune citation et ses multiples variations. À partir de là, sont comptabilisésles articles et billets relatifs à chaque meme. Undes principaux résultats issus de cette observation réside dansl'identification des 50 principaux memes et de leursuccession au cours du temps. Ce résultat est représenté sous formegraphique dans le texte scientifique soumis ici à examen, il est égalementproposé à la manipulation « interactive » del'internaute sur le site Meme-tracker attenant à larecherche (figure 1). Ici, on remarquera le soin apporté à la visualisationdes résultats, fréquent avec les digital methods. Ce graphique laisse apparaître quelles ont été les petites phrases de lacampagne présidentielle les plus reprises sur le web ainsi que la dynamique de leur apparition, montée en puissance, puisdisparition. D'autres résultats sont également intéressants au regard de laquestion de la diversité de l'information, et de son évolution avecl'internet. En effet, une partie de la recherche va s'atteler à découper lecorpus entre sites de mainstream media et blogs. Comparant leur réactivité respective vis-à-visdes 1 000 memes les plus importants en volume, leschercheurs calculent un écart moyen de 2,5 heures à l'avantage des sites demainstream media et en concluent à un certainsuivisme des blogs. En complément, il apparaît que les blogs ne sont àl'initiative que de 3,5 % des principaux memes propagés sur l'internet : leur contribution à un renouvellement de ladiversité de l'information, au regard des mainstreammedia, est alors fortement relativisé par les auteurs. Cesdifférents résultats sont plutôt stimulants en première analyse, et leurrendu chiffré quelque peu séduisant et novateur à l'aune des pratiqueshabituelles en étude des médias. Toutefois, ils ne sont pas exempts decritiques, loin de là. L'analyse reste assez rudimentaire malgré la tailledu corpus et la sophistication des outils employés. Et les conclusionstirées des observations souffrent parfois de coupables raccourcis. Pourrentrer dans le détail de ces critiques, on peut commencer par le corpus :s'il est colossal, il n'est pas complètement contrôlé. Les 20 000 sitescatalogués comme sites de mainstream media sont issusde Google News, dont le répertoire contient certesdes sites généralistes à large audience (à commencer par les émanations web des principaux journaux et des grandes chaînes detélévision) mais abrite aussi quantité de sites pureplayers, pour certains participatifs ou très spécialisés( information de niche). Quant aux blogs, c'est un véritable travail defourmi qu'il faudrait engager pour s'assurer de la conformité de chacun des1,6 millions de blogs aux objectifs de la recherche, plutôt que de sereposer entièrement sur l'expertise et les critères de sélection de Spinn3r. En résumé, la cohérence du corpus est loind' être assurée, et la revendication d'une comparaison entre sites de mainstream media et blogs d'information semble quelque peu hasardeuse. Une seconde critique tient auxcritères employés pour l'analyse de contenu pratiquée. Entièrement fondéesur des similarités lexicales (reformulations d'une suite d'occurrencesverbales), elle est présentée comme atteignant un stade sémantique à traversla notion de meme. C'est bien à partir de cettenotion que sont distingués ou rapprochés les articles et billets du corpus .Or, le contenu de ceux -ci ne se réduit pas forcément à la reprise plus oumoins variée d'une petite phrase. Celle -ci peut être noyée dans un longarticle abordant un tout autre sujet, être connotée de façon positive ounégative en fonction de l'orientation politique du site ou du blog, etc. Si les chercheurs restent le plus souventprudents dans leurs propos en parlant d'agrégats de citations, ilsfranchissent parfois le pas en prétendant à l'analyse de stories (récits ou sujets d'actualité) et affichent tout de mêmel'analyse du cycle des nouvelles comme objectif d'ensemble. Une troisième etdernière critique relèverait d'une autre prétention, celle de rendre comptede pratiques sociales par-delà les données et traces numériques laissées surle web. Dès l'introduction de leur article, lesauteurs mentionnent l'objectif d'examiner la circulation de l'information àla fois sur l'internet et entre les individus : « Whichpropagation on the web and between people typically occurs ? » (Leskovec et al. ,2009 : 1). Ils affirment par ailleurs que la citation (ou le meme) constitue un niveau pertinent d'analyse durapport des internautes à l'information – « it is at thisintermediate temporal and textual granularity of memes and phrases thatpeople experience news and current events » (ibid.) – sansmentionner aucune enquête sociologique de réception à ce sujet ni lanécessité de devoir en mener. Plus encore, cette conception a-sociologiquedes phénomènes médiatiques est attestée dans les velléités de modélisationdes cycles de propagation de l'information. D'abord, les modèles devariation lexicale des citations sont inspirés d'analogies avec lesmutations des signatures génétiques. Ensuite, de façon plus large, lessciences du vivant sont convoquées dans une vision darwinienne de lacirculation des nouvelles expliquant pourquoi certaines en viennent àremplacer d'autres : « One could imagine the news cycle as akind of species interaction within an ecosystem [. .. ], where threadsplay the role of species competing for resources (in this case mediaattention, which is constant over time), and selectively reproducing (byoccupying future articles and posts) » (ibid. : 6). Ces remarques laissent entrevoir certaines des impasses des digital methods, lorsque ces dernières prétendent déduire demacroanalyses de sites web les pratiques sociales afférentes. Toutefois, ledéveloppement des services dits de réseaux sociaux – dans lesquellesl'appropriation de l'actualité par les internautes peut s'accomplir – et ledéveloppement d'outils permettant d'en enregistrer les traces, ont ouvert lavoie à des recherches complémentaires. Nous allons le voir à propos de Twitter, celles -ci ambitionnent de rendre compte descomportements des internautes en matière de production et de diffusion del'information sur l'internet. Dans ce dernier travail, mené par trois chercheurs en informatique des hp Labs (Sitaram Asur, Bernardo A. Huberman et GaborSzabo) et un chercheur en physique appliquée de Stanford (Wang Chunyan) ,l'automatisation est encore plus poussée. Comme dans les travaux étudiésprécédemment, les digital methods sont ici aussiemployées pour constituer un très vaste corpus. Mais la part humaine trèsrestreinte au niveau de l'analyse du contenu de l'information en lignedistingue ce dernier travail qui, pourtant, se targue d'observer lescomportements des internautes en matière de transmission de l'information .En effet, cette recherche vise à décrire la circulation de l'information enligne, à travers l'exemple de la plateforme Twitter .Il s'agit de voir quels sont les sujets les plus discutés dans les tweets, et surtout d'expliquer les processus defocalisation puis de dilution de l'attention sur ces sujets. À ce titre, lesauteurs réinscrivent leur visée scientifique dans des problématiques trèscourantes de l'étude des médias, évoquant très explicitement les théories del ' agenda-setting pour mieux cerner le rôle des social media comme Twitter .Pour les besoins de l'étude, un échantillon de plus de 16 millions de tweets a été recueilli, sur une période de 40 jours ,entre septembre et octobre 2010. À partir d'une requête effectuée toutes les20 minutes sur l ' api de Twitter, ont ainsi été extraits le texte des tweets considérés (texte limité à un maximum de 140 caractères) ,le nom des comptes Twitter destinateurs, ainsi quel'heure de publication. Ces tweets ont étésélectionnés sur la base de mots-clés, correspondant aux trending topics affichés périodiquement par le service Twitter lui -même. Il faut donc bien comprendre que lacatégorisation en trending topics effectuée par Twitter est reprise telle quelle par les chercheurs .Ces derniers n'interrogent pas véritablement les critères d'élaboration decette catégorie, se contentant de supposer qu'elle est vraisemblablementfondée sur une analyse de fréquence des occurrences verbales au sein des tweets. Ils interrogent encore moins la qualité de laclassification opérée par Twitter, la jugeant dignede confiance et la reprenant donc à leur propre compte. Ainsi les trending topics sont-elles considérées comme unecatégorie équivalente à celle des sujets d'actualité dominants dansl'agenda, et la mesure effectuée par Twitter commefiable : « The trending topics, which are shown onthe main website, represent those pieces of content that bubble to thesurface on Twitter owing to frequent mentions by the community. Thusthey can be equated to crowdsourced popularity » (Asur et al., op. cit. : 1). Cet appui sur les catégorisations et mesures livrées directement par lesacteurs de l'internet n'est pas rare dans l'emploi des digital methods. Par exemple, plusieurs des applications de la Digital Methods Initiative s'appuient sur desservices de Google, avec toutefois la justificationde vouloir précisément interroger le rôle central de cet acteur dans laconfiguration de l'internet, sa prééminence dans la mise en visibilité etl'organisation de l'information en ligne. Dans les shs (et dans d'autres disciplines scientifiques), l'exploitationde données de seconde main se pratique également de façon courante, tout ens'accompagnant de précautions méthodologiques quant au statut des donnéesrécupérées. Ici, dans cette étude sur Twitter, riende tel : l'intervention des chercheurs se trouve reléguée au traitement dedonnées, sur la base de catégories et de mesures réalisées par des tiers ,très peu interrogées et pas contrôlées du tout. Cet écueil méthodologiquepose d'autant plus problème que la présente recherche, tout en accentuant lapart automatisée et non contrôlée de l'analyse, prétend pouvoir en tirer desenseignements quant aux pratiques des internautes en matière de diffusion del'information. En effet, elle s'intéresse au rôle joué par les twittonautes ,essayant de déceler quels sont les plus influents dans la propagation destrending topics sur Twitter. Une telle problématique place ce travaildans le domaine de la diffusion interpersonnelle de l'information. Il s'agitd'un domaine dont les origines remontent aux premiers travaux empiriques enétude des médias autour de la notion de « leader d'opinion », un domaineentre-temps beaucoup développé dans les sciences de gestion et le marketing( word-of-mouth), et connaissant une nouvelle vigueuravec l'idée de « marketing viral » à laquelle la « nouvelle science desréseaux » tente d'appliquer ses modèles (Mellet, 2009). Dans cetterecherche, nous ne comptons donc pas nous en tenir aux seuls facteurs de lanouveauté et de la concurrence entre les topics pourexpliquer la focalisation sur tel ou tel d'entre eux, même si l'on reprendla métaphore de la compétition sélective héritée des sciences du vivant : « On Twitter each topic competes with the others tosurvive on the trending page » (Asur et al., ibid. : 5). Onajoute à cela un facteur présenté comme autrement plus déterminant : le rôledes utilisateurs. À partir de là, sont recherchés les utilisateurs les plusinfluents, les propagateurs principaux de l'information, qualifiés de « trend-setters » à la manière des agenda-setters et autres gatekeepers enétude des médias. Après des calculs portant sur les comptes Twitter le plus souvent présents dans la propagationdes trending topics, les chercheurs avancent que lesvariables de l'activité (nombre de tweets postés parjour) ou de la taille du réseau de correspondants (le nombre de followers) ne sont pas significatives. En revanche –et ceci est présenté comme la principale découverte de la recherche –figurent parmi les comptes les plus fréquemment« re-tweetés » à la fois des comptes difficilement identifiables (VovoPanico, Keshasuja, LadyGonga, etc.) et aussi plusieurs comptes évoquant desnoms d'organisations médiatiques (Cnnbrk, Nytimes, Espn, El Pais, Reuters ,etc.). De ce constat, est tiré l'enseignement suivant : « This illustrates thatsocial media, far from being an alternate source of news, functions more asa filter and an amplifier for interesting news from traditional media » (ibid. : 7). Fort stimulante ,car contre-intuitive vis-à-vis d'hypothèses imaginant une information enligne plus diversifiée grâce à la multiplication de sources nouvelles surl'internet, une telle conclusion mériterait d' être formulée avec beaucoupplus de précaution. D'abord pour les raisons déjà énoncées : les trendingtopics constituent une catégorie créée et mesurée par le service Twitterlui -même, sans renseignements précis sur les conditions de son élaboration .Ensuite, parce que cette conclusion est fondée sur deux extrapolations nereposant sur aucune investigation sérieuse. D'une part, l'intitulé du compteTwitter est pris comme indicateur de l'identité de son propriétaire, maisles chercheurs ne démontrent pas que cnn est bienderrière le compte Cnnbrk ou que le compte Vovo Panico est celui d'unamateur et non d'une structure professionnelle d'information. D'autre part ,même en admettant que certains comptes appartiennent bien à desorganisations médiatiques, ces dernières peuvent propager des tweets dontelles ne sont elles -mêmes pas forcément à l'origine. Autrement dit, ilfaudrait une analyse beaucoup plus resserrée des tweets et de leurs auteurspour voir qui est cité puis éventuellement re-cité, qui est véritablement àl'origine de l'information. On réalise ici toute la nécessité de conduireune enquête de type sociologique auprès des acteurs propriétaires descomptes Twitter et, de façon plus générale, l'incomplétude d'une logiqueexclusive de digital methods. Dans le cadre d'un travail collectif sur le pluralisme de l'information en ligne, nous avonsexpérimenté les digital methods pour des raisonsanalogues à celles mises en avant dans les recherches présentées précédemment :la possibilité d'accès à un corpus quasi-exhaustif – l'ensemble des sitesfrançais d'information générale et politique dans le cas présent, soit plus de200 sites – et les nécessités de systématisation du traitement afférentes à lataille d'un tel corpus. Mais nous avons rencontré assez rapidement les limitespratiques et théoriques de l'emploi de telles méthodes. Ceci a conduit à leshybrider avec des démarches beaucoup plus contrôlées scientifiquement etéprouvées dans le domaine de l'étude des médias : le traitement des données n'aété finalement que semi-automatisé, laissant une grande place à l'expertisehumaine des chercheurs en shs; l'analyse quantitatives'est complétée d'un indispensable volet qualitatif pour atteindre uneconnaissance plus fine du pluralisme de l'information; une analysesocioéconomique des modalités de production et de consommation de l'informationa été ajoutée pour mieux saisir les résultats de l'analyse de contenu. Nousproposons de développer ces éléments à travers un témoignage réflexif. Celui -cine prétend pas au statut d'auto-analyse rétrospective, puisqu'il porte sur untravail en cours de réalisation et n'a pas été soumis à un strict protocoled'objectivation. Sans pouvoir parvenir à ce stade, nous nous efforceronstoutefois de livrer un retour d'expérience présentant aussi bien lesopportunités que les difficultés rencontrées. Avec une volonté double :prolonger la réflexion méthodologique sur les digitalmethods, et signaler aux chercheurs tentés par cette voie – dont toutlaisse à penser qu'elle est amenée à se développer – les écueils possibles maisaussi quelques pistes intéressantes à suivre. La visée principale de cette recherche est d'évaluer le niveau de pluralismede l'information en ligne. Plus précisément, le pluralisme de l'informationest considéré au regard de la diversité des sujets d'actualité abordés surl'internet. Il s'agit donc d'examiner quels sujets sont mis à la « Une » del'agenda médiatique numérique, de voir si une pluralité d'informationsdécoule de la multiplicité des sites (sites participatifs, blogs, webzines d'opinion, en sus desextensions numériques de journaux, radios, télévisions) ou si, à l'inverse ,une certaine redondance émane du travail de compilation effectué parcertains acteurs dominants de l'internet (portails, agrégateurs denouvelles). Le caractère éclaté de l'internet, en une myriade de sites, està la base de la problématique et des hypothèses de notre recherche. Par voiede conséquence, celles -ci ne peuvent être validées ou infirméesempiriquement qu' à la condition d'une prise en compte de l'ensemble desespaces de publication et de diffusion de l'information en ligne. Les digital methods permettent d'atteindre un telobjectif. Elles ont été employées pour rassembler l'information disperséesur de nombreux sites, et analyser la masse très volumineuse de donnéesainsi collectées. Pour autant, à chacune de ces étapes, constitution ducorpus comme analyse de contenu, le recours aux digitalmethods s'est avéré nécessaire mais non suffisant :continuellement, l'expertise des chercheurs spécialistes de l'étude desmédias a été sollicitée pour statuer sur les différents choix en amont etinterpréter les résultats des processus d'automatisation en aval. Lesméthodes de constitution du corpus de sites sont tout à fait révélatricesd'une telle imbrication. Recours aux outils informatiques et interventionhumaine ont été croisés dans les trois méthodes qui ont permis de délimiterun corpus de 209 sites d'information d'actualité en février 2011, corpus quel'on peut considérer comme quasi exhaustif pour ce qui est de l'informationgénérale et politique au niveau de la France. La première méthode a consisté à explorer les répertoires de sitesd'information d'actualité disponibles en ligne (répertoires de Google Actualités, iplj, Rezo, et Wikio), en neretenant que les sites correspondant au périmètre préalablement défini( sites français d'information générale et politique). La deuxième a concernéplus directement une catégorie de sites, les blogs ,particulièrement nombreux et difficiles à repérer. À partir d'uneliste-racine de blogs déjà identifiés, le logiciel Navicrawler a été utilisé pour découvrir les sites voisins liéshypertextuellement. Leur adéquation avec la définition d'informationgénérale et politique a ensuite été vérifiée pour autoriser ou non leurintégration au corpus, comportant 111 blogs. Unetroisième méthode s'est appuyée sur l'analyse des liens pointés via Twitter : les url pointés par 22 000 comptes, comptes identifiésdans la recherche comme étant particulièrement en prise avec l'actualitégénérale et politique, ont été mis en correspondance avec les url des sites déjà présents dans le corpus. Ainsicelui -ci a -t-il pu être augmenté de quelques sites grâce à cette troisièmeméthode de nature plus inductive. Au niveau de l'analyse de contenu, les digital methods se sont révélées un appui àl'intervention humaine plutôt qu'une solution exclusive. Au tout début duprojet de recherche, il avait pourtant été envisagé, notamment par descollègues du laboratoire d'informatique, de réaliser une analyse entièrementautomatisée du contenu des articles. Ceci était notamment motivé par levolume d'articles produits au sein de notre corpus de 209 sites : environ 3500 articles d'information générale et politique, en moyenne, paraissentchaque jour. Mais cette perspective d'automatisation complète de l'analysede contenu s'est heurtée à deux obstacles majeurs. Le premier concerne lacollecte des données : les articles sont difficilement isolables au seind'une page web par un logiciel d'aspiration qui a tendance à charrierl'ensemble des contenus (articles, mais aussi publicités, liens, etc.). Unealternative plus commode réside alors dans la collecte des flux rss d'information générale des sites où chaquearticle est identifiable par son titre, son chapeau, sa date de publication ,et son url. Cette solution a été retenue pour lacollecte automatique des données, mais elle ne permet pas d'accéder à latotalité du contenu de l'article : au moment de l'analyse, si le chercheurne parvient pas à identifier le sujet de l'article à partir de son seultitre ou de son chapeau, alors il doit se rendre sur l ' url d'origine et consulter la totalité du texte. Le secondobstacle à cette automatisation intégrale tient à l'objectif de la présenteanalyse de contenu. En effet, ce qui est recherché est le sujet d'actualitétraité dans l'article, correspondant au cadrage médiatique primaire d'uneexpérience factualisée, au-delà de son cadrage médiatique second – angle ,opinion, etc. (pour une définition détaillée, voir Marty et al., 2010). Or, l'identification du sujet d'actualité d'unarticle est une opération qui n'est pas réalisable par une machine et unlogiciel, contrairement, par exemple, au repérage de la duplication d'unecitation et des ses variantes tel qu'effectué par le Meme-Tracker (Leskovec et al., 2009). Aumieux, les digital methods peuvent servir d'aide à laclassification, pour permettre un premier défrichage de l'énorme volumed'articles : le logiciel de collecte et traitement des données spécialementdéveloppé pour ce programme de recherche (logiciel iprina-ipri News Analyzer )dispose ainsi d'un module d'identification des segments répétés qui permetde rassembler les articles dont les titres et les chapeaux présentent dessimilarités lexicales; en parallèle, les clusterings d'articles effectués par Google Actualités sontégalement récupérés comme indicateurs de possibles sujets d'actualitédominants. Mais, s'il permet de préparer le terrain et de gagner un tempsprécieux, ce premier débroussaillage ne se substitue pas au travail humaind'identification des sujets d'actualité : tous les articles, y compris ceuxpré-indexés automatiquement, sont soumis à l'analyse de chercheursspécialistes de l'étude des médias. Ainsi les digitalmethods, même si elles sont mobilisées dans ce travail d'analyse decontenu, sont-elles encadrées par l'expertise humaine qui permet de resteren quelque sorte maître de la recherche. Et cela distingue cette recherchede celles examinées précédemment : par exemple, là où les trending topics de Twitter sont adoptéstels quels comme catégories valides d'analyse (Asur etal., 2011), ici la pertinence des clustersde nouvelles de Google Actualités est évaluée etau besoin rejetée afin de garder une cohérence vis-à-vis des objectifs etcatégories d'analyse propres au programme de recherche (notion de sujetd'actualité). Cependant, il faut le savoir, sur d'aussi vastes volumes dedonnées, le contrôle des digital methods et leurcroisement avec une analyse « à la main » a un coût, justement humain. Àtitre d'illustration, l'identification des sujets d'actualité et laclassification des 3 500 articles d'une journée requièrent près d'unesemaine de travail à temps plein, répartie entre les deux chercheurs quiassurent la procédure d'intercodage. L'identification des sujets d'actualité au sein du corpus permet de dessinerl'agenda médiatique de l'internet, sur une période donnée. Nous pouvons mêmeavoir une estimation quantitative de son degré de pluralisme, en reprenantcertains critères élaborés pour mesurer la diversité culturelle (Benhamou ,Peltier, 2006). Appliqué au cas de l'information en ligne, le critère devariété correspond ainsi au nombre de sujets abordés. Et un second critèrede diversité, l'équilibre, correspond lui à la répartition des sujets entreles différents articles. À travers une première observation exploratoire ,réalisée sur deux journées de novembre 2008, nous avons pu constater unegrande variété des sujets abordés sur l'internet (plus de 300 pour chacunedes journées) et en même temps un grand déséquilibre de l'information enligne : quelques sujets ultra-dominants se retrouvent dans de très nombreuxarticles tandis que les autres sujets ne sont abordés que de façon isolée( dans un article ou une poignée d'articles). Plus précisément, une tellerépartition où 20 % des sujets occupent 80 % de l'agenda médiatique del'internet semble typique des distributions parétiennes, et peu innovante en regard de certaines hypothèses dediversité accrue sur l'internet, énoncées par exemple sous la formule de Long Tail (Smyrnaios et al. ,2010). Au cours du printemps 2011, une nouvelle observation est menée à plusgrande échelle (temporalité d'un mois). Elle reprend les critèresquantitatifs de variété et d'équilibre, tout en ajoutant un critèresupplémentaire, de nature qualitative cette fois : la disparité. Àl'intérieur d'un même sujet d'actualité, il s'agit d'analyser la disparitéde traitement journalistique entre tel ou tel article, entre tel ou telsite. Après identification des différentes classes de discours portés sur unsujet d'actualité dominant (explosion dans une centrale nucléaire au Japonou intervention militaire aérienne en Libye), un échantillon d'une trentained'articles, représentatif de ces classes de discours et des différentescatégories de sites, est constitué. Il est alors l'objet d'une analysesémiopragmatique (modes d'énonciation éditoriale, relations texte-image ,représentations du lecteur, registres discursifs) qui vise à cerner lesdifférents cadrages (cadrages seconds), opinions et points de vue exprimés. Une telle démarche permet d'atteindre un stade d'évaluation du pluralisme (ladisparité de traitement journalistique) plus fin que de seules mesuresquantitatives (variété et distribution des sujets). Cette analysequalitative et sémiopragmatique de discours apporte donc des compléments auxanalyses quantitatives et souvent purement lexicales autorisées par les digital methods. Et celles -ci fournissent en retourune assise scientifique supplémentaire aux analyses de discours plustraditionnelles. Ces analyses sémiopragmatiques de nature qualitative ,puisqu'issues d'un échantillon représentatif de l'ensemble des articlesproduits sur un même sujet (plusieurs centaines pour les sujetsultra-dominants du jour), peuvent prétendre à une portée et à unegénéralisation jusqu'ici difficiles à affirmer dans le domaine de l'étudedes médias. Une telle complémentarité entre quantitatif et qualitatif ,appuyée sur la combinaison entre digital methods etméthodes plus traditionnelles, peut ainsi enrichir l'analyse de la diversitéde l'information en ligne. Et cette analyse de contenu peut elle -même sedoubler d'une approche plus sociologique des modalités de production ,diffusion et réception de l'information en ligne, afin d'investiguer lespoints laissés aveugles par les digital methods – etéviter les extrapolations parfois douteuses que nous avons pu pointer dansl'examen précédent de certaines recherches. Par exemple, lors de la phase exploratoire de 2008, nous avons tenté decoupler notre analyse quantitative de contenu avec des enquêtes (entretienset observation directe) auprès des rédactions de sites web de notre corpus. Ceci a permis de distinguer deux modalités deproduction (Damian et al., 2009). D'un côté, desrédactions « productivistes » doivent couvrir l'ensemble des domaines del'actualité du jour avec des moyens limités et ont donc tendance à s'appuyersur des matières informationnelles déjà produites par des tiers (agences ,autres médias). De l'autre côté, des rédactions « anglistes » choisissentdélibérément de ne pas suivre l'agenda médiatique général ou bien de traitercertains sujets avec un angle ou un approfondissement particulier. Unecorrélation entre cette dualité des rédactions, et la tendance ambivalente àla variété et au déséquilibre de l'information en ligne, a alors pu êtreenvisagée. Les enquêtes au niveau des conditions de production viennentainsi éclairer les résultats de l'analyse de contenu. Au cours de l'année2011, l'analyse de contenu sera mise en regard des modalités de diffusion etde réception de l'information. Une analyse des articles recommandés et misen circulation sur Twitter d'une part, et une priseen compte de l'audience des sites d'autre part, donneront des indicationsquant aux sujets d'actualité qui retiennent l'attention des internautes. End'autres termes, une certaine mesure du pluralisme « consommé » (Benhamou ,Peltier, 2006) pourra ici être comparée avec celle du pluralisme « offert »fournie par l'analyse de contenu. Toutefois, de telles indicationsstatistiques ne formeront qu'une analyse partielle de la réception del'information en ligne. Pour être pleinement étudiée, cette dernièremériterait de recourir à des techniques d'enquête beaucoup plus qualitatives.Nous touchons donc l'une des limites de la présente recherche collectivequi, faute de moyens humains suffisants pour mener une enquête qualitativede réception en propre, devra essentiellement s'appuyer sur le traitement dedonnées secondaires ou sur la littérature existante. Néanmoins, même demanière imparfaite, cette recherche s'efforcera de replacer les résultats del'analyse de contenu, en partie appuyée sur les digitalmethods, dans le contexte social de production, diffusion etconsommation de l'information en ligne. Les exemples rassemblés ici illustrent l'emprise croissante, dans l'étude desmédias et en particulier de l'information en ligne, des digital methods. Celles -ci ont permis de parvenir à un niveaud'exhaustivité dans les corpus observés, niveau inatteignable sans leurconcours. Elles ont concomitamment fourni des solutions de traitementautomatique adaptées à la taille des vastes jeux de données collectés surl'internet. Enfin, sur le plan de la visualisation des résultats, elles offrentégalement une palette d'outils à l'ergonomie très travaillée, rendant la lecturebeaucoup plus assimilable. Pour autant, l'examen détaillé de certainesrecherches montre que les digital methods ne peuvent sesuffire à elles -mêmes, en tout cas lorsqu'elles sont appliquées dans uneperspective a-sociologique en phase avec la philosophie première de la« nouvelle science des réseaux ». De fait, la perspective d'une automatisationtotale de l'analyse s'avère quelque peu illusoire, sauf à accepter descatégorisations souvent approximatives et un certain impressionnismequantitativiste : « La réalité comme réalité vécue par des êtres humains qui fontpartie de différents contextes et cultures – la réalité telle qu'elle intéresseles shs – revendique une épaisseur qui ne se laisse passi facilement aplatir. Par nécessité méthodologique, la nsr [nouvelle science des réseaux] est donc forcée d'épurer unphénomène pour le faire entrer dans sa grille d'analyse formelle » (Rieder ,2007 : 15). Dans bien des cas examinés ici, les compléments fournis par une approchequalitative et par une démarche d'interprétation des résultats appuyée sur lessciences humaines et sociales, s'avèrent indispensables. De façon plus générale ,les limites de recherches prétendant appréhender les pratiques de communicationà partir de seuls artefacts numériques doivent être prises en considération etéventuellement comblées par des observations sociologiques au plus près desacteurs, afin de ne pas confondre traces d'usages et usages sociaux. En effet ,au-delà du cas de l'information d'actualité ou citoyenne en ligne, les étudesportant sur l'internet de façon plus globale (pratiques de sociabilité sur lesréseaux socionumériques, travail à distance, jeux en ligne, etc.) présentent unetendance à la « quantophrénie statistique » (Jouët, 2011 : 80) qui mériteraitpourtant d' être contrebalancée par une remise en contexte social des phénomènescommunicationnels. Cette dernière remarque, en forme de recommandationméthodologique, pourrait s'apparenter à un vœu pieux si l'on en croit lesambitions récentes des chantres de la « nouvelle science des réseaux ». Eneffet, c'est tout le contraire qui est visé : profiter des derniersdéveloppements technologiques, et notamment de la disponibilité des données degéolocalisation issues de l'emploi croissant des terminaux mobiles, pourretracer à partir de là les parcours des individus et leurs relations au sein dela société. Albert-Lazlo Barabasi (2009 : 413) fait de cet objectif une« nouvelle frontière » pour la désormais « science contemporaine des réseaux » ,dans un écrit à la fois rétrospectif et prospectif paru exactement 10 ans aprèsles articles inauguraux publiés dans Science et Nature : « Indeed, the sudden emergence of large andreliable network maps drove the development of network theory during thepast decade. If data of similar detail capturing the dynamics of processestaking place on networks were to emerge in the coming years, our imaginationwill be the only limitation to progress. If I dare to make a prediction forthe next decade, it is this : Thanks to the proliferation of the manyelectronic devices that we use on a daily basis, from cell phones to GlobalPositioning Systems and the Internet, that capture everything from ourcommunications to our whereabouts [. .. ], the complex system that we are mostlikely to tackle first in a truly quantitative fashion may not be the cellor the Internet but rather society itself ». Ainsi l'objectif est-il clairement affiché. Après avoir modélisé la topographiestatique de l'internet et dévoilé un ordre mathématique derrière l'apparente « arbitrary nature of the Web » (Huberman, 2001 : 97) ,il s'agit désormais de décrire les dynamiques sociales dans leur ensemble, enligne et hors ligne. Ceci sur la base des seules traces d'usage des terminauxnumériques, alors même que la manipulation de ces outils devrait en parallèleappeler des enquêtes ethnographiques restituant l'ancrage sociétal de tellespratiques. Une telle volonté de modéliser l'organisation de la société, d'enprévoir l'évolution à partir de comparaisons avec celles des réseauxcellulaires, comporte un arrière plan organiciste et néo-darwinien qui résulteautant d'une vision politique que d'un projet scientifique (Bautier, 2007) .L'exportation de théorisations issues des sciences du vivant et des sciencesexactes, dans des domaines d'étude relevant habituellement des sciences humaineset sociales, pourrait conduire à paradoxalement en dénier la composante humaineet sociale. Le risque n'est pas mince. La vigilance devrait même être de mise sil'on considère l'encadrement institutionnel contemporain de la science – pouvoirde preuve et d'objectivité prioritairement attribué aux démonstrations chiffréeset statistiques, exigence de « livrables » sous forme de logiciels ou de basesde données, etc. – car il s'agit du cadre dans lequel émerge progressivement ledomaine des digital humanities ou « humanitésnumériques » (Rieder, Röhle, 2010). Celles -ci seront-elles alors contraintes des'orienter vers un pôle en quelque sorte scientiste et néo-positiviste ? Nousmilitons au contraire pour la recherche d'un juste équilibre. En effet, nous sommes à la fois convaincus dupotentiel d'innovation scientifique apporté par les digitalmethods et de leur possible intégration dans des problématiques etdémarches propres aux shs. La combinaison de ces deuxapproches, si elle est équilibrée est maîtrisée, est susceptible de faireprogresser les connaissances concernant l'étude des médias et d'en saisir desdimensions nouvelles .
Les recherches portant sur l'information en ligne sont marquées par une certaine emprise des méthodes quantitatives et statistiques. Elles rejoignent pour partie une autoproclamée nouvelle science des réseaux, appuyée sur la physique et les mathématiques, ainsi que le plaidoyer pour des méthodes d'observation spécifiques (digitol methods), tirant profit des capacités de traitement informatique et des matériaux numériques de l'internet. L'examen détaillé de tels travaux permet d'en cerner les apports (exhaustivité du corpus, représentation synthétique des résultats) et les limites (analyses parfois insuffisamment approfondies, catégorisations réductrices pour les besoins d'automatisation). Il fait également apparaître la nécessité de croiser les digitol methods avec des méthodes plus classiques en sciences humaines et sociales, afin de saisir les multiples dimensions des phénomènes médiatiques.
sciencesInfo_13-0090587_tei_1007.xml
termith-352-communication
Avec le développement des langages de balises tels que HTML ou XML, les documents disponibles sur internet sont le plus souvent structurés. C'est probablement ce qui a conduit au développement de la recherche d'information ciblée (focused information retrieval) dont l'objectif est de fournir à l'utilisateur des extraits de documents plutôt que des documents entiers, comme c'est le cas en général, en recherche d'information. Ainsi, l'information pertinente est repérée à l'intérieur du document, ce qui est particulièrement utile lorsque ce dernier est long. Selon que la liste renvoyée à l'utilisateur est formée de passages de documents ou d'éléments XML les composant, on parle plus spécifiquement de recherche de passage ou de recherche XML (Lalmas, 2009b). Les workshops et les compétitions telles que INEX 1 (Baeza-Yates et al., 2000; Baeza-Yates et al., 2006; Trotman et al., 2007; Fuhr et al., 2008; Geva et al., 2008; Kamps et al., 2007) ont largement contribué au développement de la recherche XML ces dernières années. Dans ce cadre, les balises des langages ne servent pas seulement à décomposer un document en éléments, elles permettent aussi d'annoter le document de façon à décrire sa structure logique, sa mise en forme ou encore sa présentation indépendamment de son contenu. Dès lors, les travaux réalisés en recherche XML se sont attachés non seulement à identifier des unités d'information plus concises mais aussi à exploiter ces balises afin de détecter les informations répondant de façon plus pertinente à un besoin d'information. Dans cette optique, deux types d'approches ont été développées. Le premier, orienté utilisateur, a consisté à développer d'une part des interfaces de visualisation ou de navigation dans la liste des résultats renvoyés par le système et d'autre part des langages de requêtes tels que W3QS (Konopnicki et al., 1995), XIRQL (Fuhr et al., 2000; Fuhr et al., 2001), NEXI (Trotman et al., 2004a; Trotman et al., 2004b) ou Bricks (van Zwol et al., 2006) permettant à l'utilisateur d'exprimer sa requête en tenant compte de la structure. Cependant, l'usage de tels langages est resté limité car, dans la pratique, peu d'utilisateurs sont capables d'exprimer leur besoin d'information sous forme de requêtes complexes 2. Le plus souvent, celles -ci sont réduites à quelques mots-clés (O'Keefe et al., 2003; Kamps et al., 2005b; Kazai et al., 2007). Le second type d'approches explorées revisite les modèles classiques en proposant un schéma de pondération de la structure (Fuller et al., 1993; Lalmas, 2009a). Le poids affecté alors à un mot ne dépend pas seulement de sa fréquence dans le document et éventuellement dans la collection mais aussi de sa position dans le document. Les balises sont utilisées pour définir cette position. Ainsi, le classement ne dépend pas seulement de la présence d'un mot dans le document mais de la présence du mot marqué par la balise appropriée. Différents types de balises peuvent être considérés : les balises de mise en forme (ex. gras, italique, centré, etc.) et les balises logiques qui définissent la structure interne du document (ex. titre, section, paragraphe, etc.) ou permettent de la représenter sous forme d'arbre. Dans cette perspective, nous proposons une extension du modèle probabiliste (Maron et al., 1960; Robertson et al., 1976) qui évalue la pertinence d'un document pour une requête donnée à travers deux probabilités : la probabilité de trouver une information pertinente et celle de trouver une information non pertinente. Cette extension exploite les balises de mise en forme et les balises de structure logique. En effet, nous faisons l'hypothèse que ces deux types de balises peuvent être employés pour souligner certains mots. Ainsi, un mot n'aura pas la même importance s'il apparaît dans une certaine fonte de caractères (gras, italique, taille, etc.). De même, il n'aura pas le même poids selon sa localisation dans le document, par exemple dans le titre, dans la légende d'une figure ou encore dans une sous-section. Pour une balise donnée (de structure ou de mise en forme), nous évaluons à l'aide d'un modèle basé sur un apprentissage, si elle met en évidence des termes dans des éléments pertinents ou au contraire des termes dans des éléments non pertinents. La première contribution de cet article 3 est la proposition d'un cadre formel, présenté dans la section 3, prenant en compte explicitement la structure du document. Ce modèle est décrit après un état de l'art, donné dans la section 2. La seconde contribution consiste en une expérimentation du modèle, présentée dans la section 4, sur une collection d'envergure (la collection INEX). La pertinence d'un document pour une requête donnée est généralement évaluée en fonction du poids des mots de la requête. Ce poids dépend de la fréquence d'apparition du mot dans le document et, éventuellement de sa fréquence d'apparition dans la collection. Par rapport à ce modèle classique, la prise en compte de la structure dans le schéma de pondération consiste à attribuer aussi un poids aux balises en fonction de leur importance. Ce poids est ensuite combiné à celui des mots pour déterminer la pertinence d'un document. Ainsi, la pertinence d'un document ne dépend plus seulement de la fréquence avec laquelle les termes de la requête apparaissent mais aussi en fonction du poids des balises qui marquent ces termes dans le document. Ce principe a déjà été utilisé dans le contexte de la recherche d'information classique (Lalmas, 2009a). Les balises considérées, de même que leur poids, peuvent être choisis de façon empirique. Par exemple dans (Rapela, 2001), le poids de la balise title est fixé à 2 et celui de la balise abstract à 1,5. Une alternative consiste à apprendre de façon automatique ces poids, à l'aide par exemple d'algorithmes génétiques (Kim et al., 2000; Trotman, 2005) ou grâce à des techniques d'optimisation basées sur le recuit simulé (simulated annealing) (Boyan et al., 1996). Une fois les poids des balises déterminés, que ce soit empiriquement ou par apprentissage automatique, il reste à les combiner avec les poids des mots. Dans le cas où seules des balises de structure logique sont prises en compte, la solution la plus simple consiste à les combiner de façon ad hoc. Dans ce cas, le document peut être divisé en autant d'éléments qu'il y a de parties définies par ces balises (résumé, introduction, etc.) et, chacune peut être traitée indépendamment des autres. Ensuite, le score attribué au document peut être calculé par combinaison linéaire des scores accordés à chaque partie en respectant leurs poids respectifs. Cependant, dans le cas du modèle BM25, (Robertson et al., 2004) ont démontré qu'il pouvait être plus avantageux de dupliquer chaque partie autant de fois que son poids le requiert puis de traiter de façon usuelle le document ainsi obtenu. Ainsi, par exemple, un document structuré dont le titre a un poids égal à deux, sera transformé en un document plat dont le contenu du titre aura été dupliqué, et qui sera traité de manière classique. Les évaluations expérimentales réalisées par (Robertson et al., 2004) ont confirmé que cette approche permettait d'obtenir de meilleurs résultats qu'une simple combinaison linéaire des scores de chacune des parties. Par contre, dans les travaux cités précédemment, les systèmes visaient à retourner des documents complets et aucune évaluation n'en a été faite dans un contexte de recherche d'information ciblée. Dans le cadre de la recherche d'information ciblée, les schémas de pondération ont aussi été employés pour prendre en compte la structure. Une fois les poids des balises déterminés, le principe utilisé est basé sur le produit scalaire : les poids des balises sont employés comme facteurs multiplicatifs des poids des mots qu'elles marquent. Cette approche a été employée pour améliorer le modèle probabiliste (Wolff et al., 2000; Lu et al., 2005) aussi bien que le modèle vectoriel (Wilkinson, 1994). Cependant, dans ces travaux, les poids des balises devaient être fixés empiriquement. Dans le contexte de la recherche d'information ciblée, d'autres études ont cherché à exploiter la structure en considérant la représentation arborescente des documents XML (Kotsakis, 2002; Schlieder et al., 2002; Trotman, 2005). Chaque élément XML, correspondant à un nœud de l'arbre, peut être caractérisé par le chemin allant de la racine de l'arbre jusqu' à lui. Un poids est ensuite fixé pour chaque chemin et, la structure est prise en compte pour chaque mot en considérant aussi le poids du chemin de l'élément qui le contient. De cette manière, (Kotsakis, 2002) attribue un poids à chaque type de chemin, de sorte que le poids d'une occurrence d'un mot situé dans l'élément (i.e. nœud) journal/issue/article/title sera supérieur à celui d'une occurrence du même mot placé dans l'élément journal/ issue/article/abstract. En adoptant également ce principe, (Schlieder et al., 2002) ont introduit une version étendue du modèle vectoriel. Ainsi, le poids final d'un mot comporte deux composantes : la première, calculée suivant la formule classique tf.idf, tandis que la seconde correspond au poids associé à la position du mot dans l'arbre XML i.e. au poids du chemin jusqu' à ce nœud. Les modalités de calcul des poids structurels ne sont pas détaillés dans (Kotsakis, 2002), alors que (Trotman, 2005) propose quant à lui de les apprendre automatiquement à l'aide d'un algorithme génétique. Les expérimentations rapportées par ce dernier ont montré une amélioration des résultats obtenus avec les modèles vectoriel et probabiliste mais aucune amélioration avec le modèle BM25. Par contre, le modèle BM25E, introduit par (Lu et al., 2005) a fourni des résultats encourageants dans le contexte de la recherche d'information ciblée. Il s'agit probablement du modèle le plus proche de celui que nous proposons dans la mesure où le score attribué à un élément est obtenu en effectuant une combinaison précoce des poids des mots de la requête figurant dans cet élément avec ceux des balises qui marquent ces mots. Par contre, dans (Lu et al., 2005) les poids des balises sont déterminés empiriquement alors qu'ils sont appris automatiquement dans notre modèle. De plus, comme dans la majorité des travaux antérieurs, très peu de balises sont considérées (en général moins de 5) et celles -ci sont le plus souvent choisies arbitrairement. C'est probablement la raison pour laquelle (Lu et al., 2005) notent que the creation of a practical algorithm to generate values for tuning parameters at the element level is a challenging task. C'est dans cette optique que nous avons entrepris cette recherche. Dans le modèle que nous avons développé, la structure des documents est exploitée à deux niveaux : structure logique : les balises de structure logique sont utilisées pour déterminer la granularité de l'indexation et donc la granularité des éléments que le système sera susceptible de renvoyer. La pertinence n'est plus estimée au niveau du document complet, mais au niveau de parties de documents, par exemple des éléments XML, structure de mise en forme : les balises de structure logique et les balises de mise en forme sont intégrées au niveau du schéma de pondération. Le poids de chacune des balises est estimé par apprentissage. Ce poids est basé sur la probabilité que la balise mette en exergue un terme pertinent ou au contraire un terme non pertinent. Ceci rejoint les principes du modèle probabiliste (Robertson et al., 1976) qui, à partir d'une collection de test dans laquelle la pertinence des documents est disponible, estime la probabilité qu'un terme donné apparaisse dans un document pertinent (resp. non pertinent). À l'étape d'interrogation, la probabilité pour un élément d' être pertinent est estimée en combinant les poids des termes qu'il contient avec les poids des balises qui les étiquettent. Ainsi, les balises de mise en forme sont considérées lors du calcul du score d'un élément, et les balises de structure logique sont considérées en plus lors de l'indexation. Notre approche se caractérise donc par : la prise en compte de balises de structure logique et de mise en forme, comme il en existe dans les documents XML, en levant la limitation liée au nombre de balises prises en compte comme dans (Robertson et al., 2004), une étape d'apprentissage automatique pour estimer le poids de chaque balise, permettant d'évaluer son impact de manière générale et non relativement aux termes qu'elle étiquette. Les poids pouvant avoir un impact négatif, cette étape peut également être considérée comme une étape de sélection de balises, l'extension de la fonction de pondération BM25 (Robertson et al., 1976) via l'intégration d'un apprentissage automatique du poids des balises, la RI ciblée : notre modèle vise à retourner à l'utilisateur des éléments XML de la granularité la plus adaptée possible, au contraire des approches qui visent à améliorer la recherche de documents complets (Trotman, 2005). Une présentation plus formelle de ce modèle est donnée dans la section 3. Soit un ensemble de documents structurés. Sans perte de généralité, nous considérerons des documents XML. Chaque balise XML décrivant la structure logique (article, section, p, table, etc.) définit un élément XML qui correspond à une partie du document. En conséquence, chaque élément logique (article, section, paragraphe, table, etc.) sera représenté par un ensemble de termes et sera indexé. Dans l'exemple suivant, nous disposons de trois documents D 0, D 1 et D 2 : Le document D 2 est indexé par cinq éléments : un article (balise <article>), une section (balise <section>) et trois paragraphes (balise <p>). Nous considérons la balise <b> comme une balise de mise en forme et non comme une balise logique : elle ne définit donc pas un élément logique à indexer. On note : E = {e 1, …, ej, …, el }, l'ensemble des éléments logiques disponibles dans la collection (article, section, p, table, etc.); T = {t 1, …, ti, …, tn }, un index de termes construit à partir de E; B = {b 1, …, bk, …, bm }, l'ensemble des balises. Dans la suite, la représentation d'un élément ej est notée xj lorsque seuls les termes sont considérés et mj lorsque à la fois les termes et les balises sont considérés. La pertinence d'un élément relativement à une requête Q est fonction du poids des termes qui apparaissent dans l'élément et dans la requête. On note wji le poids du terme ti dans l'élément xj. On suppose que le poids de ti dans Q est égal à 1. On définit Xj un vecteur de variables aléatoires et xj = (xj 1, …, xji, …, xjn) une réalisation de ce vecteur Xj, avec xji = 1 (resp. 0) si le terme ti apparaît (resp. n'apparaît pas) dans l'élément ej. Étant donné ces notations, fterm, la pertinence de xj basée sur les poids des termes, est donnée par le score : Sous ce produit scalaire général se cachent différentes fonctions de pondération, comme par exemple les fonctions ltn, ltc implantées dans le système SMART (Salton et al., 1983), ou la fonction BM25 (Robertson et al., 1976). Des expérimentations antérieures (Géry et al., 2008) avec ltn et ltc ayant donné des résultats médiocres relativement à ceux obtenus avec BM25, nous ne considérerons par la suite que BM25 : avec : tfji : la fréquence de ti dans ej; N : le nombre d'éléments dans la collection; dfi : le nombre d'éléments qui contiennent le terme ti; ndl : le ratio entre la taille de ej et la taille moyenne des éléments (en nombre de termes); k 1 et b : les paramètres classiques de BM25. Le paramètre k 1 permet de régler la saturation de tfji, et le paramètre b permet de régler l'importance accordée à ndl, c'est-à-dire l'importance de la normalisation de la taille des éléments. Notons que la modification des paramètres k 1 et b permet de faire de BM25 une fonction non linéaire en la fréquence des termes. Par exemple, si k 1 = 1, 1 un tfji égal à 10 donnera quasiment la même valeur pour la partie tf de BM25 qu'un tfji égal à 25. Cette propriété de non-linéarité de la fonction de pondération est très importante dans notre modèle : en effet, le résultat est très différent si l'on intègre le poids d'une balise sur tfji ou directement sur wji. Dans le cadre considéré par (Robertson et al., 2004) il est apparu important de ne pas violer la propriété de non-linéarité de BM25. Nous avons donc comparé une stratégie d'impact précoce du poids des balises (sur tfji) avec une stratégie d'impact tardif (directement sur wji). De la même manière que dans la section précédente, nous définissons Mj comme un vecteur de variables aléatoires Tik à valeur dans {0, 1 }. Les variables aléatoires Mj et leurs réalisations mj représentent les éléments structurés : Avec : Tik = 1 si le terme ti apparaît dans cet élément étiqueté par bk Tik = 0 si le terme ti n'est pas étiqueté par bk Ti 0 = 1 si le terme ti apparaît sans étiquette dans B Ti 0 = 0 si terme ti n'apparaît pas sans être étiqueté Nous notons mj = (t 10, …, t 1 k, …, t 1 m, …, tn 0, …, tnk ,.., tnm) une réalisation de la variable aléatoire Mj. Dans notre exemple, nous avons b 1 = article, b 2 = section, b 3 = p, b 4 = b et T = {t 1,.., t 5 }. L'élément : ej =<p> t 1 t 2 t 3 </p> de D 0 peut être représenté par le vecteur : car le terme t 1 est étiqueté par article (t 11 = 1), et p (t 13 = 1) mais ni par section (t 12 = 0) ni par b (t 14 = 0). De plus, t 10 = 0car le terme n'apparaît pas sans étiquette. Afin d'intégrer la structure des documents, nous ne considérons pas uniquement les poids des termes wji, mais aussi le poids des balises. Nous voulons estimer la pertinence d'un élément XML ej (représenté par le vecteur mj) pour une requête donnée. En suivant les principes du modèle probabiliste de RI (Robertson et al., 1976), on veut donc estimer : P (R | mj) : la probabilité de trouver une information pertinente (R) étant donné l'élément mj et une requête. P (NR | mj) : la probabilité de trouver une information non pertinente (NR) étant donné l'élément mj et une requête. Soit une fonction de classement. Plus grande est la valeur de f 1( mj), plus pertinent est l'élément mj. Utilisant la formule de Bayes, nous avons : Le terme étant constant au regard de la collection pour une requête, il ne modifie pas la fonction de classement. Nous pouvons donc définir la fonction f 2 (proportionnelle à f 1) :. Admettant l'hypothèse d'indépendance nous avons : Pour simplifier les notations, on note, pour un élément XML donné : pi 0 = P (Ti 0 = 0| R)) : la probabilité que ti n'apparaisse pas sans étiquette étant donné un élément pertinent; pik = P (Tik = 1| R) : la probabilité que ti apparaisse étiqueté par la balise k, étant donné un élément pertinent; qi 0 = P (Ti 0 = 0| NR) : la probabilité que ti n'apparaisse pas sans étiquette étant donné un élément non pertinent; qik = P (Tik = 1| NR) : la probabilité que ti apparaisse étiqueté par la balise k, étant donné un élément non pertinent. Avec ces notations, les équations [3] et [4] deviennent : La fonction de classement f 2( mj) peut alors s'écrire : La fonction log étant monotone croissante, prendre le logarithme ne changera pas les classements. On a donc la fonction f 3 : Comme précédemment, le terme est constant relativement à la collection (indépendant de tik). En ne le considérant pas, on obtient : La fonction de classement obtenue prend en compte les poids des termes (ti) et des balises (bk). Le poids d'un terme ti étiqueté par la balise bk sera noté w′ik : La pertinence d'un élément XML mj relativement aux balises est définie par ftag (mj) : Cette formule est similaire à celle de la fonction de pondération classique (équation [1]), sauf que les poids des balises remplacent ici les poids des termes. En pratique, nous devons estimer les probabilités pik et qik, i ∈ {1 ,.., n }, k ∈ {0, ..,m }, pour pouvoir évaluer la pertinence des éléments. À ces fins, nous utilisons un ensemble d'apprentissage LS composé d'éléments pour lesquels la pertinence est connue. Étant donné l'ensemble R (resp. NR) qui contient les éléments pertinents (resp. non pertinents), une table de contingence peut être construite pour chaque terme ti étiqueté par la balise bk : Nous pouvons maintenant estimer </p><p>Il vient <hi rend="italic">w′ik</hi> :</p><p>Cette fonction de pondération évalue la probabilité, pour une balise donnée, de distinguer les termes pertinents des termes non pertinents : elle augmente avec la capacité de la balise à distinguer un terme pertinent. Notons que l'estimation des probabilités pourrait comporter un lissage dans le cas de collection d'apprentissage de taille limitée; cela n'a pas été utile dans le cadre de nos expérimentations.</p></div><div n="3.4 " type="section"><head>Estimation du poids des balises</head><p>D'un point de vue théorique, nous pouvons estimer un poids pour chaque paire (terme, balise) (cf. équation [8]), c'est-à-dire la capacité pour une balise donnée de renforcer un terme donné (ou, au contraire, d'atténuer un terme). Ce niveau de granularité est à notre avis trop fin. En effet, on cherche à modéliser l'impact d'une balise, non pas relativement à un terme particulier, mais de manière globale. Nous pensons que la capacité d'une balise à mettre en évidence les termes pertinents (ou au contraire à diminuer leur visibilité) est une propriété intrinsèque de la balise et ne dépend donc pas des termes. L'objectif est d'évaluer si un mot apparaissant dans un titre a plus d'importance qu'un mot apparaissant dans une section, et ce indépendamment du mot en question. Nous nous intéressons donc non plus au poids de chaque paire (terme-balise), mais au poids d'une balise indépendamment des termes qu'elle étiquette. Nous estimons donc finalement pour chaque balise bk un poids global w ′ k : À partir des poids des termes et des balises, nous pouvons calculer un score global des éléments. Nous proposons deux stratégies d'intégration du poids des balises dans la fonction de pondération BM25 : CLAW 4 : stratégie d'impact tardif sur le résultat de BM25. TTF 5 : stratégie d'impact précoce, intégrant le poids des balises dans BM25. Afin de prendre en compte toutes les balises qui englobent un terme, nous proposons de combiner la moyenne des poids de ces balises avec le poids du terme lui -même. Ainsi, notre première fonction de combinaison, fclaw, s'écrit comme suit : avec wji le poids du terme ti dans le document mj, calculé à l'aide de BM25. Dans (Géry et al., 2008), l'intégration du poids des balises à l'aide de fclaw permet d'améliorer le rappel, mais de manière peu significative. La fonction de pondération BM25 étant non linéaire (cf. section 3.2), impacter le poids d'une balise sur le poids global wji est très différent que de l'impacter sur le nombre d'occurrences du terme tfji. En accord avec (Robertson et al., 2004), nous proposons une prise en compte précoce du poids des balises, en intervenant directement sur tfji. Ainsi, la non-linéarité de la fonction BM25 est exploitée. Le poids modifié (tfji multiplié par la moyenne du poids des balises qui englobent ti), noté ttf (Tagged Term Frequency), remplace le tf dans la fonction de pondération BM25. Nos expérimentations ont été menées dans le cadre d'INEX 6, la compétition internationale de RI XML, que nous présentons dans la section suivante. Les résultats obtenus par notre modèle lors de l'édition 2009 d'INEX ont montré, dans un cadre expérimental rigoureux, l'avantage de prendre en compte les balises XML pour la RI. Ces résultats sont présentés dans la section 5.1. Nous avons ensuite approfondi l'expérimentation du comportement de notre modèle et de l'impact de certains paramètres, à la fois sur une tâche de RI classique où la granularité des réponses est l'article complet, ainsi que sur une tâche de RI ciblée où la granularité des réponses est l'élément XML. Les résultats de ces expérimentations sont présentés dans la section 5.2. Nous avons utilisé le corpus XML anglophone INEX - Wikipédia (Denoyer et al., 2006), développé dans le cadre d'INEX. Ce corpus est composé de 659 388 articles extraits de l'encyclopédie en ligne Wikipédia 7 en 2006, et d'un ensemble de requêtes et de jugements de pertinence associés. La syntaxe Wiki originelle a été convertie en XML, en utilisant des balises représentant la structure logique des articles (article, section, p, title, list, item, etc.), des balises de mise en forme (bold, emphatic, italic, small, etc.) et des balises représentant des liens (collection-link, etc.). Il n'existe pas de DTD définissant la liste des balises autorisées, ce qui entraîne une certaine profusion des balises : il en existe 1 257 différentes dans la collection, dont beaucoup apparaissant dans seulement quelques articles. Les articles sont fortement structurés (il y a au total 52 millions d'éléments XML), ce qui permet d'évaluer les systèmes de RI ciblée. Chaque article peut être représenté comme un arbre contenant en moyenne 79 éléments, et ayant une hauteur moyenne de 6,72. Les articles complets (contenu textuel + structure XML) représentent 4,5 Go alors que le contenu textuel seul représente seulement 1,6 Go. L'information structurelle XML (balises + attributs) représente donc le double de l'information textuelle. L'évaluation d'INEX est basée sur les critères de précision et de rappel. iP [<hi rend="italic">x</hi>] est la précision au point de rappel x. La mesure AiP combine rappel et précision en une seule mesure en calculant la moyenne de iP [<hi rend="italic">x</hi>] à 101 points de rappel (x = 0,00; 0,01; 0,02; … 0,99; 1,00). Cette mesure fournit une évaluation du système pour chaque requête. Enfin, le calcul de la moyenne des AiP sur l'ensemble des requêtes donne la mesure globale de performance MAiP (interpolated mean average precision (Kamps et al., 2007)). Étant donné que chaque expérimentation est soumise à INEX sous la forme d'une liste ordonnée d'au plus 1 500 éléments XML pour chaque requête, ces mesures favorisent, en termes de rappel, les expérimentations retournant des articles complets (et donc une plus grande quantité d'information). Cela est problématique dans le cas de la RI ciblée, car les réponses ciblées, d'une granularité infra-article, pénaliseront les résultats d'un système, alors même que l'objectif de la RI ciblée est de retourner des éléments de la granularité la plus ciblée possible. Pour en tenir compte, nous avons aussi calculé R [1500 ], le taux de rappel à 1 500 documents, et S [1500 ], la taille des 1 500 éléments retournés (en Mo). Notons que le classement principal d'INEX est basé sur la mesure iP [0.01] et non la mesure globale MAiP, afin de prendre en compte l'importance de la précision aux taux de rappel faibles. Cela entraîne une évaluation privilégiant la précision plutôt que le rappel. Tous les résultats présentés ici, incluant ceux des systèmes d'INEX, ont été obtenus à l'aide de l'outil d'évaluation fourni par INEX en 2008 : inex_eval, version 1.0. Dans la phase d'apprentissage, les articles, les 114 requêtes et les jugements de pertinence de la collection 2006 ont été utilisés pour estimer le poids des balises w′k. Ensuite, l'expérimentation a consisté à traiter sur la même collection de 659 388 documents les 70 nouvelles requêtes de l'édition 2008 d'INEX. Seuls les mots-clés des requêtes ont été utilisés (champ title). Nous n'avons pas utilisé les champs description, narrative et castitle (partie structurée de la requête). Nous avons expérimenté notre modèle (CLAW et TTF) sur une tâche de RI classique, où la granularité des réponses est l'article complet, ainsi que sur une tâche de RI ciblée, où la granularité des réponses est l'élément XML. Ces expérimentations, présentées dans la section 5.1, nous ont permis de montrer l'intérêt de la prise en compte des balises en RI ciblée lors de notre participation à INEX 2008 (Géry et al., 2009). Ensuite, l'objectif de nos expérimentations a été d'étudier de manière relativement exhaustive l'impact de certains paramètres sur la RI ciblée, et de vérifier le comportement de notre modèle dans le cadre d'un système dont les paramètres ont été soigneusement réglés. Est -ce que notre modèle nous permet d'améliorer les résultats d'une fonction BM25 optimisée ? Qu'en est-il de l'indexation des articles complets par rapport à l'indexation d'éléments XML de granularité fine ? Nous avons donc mené plusieurs expérimentations : articles; articles + CLAW; articles + TTF : éléments + CLAW; éléments + TTF. Certains paramètres ont été réglés à la suite d'expérimentations préliminaires (cf. section 4.4), au cours desquelles deux paramètres essentiels ont été étudiés afin de mieux comprendre les spécificités de la RI ciblée. Il s'agit des paramètres b et k 1 de la fonction BM25. Il existe un risque de sur-apprentissage, car l'optimisation des paramètres a été réalisée avec la collection 2008, et cette même collection a été aussi utilisée pour l'évaluation. C'est un problème classique des compétitions de RI (TREC, INEX, etc.), cf. (Robertson et al., 2004; Taylor et al., 2006). Nous pensons, comme (Robertson et al., 2004), qu'il est tout de même pertinent d'évaluer notre modèle dans ce contexte. En effet, nous souhaitons évaluer le potentiel de notre modèle en optimisant les paramètres b et k 1, tout en gardant à l'esprit que, dans des conditions réelles, il sera nécessaire de régler ces paramètres à l'aide d'une collection d'apprentissage. Selon les expérimentations (notamment RI classique/RI ciblée), différents paramètres doivent être réglés. Certains d'entre eux ont été fixés à l'aide d'expérimentations préliminaires, d'autres, plus importants, ont été étudiés exhaustivement : paramètres fixés : choix de la fonction de pondération (BM25), taille minimum des éléments retournés, taille minimum des termes, profondeur maximum dans l'arbre XML des éléments retournés, anti-dictionnaire, mode “andish ”, termes obligatoires ou interdits (opérateurs +/ -), liste des balises de mise en forme à considérer, paramètres basés sur la granularité 8 : liste des balises de structure logique 9, calcul du df, paramètres étudiés : impact des balises (sans impact, CLAW ou TTF), BM25 b, BM25 k 1. Toutes les expérimentations présentées dans cet article partagent donc les mêmes réglages concernant l'anti-dictionnaire 10, et la manière de traiter les requêtes : en utilisant le même mode “andish” (privilégiant les documents contenant la totalité des mots-clés de la requête) et en considérant non strictement les opérateurs + (termes obligatoire) et - (termes interdits). Certains paramètres spécifiques ont été choisis lors d'expérimentations préliminaires. Par exemple, dans le cas de la RI ciblée, nous devons définir la taille minimum des éléments retournés par le système. La conversion des articles de Wikipédia en XML ayant été entièrement réalisée de manière automatique, il existe dans la collection des éléments XML très petits (voire de taille nulle), qui, pris isolément, ne sont pas porteurs de sens et donc ne doivent pas être retournés à l'utilisateur. C'est par exemple le cas avec les éléments language-link. De plus, une analyse des jugements de pertinence effectués lors des campagnes 2006 et 2007 d'INEX (non présentée ici) a montré qu'il n'est pas utile de considérer des éléments d'une taille inférieure à 10 termes, car soit ils sont non pertinents, soit leur père dans l'arbre XML est lui même 100 % pertinent et dans ce cas il est préférable de le retourner directement. Notons que (Kamps et al., 2005a) ont montré, en analysant une collection précédente d'INEX 2002, qu'une valeur optimale de ce paramètre se trouve autour de 40. Un autre paramétrage du système qui doit être considéré, spécifiquement dans le cas des éléments, est le calcul du df : doit-on calculer le df au niveau des éléments ou doit-on calculer un df global pour la collection (c'est-à-dire au niveau des articles) ? Et, dans le premier cas, faut-il considérer la taille des éléments ? Nous avons choisi de calculer le df aux deux niveaux, c'est-à-dire que la valeur df de discriminance d'un terme peut être différente selon que l'on indexe des articles ou des éléments. (Taylor et al., 2006) montrent qu'une collection d'apprentissage basée sur 100 requêtes est suffisante pour estimer les 9 paramètres de la fonction BM25F qui a été expérimentée avec succès lors de TREC 2004 (cf. (Zaragoza et al., 2004)). Notons que Taylor calcule un df global au cours de ces expérimentations. Un autre paramètre important est la liste des balises de structure logique, c'est-à-dire les types d'éléments XML que le système considère lors des phases d'indexation et d'interrogation. Le système pourra retourner uniquement des éléments dont le type appartient à cette liste. Des expérimentations préliminaires nous ont permis de sélectionner 16 balises de structure logique (cf. tableau 1). Balises de structure logique sélectionnées article li row template cadre normallist section title indentation1 numberlist table th item p td trEnsuite, les 61 balises ayant un nombre d'occurrence supérieur à 300 ont été sélectionnées parmi la totalité des 1 257 balises apparaissant dans les 659 388 documents (cf. tableau 2). Enfin, 6 balises ont été supprimées de cette liste manuellement : article et body (qui contiennent la totalité d'un article), br, hr, s et value (qui sont des balises sans contenu). Nombre d'occurrences des balises (top 20) Balise #occs Balise #occs collectionlink 16 645 121 normallist 1 087 545 item 5 490 943 row 954 609 unknownlink 3 847 064 outsidelink 84 1443 cell 3 814 626 languagelink 739 391 p 2 689,838 name 659 405 emph2 2 573 195 body 659 396 template 2 396 318 article 659 389 section 1 575 519 conversionwarning 659 388 title 1 558 235 br 378 990 emph3 1 484 568 td 359 908 Un score est ensuite calculé pour chacune des 55 balises restantes (incluant 14 des 16 balises de structure logique), suivant l'équation [8 ], estimant la capacité des balises à mettre en évidence des termes pertinents. Le tableau 3 présente les six balises ayant obtenu les poids les plus élevés et les six balises ayant obtenu les poids les plus faibles. Leur nombre d'occurrence dans la collection est aussi donné. Balises ayant les poids w′k les plus faibles et les plus forts Poids les plus élevés (top 6 ) Poids les plus faibles (top 6 ) Balise Poids #occs Balise Poids #occs h4 12,32 307 emph4 0,06 940 ul 2,70 3 050 font 0,07 27 117 sub 2,38 54 922 big 0,08 3 213 indentation1 2,04 135 420 em 0,11 608 section 2,01 1 610 183 b 0,13 11 297 blockquote 1,98 4 830 tt 0,14 6 841Certaines balises ayant un score élevé sont inattendues (ex. : sub). Malgré le score très élevé de la balise h4, son impact sera minime sur les estimations de pertinence des éléments XML, car elle n'apparaît que 307 fois dans la collection. Notons la présence des balises section et ul dans les 6 premières balises, ainsi que la présence des balises emph4 et big dans les 6 dernières. Nous présentons maintenant les résultats obtenus par notre modèle lors de la compétition INEX 2008. Suivant la procédure d'INEX, nous avons soumis trois expérimentations (Foc-1, Foc-2, Foc-3) à la tâche “focused” de la piste “Ad-hoc ”. Cette tâche impose aux systèmes de retourner à l'utilisateur une liste d'éléments XML (ou de passages de texte) non recouvrants, c'est-à-dire d'intersection vide. Notre objectif était tout d'abord d'obtenir une expérimentation de référence performante, puis d'évaluer notre modèle en RI classique et en RI ciblée, et enfin d'analyser l'impact de la prise en compte du poids des balises dans la fonction BM25. Le tableau 4 présente les résultats de nos trois expérimentations, comparés à ceux du vainqueur de la compétition, l'université de Waterloo (FOERStep). La structure n'est prise en compte ni dans Foc-1, où les articles complets sont retournés (granularité : articles), ni dans Foc-2, où ce sont les éléments qui sont renvoyés (granularité : éléments), alors que dans Foc-3, le poids des balises est intégré dans BM25 dans une recherche d'information ciblée (granularité : éléments, TTF). Afin de prendre en compte la contrainte de non recouvrement de la tâche “focused ”, la liste des éléments renvoyés par notre système est filtrée en supprimant tout les éléments ayant un autre élément d'intersection non vide mieux classé. En gras : le score iP [0.01] du vainqueur, et nos meilleurs scores (iP [0.01 ], MAiP, R [1500] et S [1500]). Notre première expérimentation, Foc-1 (RI classique), se classe 13ème sur 61. La seconde expérimentation, Foc-2 (RI ciblée), obtient un moins bon résultat : 37ème sur 61. L'impact précoce du poids des balises (stratégie TTF), donne de très bons résultats en RI ciblée : Foc-3 se classe 7ème sur 61. Ce résultat est bien meilleur que celui obtenu en RI classique (Foc-1), et de plus Foc-3 améliore significativement la RI ciblée à des taux de rappel faibles (de 0,5688 à 0,6640 selon le critère iP [0.01]). Évaluation de 61 expérimentations de la tâche “focused” Granularité Balises iP[0.01 ] Rang MAiP Rang R[1500 ] S[1500 ] FOERStep Éléments - 0,6897 1 0,2071 27 0,4494 1,11 Foc-1 Foc-2 Foc-3 Articles Éléments Éléments - - TTF 0,6412 0,5688 0,6640 13 37 7 0,2791 0,1206 0,2342 6 45 19 0,7897 0,2775 0,6110 5,57 0,73 3,34La RI ciblée (Foc-2), portant sur des éléments XML de taille et de granularité très variables, donne de moins bons résultats que la RI classique (Foc-1), bien que le paramètre ndl de BM25 soit justement conçu pour prendre en compte des tailles de documents différentes, et donc des granularités de documents différentes. Les méthodes classiques de RI semblent peu adaptées à la RI ciblée lorsqu'elles sont appliquées sans adaptation. D'ailleurs, 3 des 10 meilleures expérimentations sont basées sur des articles complets uniquement. La RI ciblée ne parvient donc pas encore à améliorer significativement les résultats de la RI classique. Ces résultats montrent l'avantage de la RI ciblée (Foc-3) comparée à la RI classique (Foc-1); cela montre aussi l'avantage de prendre en compte l'information structurelle (Foc-2 vs. Foc-3); et finalement, cela donne de bien meilleurs résultats par rapport à la stratégie d'impact tardif du poids des balises (cf. (Géry et al., 2008)). Toutefois, notre expérimentation Foc-1 donne les meilleurs résultats à des taux de rappel supérieurs à 0,05, et Foc-1 et Foc-3 donnent de très bons résultats en termes de rappel : MAiP de 0,2791 (resp. 0,2341) et R [1500] de 0,7897 (resp. 0,6110). Le rappel à 1 500 documents décroît de 16 % entre Foc-1 et Foc-3 tandis que la taille en Mo de ces 1 500 documents décroît dans le même temps de 40 %. Cela montre que le “tamis” de la RI ciblée élimine plus d'éléments non pertinents que d'éléments pertinents. Alors que la collection que nous avons utilisée présente des caractéristiques différentes (en particulier, un plus grand nombre et une plus grande diversité des balises XML considérées), nous parvenons aux mêmes conclusions que (Robertson et al., 2004) : il est intéressant de prendre en compte les balises dans la fonction de pondération BM25, à condition que l'impact soit précoce (stratégie TTF, Foc-3), ce qui permet de conserver la non-linéarité de BM25, et non pas tardif (directement sur les poids finaux des termes : stratégie CLAW, cf. (Géry et al., 2008)). Par ailleurs, contrairement aux résultats de (Trotman, 2005), la prise en compte du poids des balises permet une amélioration significative de la fonction de pondération BM25. Certains paramètres étant fixés (cf. section 4.4), nous avons expérimenté nos deux stratégies d'impact des balises (CLAW et TTF) en RI classique (articles) et en RI ciblée (éléments), en utilisant une grille 2D pour faire varier le paramètre b (entre 0 et 1, par pas de 0, 1) et le paramètre k 1 (entre 0, 2 et 3, 8 par pas de 0, 2), ce qui représente un total de 1 254 expérimentations. Les résultats obtenus dans la configuration optimale des paramètres sont présentés dans le tableau 5 selon le critère iP [0.01 ], et dans le tableau 6 selon le critère MAiP. Évaluation de 1 254 expérimentations selon le critère iP [0.01] Granularité Balises b k1 MAiP #doc #art R[1500 ] S[1500 ] R1 R2 R3 Articles Articles Articles - CLAW TTF 0,4 1,0 0,6 1,6 3,8 1,6 0,6587 0,6278 0,6654 1 457 1 457 1 457 1 457 1 457 1 457 0,8422 0,7424 0,8214 8,22 4,26 7,69 R4 R5 R6 Éléments Éléments Éléments - CLAW TTF 0,5 0,2 0,3 0,8 3,0 0,8 0,6738 0,6061 0,6837 1 463 1 461 1 461 1 257 1 280 1 294 0,4134 0,5730 0,5180 1,65 2,83 2,98 Évaluation de 1 254 expérimentations selon le critère MAiP Granularité Balises bk1 MAiP #doc #art R[1500 ] S[1500 ] R7 R8 R9 Articles Articles Articles - CLAW TTF 0,6 0,8 0,6 2,2 2,4 2,6 0,2910 0,2522 0,2860 1 457 1 457 1 457 1 457 1 457 1 457 0,8216 0,8004 0,8299 6,15 6,24 7,09 R10 R11 R12 Éléments Éléments Éléments - CLAW TTF 0,1 0,1 0,1 2,2 3,8 2,8 0,2664 0,2137 0,2576 1 459 1 459 1 459 1 408 1 356 1 389 0,7476 0,6985 0,7285 5,24 5,00 5,37Afin de situer ces résultats par rapport à l'évaluation d'INEX, nous pouvons ajouter que l'expérimentation R7 aurait été classée 4ème à INEX 2008 en termes de MAiP (le vainqueur ayant obtenu 0, 3065), et l'expérimentation R6 aurait été classée également 4ème en termes de iP [0.01] (le vainqueur ayant obtenu 0,6897). La figure 1 présente les courbes de rappel/précision des 4 expérimentations ayant obtenu les meilleurs résultats selon le critère iP [0.01] (expérimentations R 1, R 3, R 4, R 6), en excluant les expérimentations CLAW (R 2, R 5) qui donnent de moins bons résultats que TTF (R 3, R 6). La compétition INEX évalue les systèmes en fonction de leur capacité à retourner des éléments pertinents. Néanmoins, il est important d'étudier comment un système classique, basé sur l'indexation des articles seuls, se comporte dans cette tâche. Un tel modèle peut aussi servir de modèle de référence pour étudier les résultats. La RI classique obtient de meilleurs résultats en termes de rappel : MAiP = 0,2910 pour R7, contre 0,2664 pour R10 (RI ciblée). D'un autre côté, la RI ciblée obtient de meilleurs résultats que la RI classique en termes de précision (à des taux de rappel faibles) : iP [0.01] = 0,6738 pour R4 contre 0,6587 pour R1 (RI classique). Cela confirme les résultats obtenus lors d'INEX 2008 (cf. section 5.1). Le protocole d'INEX limite le nombre de documents retournés à 1 500. En conséquence, la RI ciblée retournera de plus petites quantités d'information (articles fragmentés) que la RI classique (articles complets), quand la précision est recherchée : R4 retourne 1,65 Mo par requête contre 8,22 Mo pour R1. D'un autre côté, quand l'objectif est d'optimiser le rappel (critère MAiP), les différences sont moins importantes : R10 retourne 5,24 Mo par requête contre 6,15 Mo pour R1. Nous pouvons aussi noter que si le nombre de documents retournés (articles ou éléments) est à peu près identique pour les 4 expérimentations (entre 1 457 et 1 463 sur un maximum théorique de 1 500), cela correspond à un plus petit nombre d'articles dans le cas de la RI ciblée, en raison de la fragmentation des articles en éléments : par exemple 1 257 articles (R4) contre 1 457 (R1). En retournant seulement 1,65 Mo par requête correspondant à 1 463 éléments provenant de 1 257 articles, la fragmentation réalisée par R4 permet d'améliorer la précision (granularité plus fine) mais au détriment du rappel (une plus petite quantité d'information et un plus petit nombre d'articles). Le tableau 6 confirme nos résultats à INEX 2008 (cf section 5.1) : la stratégie TTF n'améliore les résultats selon le critère MAiP ni en RI classique (R7 vs R9) ni en RI ciblée (R10 vs R12). D'un autre côté, le tableau 5 confirme également nos résultats à INEX 2008 : la stratégie TTF améliore les résultats selon le critère iP [0.01] à la fois en RI classique (R1 vs R3) et en RI ciblée (R4 vs R6). L'expérimentation R6 obtient les meilleurs résultats de toutes nos expérimentations en termes de iP [0.01] (0,6837). Finalement, les tableaux 5 et 6 confirment un autre de nos résultats à INEX 2008 : la stratégie TTF donne de meilleurs résultats que la stratégie CLAW en RI classique et en RI ciblée, aussi bien selon le critère MAiP (R 8 vs R 9 et R 11 vs R 12) que selon le critère iP [0.01] (R 2 vs R 3 et R 5 vs R 6). Nous en concluons que l'impact précoce des poids des balises dans la fonction de pondération BM25 (TTF) est une meilleure stratégie que la combinaison de ces poids directement sur les poids finaux des termes calculés avec BM25. Étudions maintenant l'impact des paramètres b et k 1 dans la formule BM25 : Paramètre b : Le rôle de b est de contrôler la normalisation en fonction de la taille des documents (cf. équation [2]). C'est particulièrement important en RI ciblée, car la taille des éléments varie beaucoup plus que celle des articles complets, étant donné que chaque article est fragmenté en éléments (nous avons fixé la taille minimum des éléments à 10 termes, alors que l'article le plus volumineux compte 35 000 termes). Paramètre k 1 : Le rôle de k 1 est de contrôler le taux de saturation de la fréquence des termes, ce qui est très important pour la stratégie TTF, car TTF modifie directement le tf. Notons que la stratégie CLAWne donne pas de bons résultats (ni dans le cadre de la compétition INEX, ni dans l'analyse plus approfondie des résultats), en conséquence de quoi cette stratégie n'est pas présentée dans cette section. La figure 2 présente le comportement de la RI classique (articles), avec l'évolution du MAiP et du iP [0.01] en fonction des valeurs de b (resp. k 1). Pour une valeur donnée de b (resp. k 1), les mesures iP [0.01] et MAiP présentées sont celles obtenues avec la valeur optimale de k 1 (resp. b). Les meilleures valeurs des paramètres (b; k 1) sont légèrement supérieures pour MAiP (( b; k 1) = (0, 6; 2, 2)) par rapport à iP [0.01] (( b; k 1) = (0, 4; 1, 6)). Ces valeurs sont relativement proches des valeurs souvent rencontrées dans la littérature (ex. (0,7; 1,2) : pour ces valeurs, notre système obtient un iP [0.01] de 0,6352). La figure 3 montre une vue 3D des résultats pour iP [0.01] (resp. MAiP). L'axe Z (niveaux de gris) montre la mesure iP [0.01] (resp. MAiP). Comme on peut le constater, ces résultats sont plutôt réguliers 11, ce qui explique que les quelques expérimentations réalisées pour optimiser les paramètres lors de notre participation à INEX 2008, ont été suffisantes pour obtenir des résultats relativement proches des résultats optimaux (iP [0.01] = 0,6412 vs 0,6587). La figure 4 présente le comportement du modèle BM25 en RI ciblée. Les meilleures valeurs de (b; k 1) sont différentes pour MAiP (( b; k 1) = (0, 1; 2, 2)) et pour iP [0.01] (( b; k 1) = (0, 5; 0, 8)). Le meilleur résultat en termes de MAiP est obtenu avec une valeur minimum de b = 0, 1. La normalisation de la taille du document par BM25 semble être contre-productive lorsque l'objectif est d'optimiser le rappel en RI ciblée (MAiP). D'un autre côté, cette normalisation reste efficace lorsque l'objectif est d'optimiser la précision (meilleure valeur pour iP [0.01] : b = 0, 5). Le paramètre k 1 (saturation du tf) semble être moins important pour la RI ciblée : les mesures de iP [0.01] et de MAiP varient peu en fonction de k 1. La figure 5 présente le comportement du modèle BM25t (stratégie TTF) en RI ciblée. Les meilleurs valeurs de (b; k 1) sont, là encore, différentes pour MAiP (( b; k 1) = (0, 1; 2, 8)) et pour iP [0.01] (( b; k 1) = (0, 3; 0, 8)). Comme dans le cas de la RI ciblée sans stratégie TTF, le meilleur MAiP est obtenu avec la valeur minimum de b = 0, 1. Le comportement de la RI ciblée est similaire avec ou sans stratégie TTF. La figure 6 montre une vue 3D des résultats selon le critère iP [0.01 ]. Comme auparavant, on constate que le système est assez stable. Nous pensons donc qu'avec notre modèle il est possible d'obtenir, en quelques expérimentations, un réglage des paramètres relativement proche du réglage optimal. Par ailleurs, nous pensons que ce modèle est robuste du point de vue de la généralisation. Nous avons présenté dans cet article une nouvelle approche de prise en compte de la structure XML pour la RI ciblée, basée sur les principes du modèle probabiliste de RI. Nous considérons à la fois la structure logique et la structure de mise en forme. La structure logique est utilisée lors de la phase d'indexation, afin de définir les types d'éléments XML indexés (et potentiellement retournés) par le système. La structure logique et la structure de mise en forme sont intégrées dans le modèle de document : lors d'une phase d'apprentissage, un poids est calculé pour chaque balise, basé sur la probabilité que la balise distingue les termes pertinents des termes non pertinents. Lors de la phase d'interrogation, le calcul de la pertinence d'un élément XML pour une requête est une combinaison des poids des termes contenus et des poids des balises qui les étiquettent. La contribution principale de ce travail consiste en une modélisation de la capacité des balises à mettre en évidence les termes, suivant les principes du modèle probabiliste de RI. De cette manière, le réglage du poids des balises s'effectue de manière entièrement automatique. L'intégration tardive du poids des balises dans la fonction de pondération des termes ayant montré une amélioration peu significative des résultats (stratégie CLAW, cf. (Géry et al., 2008)), nous avons proposé dans cet article une intégration précoce (stratégie TTF)), qui permet de conserver la non-linéarité de la fonction BM25 et donne de bien meilleurs résultats. La seconde contribution de ce travail est une expérimentation des modèles BM25 dans le contexte de la RI XML. Nous avons tout d'abord évalué notre modèle lors de la compétition internationale de RI XML, INEX 2008. Notre première expérimentation Foc-1, en RI classique (granularité des réponses : articles complets), se classe 13e sur 61. Notre seconde expérimentation Foc-2, en RI ciblée (granularité des réponses : éléments XML), obtient un moins bon classement : 37e sur 61. L'intégration précoce du poids des balises Foc-3, en RI ciblée, donne de très bons résultats en obtenant une 7e place sur 61, montrant ainsi l'intérêt de la RI ciblée (Foc-3) comparée à la RI classique (Foc-1), montrant également l'intérêt de la prise en compte de l'information structurelle (Foc-2 vs Foc-3) et montrant enfin de bien meilleurs résultats que l'intégration a posteriori du poids des balises (stratégie CLAW, cf. (Géry et al., 2008)). Alors que la collection que nous avons utilisée présente des caractéristiques différentes (en particulier, un plus grand nombre et une plus grande diversité des balises XML considérées), nous parvenons aux mêmes conclusions que (Robertson et al., 2004) : il est intéressant de prendre en compte les balises dans la fonction de pondération BM25, à condition que l'impact soit précoce (stratégie TTF, Foc-3) et non pas tardif (directement sur les poids finaux des termes : stratégie CLAW, cf. (Géry et al., 2008)); ce qui permet de conserver la non-linéarité de BM25. Par ailleurs, contrairement aux résultats de (Trotman, 2005), la prise en compte du poids des balises permet une amélioration significative de la fonction de pondération BM25. Dans le contexte de la RI XML, le nombre de balises est beaucoup trop important pour pouvoir optimiser les paramètres b et k 1 pour chaque balise, comme expérimenté par (Robertson et al., 2004) avec BM25f pour un très petit nombre de champs. Toutefois, nous pensons que le poids des balises utilisés par notre stratégie TTF peuvent remplacer le réglage fin de BM25f (et très lourd à mettre en œuvre) de b et k 1 pour chaque balise. En effet, les poids des balises impactent le tfji comme le fait le paramètre k 1. La dernière contribution de ce travail est une étude relativement exhaustive de l'impact des paramètres b et k 1 de BM25, aussi bien selon la mesure iP [0.01] que selon la mesure MAiP. Le premier résultat de cette étude est la relative stabilité de la qualité du système quand les paramètres sont modifiés. C'est important car cela facilite le réglage des paramètres en un nombre raisonnable d'expérimentations préliminaires. De plus, nous pouvons espérer un bon comportement du modèle du point de vue de la généralisation. Cela explique les bons résultats de notre modèle lors d'INEX 2008 : le paramétrage de notre système à l'aide d'une autre collection, a permis d'atteindre un réglage tout à fait correct des paramètres pour l'évaluation sur un nouveau jeu de requêtes, et la hiérarchie de nos stratégies observée durant la compétition est la même que celle observée dans notre étude plus exhaustive. Quand l'objectif est d'optimiser la mesure MAiP, le meilleur modèle est le classique modèle BM25. Cela peut probablement s'expliquer par le fait que les systèmes qui retournent des documents de grande taille (granularité des articles) sont mécaniquement favorisés quand les mesures basées sur le rappel sont utilisées. Par contre, à des taux de rappel faibles, quand l'objectif est d'optimiser la précision, les meilleurs résultats sont obtenus par le modèle BM25t qui prend en compte les balises et retourne des éléments XML. Des perspectives s'offrent à nous à plusieurs niveaux. Tout d'abord, la stratégie TTF met en œuvre une simple moyenne du poids des balises qui étiquettent un terme. De précédentes expérimentations ont montré que cette méthode donnait de meilleurs résultats que d'autres fonctions de combinaison (multiplication des poids, prise en compte de la plus proche balise uniquement, etc.). Une analyse tant théorique qu'expérimentale est nécessaire sur ce point. La moyenne arithmétique utilisée met au même plan toutes les balises englobant un terme donné. Une pondération non uniforme des poids des balises, en fonction par exemple de la distance entre le terme et la balise, pourrait se révéler plus performante. Par ailleurs, des résultats positifs en RI ciblée ouvre des perspectives intéressantes en termes de présentation des résultats à l'utilisateur. D'un point de vue expérimental, nous avons ciblé notre étude sur les paramètres b et k 1 de BM25. D'autres paramètres méritent d' être également étudiés. En particulier, la manière dont le df est calculé peut avoir un impact important. Nous devons aussi travailler à une meilleure prise en compte de la grande variation de la taille des documents quand une RI ciblée (éléments) est effectuée. Cela pourrait se faire à l'aide de normalisation des pondérations (cf. (Kamps et al., 2005a)), ou par un calcul plus sophistiqué du df .
Cet article traite de l'intégration des balises XML dans la fonction de pondération des termes, pour la recherche d'information (RI) XML ciblée. Notre modèle permet de considérer un certain type d'information structurelle: les balises qui représentent la structure logique des documents (titre, section, paragraphe, etc.), ainsi que les balises liées à la mise en forme (gras, italique, centré, etc.). Nous prenons en compte l'influence des balises sous forme d'un poids en estimant la probabilité pour une balise de mettre en évidence les termes pertinents. Ensuite, ces poids sont intégrés à la fonction de pondération des termes. Des expérimentations sur une collection de grande taille dans le cadre de la compétition de RI XML, INEX 2008, ont montré une amélioration de la qualité des résultats en RI ciblée.
sciencesInfo_11-0471925_tei_DN_131_0083.tei.xml
termith-353-communication
Chercheuse en sciences de l'information et de la communication (sic), Marlène Coulomb-Gully est spécialiste des médias. Parmi ses travaux ,plusieurs sur le discours télévisuel, dont certains qui traitent plusparticulièrement de son intrication avec le champ politique (Coulomb-Gully, 1994 ;1995; 2001). Comme elle le précise, sa rencontre avec le Genre « s'est faite à la faveur d'une recherche engagée au débutdes années 2000 avec Simone Bonnafous, […] portant sur la médiatisationinternationale du 8 mars » (Coulomb-Gully, 2006a; 2006b; 2007; Bonnafous ,Coulomb-Gully, 2007; Coulomb-Gully, Bonnafous, 2007). Or, c'est cette recherche quilui a permis « de découvrir le champ foisonnant des travaux sur le Genre et demesurer l'écart entre la production en France et celle à l'étranger (notammentl'Amérique du Nord et l'Europe du Nord) ». Ainsi le titre de la contribution deMarlène Coulomb-Gully – « Les sciences de l'information et de la communication : unediscipline gender blind » – est-il non seulement une cordialeprovocation à l'adresse de sa discipline d'appartenance, mais aussi une allusion àson propre parcours. Précisons que Questions de communicationa déjà publié une partie des travaux de cette chercheuse (MarlèneCoulomb-Gully, 2006b). Aussi nous a -t-il donc semblé pertinent de faire aujourd'huiun point avec elle sur la situation des sic vis-à-vis duGenre. D'autant que si, en 2005, nous avions consacré un dossier aux « Espacespolitiques au féminin » (Fleury, Walter, 2005), depuis, nous sommes nous aussirestés silencieux sur cette approche. La question qui fonde le propos de Marlène Coulomb-Gully est celle du contraste entre« l'abondance des publications et débats actuels autour » de la problématique duGenre « et la discrétion des sic sur cette interrogationqui devrait pour tant les interpeller au premier chef, tant l'information comme lacommunication sont structurées par le Genre ». Pour lui répondre, sept contributeurs: Marie-Joseph Bertini qui inscrit le retard pris parcette discipline dans une configuration plus large qui est celle de l'universitéfrançaise; Béatrice Damian-Gaillard, Cégolène Frisque, Eugénie Saitta qui mettentcette problématique à l'épreuve dans le champ particulier du journalisme et desétudes le concernant; Catherine Gravet qui traite des historiens des Lettres belgeset qui pose la question de savoir si ces derniers sont aveugles au Genre; Marie-ÈveThérenty – professeur de littérature française à l'universitéPaul Valéry-Montpellier 3 et membre de l'Institut universitaire de France – qui, nonseulement, revient sur le retard constaté, mais prône l'utilité d'un regardhistorique et rétrospectif sur ces questions; Françoise Thébaud, historienne etspécialiste de l'histoire des femmes, qui traite de la place du Genre dans sadiscipline, non seulement à partir des travaux réalisés sur ce sujet, mais aussi enaccordant une place essentielle aux historiens. Pour comprendre la situation des sic vis-à-vis du Genre, il nous paraissait donc importantde ne pas se cantonner ni à cette discipline, ni au cadre français, mais de regardercomment des chercheurs étrangers et/ou d'autres traditions de recherche sepositionnaient. Ainsi la mise en regard permet-elle de repérer les points deconvergences et traits distinctifs. De l'ensemble des contributions, deux aspects ressortent : la réserve des shs par rapport au Genre n'est pas seulement affaire dediscipline, elle est consubstantielle au fonctionnement académique et auxprésupposés sociaux; traiter du Genre, c'est profiter des acquis d'unquestionnement particulièrement riche pouvant irriguer favorablement la disciplinequi s'en chargerait. Mais de polémique il ne sera pas question ici, quand bien mêmese situe -t-on dans des « Échanges » dont la tonalité peut parfois être « musclée » .En effet, le texte soumis à discussion ne s'est pas vu contester par ses lectrices ,tout au plus des nuances lui ont-elles été apportées. En revanche, et c'est unespécificité de cette livraison, les chercheuses – hormis Marie-Joseph Bertini qui achoisi d'amplifier l'analyse initiale de sa collègue – ont empoigné la réflexion deMarlène Coulomb-Gully à partir de leur propre objet de recherche dont il convient depréciser qu'il est centré sur les femmes. D'hommes il est peu question – si ce n'estdans l'argumentation de Françoise Thébaud –, le genre étant envisagé selon leproblème de la domination masculine, moins selon l'intrication masculin - féminin quiouvrirait à des comparaisons, absentes ici, et que d'aucuns pourraient regretter( Gavillet, 2005; Fleury, Walter, 2005). Quoi qu'il en soit, plusieurs terrains sontexplorés, sans que les résultats des travaux conduits sur l'un ne viennentcontredire ceux de l'autre. Du coup, c'est d'un accord dont il s'agit : un retard aété pris et il est important de le combler. D'ailleurs, c'est plus précisément cetteréflexion à double entrée qui nourrira la première partie de ce préambule, pour sapart réservée à la situation au sein des études en sic et/ou sur les médias, la seconde approche étant consacrée à l'appréhension du Genrepar la littérature et l'histoire. Prendre un parti disciplinaire peut semblerréducteur pour une question de cet ordre qui déborde le cadre contraint desdisciplines constituées. Mais, ici, il a l'avantage de mettre en évidence le rôled'aiguillon que des chercheurs engagés dans les études sur le Genre impulsent ausein de leur communauté. En effet, que les contributrices soient chercheuses en sic, en science politique, en littérature, en histoire, oncomprend combien cet angle d'analyse compte à leurs yeux. En atteste l'approchesimilaire qu'elles adoptent et qui consiste à revenir sur la chronologie de la priseen charge de ces études dans leurs domaines respectifs. Marlène Coulomb-Gully situe le Gender Turn au débutdes années 2000 en France, quand bien même, en 2001 encore, « lescoordinatrices de Masculin-Féminin : questions pour lessciences de l'homme (Laufer, Marry, Maruani, 2001 : 11) »jugeaient-elles cette lenteur « bien suspecte ». Si un retard est constaté ,il ne peut l' être qu'au regard d'une comparaison avec une avancée observableailleurs, aux États-Unis par exemple, mais aussi dans d'autres paysd'Amérique du Nord. Pour Marlène Coulomb-Gully, on ne peut comprendre cephénomène sans le rattacher « à l'histoire du féminisme en France et sesrapports avec l'institution universitaire ». D'où une argumentation fondéesur un phasage en trois temps : « 1970 : année zéro du féminisme ? », « Dudébut de reconnaissance des années 80 au « creux » des années 90 » ,« Troisième millénaire : la nouvelle donne ». Sans revenir par le menu surles éléments d'explicitation apportés par la chercheuse, il convient denoter plusieurs traits caractéristiques : la difficile cohabitation entre lemilitantisme féministe et le monde académique, dans les années 70 sur tout ,l'un se méfiant de l'autre et vice-versa; la stimulation par le politiquedes études sur le Genre, notamment lors de l'arrivée de la gauche au pouvoiren 1981; la mise en débat public des questions de Genre – avec, parexemple, celle de la parité – et ses effets en termes institutionnels, desréseaux de recherche étant constitués dans les années 2000. En dépit de cesdifficultés, Marlène Coulomb-Gully constate que des études de Genre sontparvenues à s'implanter avant cette période, mais en sociologie, histoire ,psychologie sociale, philosophie, littérature, littérature et civilisationanglophones et économie, pas en sic où le viragen'a été pris que plus tardivement. De ce point de vue, Françoise Thébaudapporte un éclairage tout à fait passionnant en ce qui concerne ladiscipline historique. Effectivement, les études sur le Genre y commencentdans les années 70 et seraient un effet des années 68 : « Dominante etlongtemps incontestable dans l'institution, cette histoire au masculin estdevenue critiquable dans un contexte intellectuel, social et politiquefavorable à l'émergence de nouveaux questionnements et à de multiplescontestations ». Ainsi cite -t-elle plusieurs travaux fondamentaux, touscaractéristiques d'une sensibilité scientifique renouvelée : « Parution detravaux pionniers en sociologie du travail féminin (représentée notammentpar Andrée Michel, Madeleine Guilbert et Evelyne Sullerot); renouvellementde l'anthropologie qui incite les historiens à travailler sur la famille ,les relations de parenté et le symbolique; influence diffuse de MichelFoucault qui défend une démarche antinaturaliste et des objets d'étudeoriginaux (la folie, le pouvoir, les disciplines, les sexualités) ;ouverture de la discipline à l'histoire ouvrière et à la “nouvellehistoire ”, qui propose l'élargissement du champ des recherches auxmentalités,à la démographie, aux marginaux, aux attitudes devant la vie, auquotidien, tous sujets qui rencontrent inévitablement les femmes ». Une question se pose : nées dans les années 70 (Boure, 2007, 2008; Questions de communication, 12, 2007), pourquoi lessic n'ont-elles pas profité de ce mouvement ?L'une des raisons invoquées par Marlène Coulomb-Gully relève d'unepréoccupation disciplinaire d'ordre identitaire. Elle constate que « biendes griefs formulés par le monde académique français à l'encontre des étudesde Genre rappellent ceux qui ont été opposés aux sic dans leur combat pour l'accès à la légitimitéinstitutionnelle ». Mais à cette gémellité, elle ajoute un caractère typiquede la société française : l'universalisme républicain. Se singularisant parun refus de « toute spécificité de race, de classe et de Genre pour ne voiren chaque citoyen qu'un exemplaire d'une humaine condition dégagée de touteincarnation », cette approche a probablement pesé sur des études attachées àétudier des différences et à en expliquer les modalités et processus defonctionnement. Marie-Joseph Bertini va plus loin encore. Ce n'est pas de retard dont il fautparler, mais de refus : celui de l'Université française de considérer laproblématique du Genre « comme centrale au sein des recherches [… ], toutesdisciplines confondues ». En cela, la recherche en France est en écart parrapport à la dynamique internationale du GenderMainstream – « approche intégrée de l'égalité » – qui « développedes stratégies visant à incorporer durablement la perspective de cetteégalité dans toutes les dimensions et à tous les étages de la réalitésociale et culturelle ». Si le Gender Mainstream voitdes applications en divers domaines – économie, éducation, formation ,communication et information, politique, développement, santé, travail… – ,il doit aussi beaucoup aux travaux anglo - saxons sur le Genre. C'est doncsous la pression que la France s'est ouverte à ces questions, sans que ,contrairement à d'autres pays, « une discipline à part entière relevant duConseil national des universités (cnu) » lui aitété dédiée. Marie-Joseph Bertini voit deux raisons à ceci qui s'ajoutent àcelles suggérées par Marlène Coulomb-Gully : l'influence persistante dumodèle chrétien, et « la persistance très française de la notion d' “ordresymbolique” maintenue à travers le triple dispositif de la philosophie dudroit, de la psychanalyse lacanienne et de l'anthropologiestructurale ». Mais cette spécialiste des études de Genre n'en reste pas là3. Elle prend au sérieux ce mouvement par lequelles sic sont passées d'une période denon-légitimité à une autre, qui serait celle de la reconnaissance. Elleaussi fait l'hypothèse que cette progressive stabilisation a pu conduire ladiscipline à pratiquer la prudence en matière de terrains de rechercheeux -mêmes en construction. D'ailleurs, elle consacre une partie de sonargumentation à ce phénomène, expliquant que ce n'est pas un hasard si cesont des disciplines anciennes qui se sont d'abord ouvertes à laproblématique du Genre. Ainsi ces dernières, moins enclines que les sic à perpétuer la « prétention des sciences àl'objectivité et à la neutralité du chercheur », ont-elles su intégrerd'autres façons de « faire la science », telles celles pratiquées par lesCultural, les Women puisles Gender Studies. Pour Marie-Joseph Bertini ,« résolument post-modernes, c'est-à-dire fondées sur l'idée que les normes ,les principes, les savoirs implicites et explicites qui structurent etorganisent toute société humaine sont le produit de constructions socialeset culturelles déterminées dans le temps (historicité) et dans l'espace( relativité), ces études n'ont pas manqué de remettre en cause les pratiquesscientifiques propres aux sciences dures ». En s'arc-boutant sur lesprincipes de neutralité et d'objectivité, les sic refuseraient de se remettre en cause, montrant ainsi une faiblessestructurelle. Marlène Coulomb-Gully fait des études de Genre en sic un principe, d'ailleurs posé de la sorte dans le titre de ladeuxième partie de son argumentation : « sic etGenre : une rencontre nécessaire ». Toutefois, poser ce principe seraitinsuffisant s'il n'était assorti de considérations prenant en compte lespropositions précédemment avancées. Telles celles au sujet des critiquesportées à l'encontre des sic et qui ont pu conduireces dernières à manifester de la frilosité quant à l'acceptation deproblématiques nouvelles et de méthodologies considérées commeinsuffisamment avérées. L'époque a changé, les sic auraient acquis une forme de maturité les libérant du poids que constitue laquête de légitimité. Mais il est une autre explication, démographiquecelle -ci : la féminisation des enseignants-chercheurs et la convocation, pardes chercheuses, des études de Genre, par conséquent en progression .D'autant que les sic étant en prise avec desphénomènes d'actualité, le changement du statut des femmes dans la secondemoitié du XX e siècle se révèle un terrain de recherchefavorable. Ainsi Marlène Coulomb-Gully pose -t-elle cette question :« Comment imaginer qu'une discipline comme les sic ,qui interrogent ces objets à travers le prisme de la médiatisation, puissentocculter la variable genrée ? ». Et de lister les domaines où cette approchea toutes les chances de trouver son compte : par exemple, l'analyse de lareprésentation des femmes dans la fiction, la réception des médias, laprésence des femmes en politique… La chercheuse pose également un prédicat :« Il ne s'agit plus d'étudier les femmes comme une entité spécifique, sortede peuplade séparée du reste de la société, mais de prendre en compte lacomplexité des interactions existant entre ses diverses composantes et doncd'inclure les hommes ». Le point de vue de Marie-Joseph Bertini est similaire, bien que plus tranché .Marie-Joseph Bertini invoque la « bâtardise » intrinsèque des sic qu'il leur reviendrait, aujourd'hui encore ,d'assumer, parce que celle -ci peut constituer une force : « Moins que demétissage, notion devenue noble, il s'agit ici d'assumer la trivialitéprofonde des sic au sens où Yves Jeanneret (2008 )déploie cette notion, leur capacité à penser des objets triviaux, vulgaires ,méprisés par les disciplines anciennement constituées et pour tantrévélateurs des tensions dynamiques d'une socioculture ». C'est justement auregard de cette trivialité que les études de Genre se révèlent profitablesaux sic : « En ce sens, la trivialité du Genreconstitue un support essentiel de sa problématisation puisqu'il fautentendre ici trivialité au sens originaire du terme : trivium signifie trois voies; la trivialité ainsi entenduedésigne un carrefour, c'est-à-dire un lieu où bifurquent les phénomènes etle sens dont ils sont revêtus ». Elle aussi aborde le thème de la féminisation du monde de la recherche en shs, mais en l'inscrivant dans une configurationqui est celle du rapport de domination exercé dans le milieu universitaire .Ainsi complexifie -t-elle le diagnostic posé par Marlène Coulomb-Gully ensollicitant une approche elle -même héritée des études de Genre : « Lapuissance du mécanisme bien connu de l'intériorisation des normes (Bourdieu ,1998) contribue à éloigner efficacement les jeunes enseignantes-chercheusesd'une problématique qui affaiblirait à leurs yeux leur position fragile dansun contexte structuré depuis ses lointaines origines cléricales etmédiévales par une forte prééminence masculine. Il en ira tout autrement desjeunes doctorantes qui intègreront le corps des enseignants-chercheurs ensic, à l'issue d'un parcours assumé de thèse dedoctorat spécifiquement axée sur la problématique Genre ». Enfin, à l'instar de Marlène Coulomb-Gully, Marie-Joseph Bertini insiste surle bénéfice que représentent les études de Genre, voyant en elles unerefondation indispensable des problématiques et méthodes. Pourquoi ? Parceque « le Genre travaille les schèmes informationnels et communicationnelsqui sont au fondement de toute société humaine et dont il est essentiel desaisir le prolongement politique rendu manifeste par les dispositifs qui, ense superposant les uns aux autres, de la famille à l'école en passant parles médias, l'entreprise, l'université, la recherche et l'espace public ,contribuent à maintenir une organisation sociale et culturelle fondée sur lahiérarchie inquestionnée des sexes et sur le primat du modèle hétérosexistequ'elle sert ». Mettant en relation les fondements philosophiques ,théoriques et méthodologiques de ces études avec les travaux de PierreBourdieu sur la domination et ceux sur le pouvoir par Michel Foucault, elledémontre combien les sic pourraient être à l'aisedans de tels questionnements, elles qui sont censées « mettre en évidencel'adossement crucial de [la doxa] aux stratégies decommunication et d'information et à leurs instruments techniques ,médiatiques et discursifs ». Car, structurellement, « les modes decirculation de la doxa dans le tissu social sontindissociables des technologies de communication et des systèmes médiatiquesqui en dérivent ». Justement, c'est sur ce terrain que se situe la contribution de BéatriceDamian-Gaillard, Cégolène Frisque et Eugénie Saitta. Si la première estchercheuse en sic, la seconde en sociologie, latroisième en science politique, toutes trois ont une expérience scientifiquecommune. Membres du Centre de recherche sur l'action politique en Europe( crape), elles ont organisé un colloque international à l'Institut d'étudespolitiques de Rennes du 15 au 18 mai 2008 : « Genre, journalisme et presseécrite. Place et production des femmes et des hommes dans la presse » .Traitant du « journalisme au prisme du genre », elles démontrent ici ,exemples à l'appui, en quoi la démarche peut se révéler « féconde ». C'est àun feuilletage précis qu'elles invitent, traitant d'abord de la féminisationdu journalisme et mettant ce phénomène en regard avec d'autres évolutions dusecteur et de ceux qui lui sont proches ou ressemblants, pour envisagerensuite les rapports de Genre dans les organisations de presse, et examinerenfin les modes de traitement genré de l'information. Ainsi ne font-ellespas du Genre une problématique isolée d'un contexte qui a une histoire, uneculture et des façons de faire qui lui sont propres. Par exemple, pour laquestion de la féminisation de la profession, les auteures préviennent, dèsl'introduction, que ce phénomène sera relié à « [l' ]expansion numérique et[ la] diversification des conditions de travail, [l' ]élévation du niveau dediplôme, [la] précarisation des statuts ». Une méthode qui permet de déjouerles idées préconçues. De la sorte, ce n'est pas dans la phase de recrutementque des différences entre sexes interviennent. C'est par la suite, « dansles déroulements de carrières différenciés des hommes et des femmes, que sejoue pour l'essentiel la reproduction de spécialisations sexuées, de formesde ségrégation horizontales et verticales ». Néanmoins, BéatriceDamian-Gaillard, Cégolène Frisque et Eugénie Saitta commentent ce résultat ,expliquant qu'il est fondé sur des études qui, ne prenant pas en compte lesvariables afférentes au Genre et à ses effets, demanderaient à êtrecomplexifiées pour mieux éclairer les phénomènes observés. D'ailleurs, ellesnotent plus largement le déficit, en France, d'études sur le sujet. Entémoignent les références théoriques qu'elles sollicitent, celles -ci puisantdans les travaux anglo-saxons, scandinaves et néerlandais, matière à nourrirleurs recherches. En croisant les processus de production de l'information avec ceux relatifs àla construction des catégories genrées, elles avancent donc sur un terrainpeu exploré. Pour cela, elles proposent « un niveau méso d'analyse afind'étudier les rapports de genre tels qu'ils s'ancrent dans les logiquesorganisationnelles des rédactions et de mettre au jour l'ordre genré dansles rédactions ». L'histoire des organisations et des relations àl'intérieur de celles -ci est un moyen de comprendre les modes et enjeux desévolutions, de même que l'analyse de la féminisation de « spécialitéstraditionnellement “masculines” » permet de comprendre ce qui se joue dansle passage d'un mode de fonctionnement à un autre. Enfin, en s'intéressant« aux rédactions où persiste une ségrégation horizontale malgré unepolitique de promotion de la parité aux postes de décision », ellessuggèrent qu'il est possible de suivre la subtile persistance de certainsstéréotypes, en lien avec la question de l'exercice du pouvoir et de sonintériorisation par les groupes concernés. Pour ce qui est de l'incidence sur le contenu de l'information, là encore ,les auteures tentent d'en investir les modalités selon un registre qui estcelui de la complexité. Évoquant les travaux français, elles constatentqu' « alors que [ceux -ci] tendent souvent à unifier les formes et les enjeuxd'une écriture “féminine ”, les recherches anglo-saxonnes et scandinavessoulignent fréquemment la diversité des stratégies des femmes pour investirle champ journalistique ». On l'aura compris, c'est dans cette lignée queBéatrice Damian-Gaillard, Cégolène Frisque et Eugénie Saitta se situent ,proposant même des pistes pour des programmes à venir. Si Marie-Ève Thérenty reprend à son compte l'idée d'un retard des sic, mais aussi de l'ensemble des étudesmédiatiques sur le Genre, elle insiste également « sur l'utilité d'un regardhistorique et rétrospectif sur les médias, regard qui permettra nonseulement de faire émerger des continents journalistiques oubliés par leshistoires de la presse traditionnelle, mais également de recadrer le rôledes médias dans la sexuation de notre société ». Car l'auteure connaît bienla littérature, elle qui a publié nombre d'études à visée générale( Thérenty, 2001, 2003, 2007; Thérenty, Vaillant, 2005), ou plus spécifiques( Thérenty, 1995, 1997, 1999…). En outre, pour s' être souvent risquée àfranchir les frontières académiques de sa discipline mère, elle en connaîtbien les « à côté », ce qui, de son propre aveu, expliquerait son entréedans les études de Genre. Comme le fait Marlène Coulomb-Gully, elle revientdonc sur les circonstances de cette rencontre. Son parcours professionnels'est fait « tout entier à l'intérieur de la 9 e section( littérature française), mais avec un objet de recherche un peu incongru ,semblant relever,à l'origine, plus de la discipline historique que deslettres : la presse au XIX e siècle. Cet objet inattendupour une spécialiste de littérature a engendré une démarchetransdisciplinaire et sans doute un peu marginale par rapport aux étudesauctoriales traditionnellement de mise dans les disciplines littéraires et apeut-être prédéterminé une certaine sensibilité aux questions de Genre » .C'est au moment de son habilitation à diriger des recherches « et avecl'amicale complicité de Christine Planté (1989), spécialiste des études deGenre », qu'elle a été conduite à « considérer d'un tout autre œill'histoire de la presse au XIX e siècle ». Ceci posé, elle montre l'intérêt qu'il y a à travailler la question desrelations entre presse et Genre au XIX e siècle, lapresse faisant « circuler des représentations de la différence des sexes » ,et constituant « sans nul doute, un lieu très important de la constructionde cette différence ». Et de constater que, si la presse militante et lespériodes les plus engagées ont été bien étudiées, des pans restent enfriche. Les investir oblige le chercheur à revoir une distinction classiquemais, à son sens, inopérante, entre presse féminine et presse féministe, lesfrontières entre les deux catégories se brouillant dès la fin du XIX e siècle. D'où une approche qui vise là encore lacomplexité, notamment quand elle concerne les stéréotypes, les modes deconstruction de ceux -ci et la diversité des lieux où ils se manifestent( types de presse, d'articles). Tout en s'inscrivant dans une histoire à large portée, il faut noter que lacontribution de Marie-Ève Thérenty fait écho à celle de Béatrice Damian -Gaillard, Cégolène Frisque et Eugénie Saitta. Une façon de montrer, sibesoin était, la porosité des frontières disciplinaires, mais aussi larémanence de certaines pratiques journalistiques. Ainsi la chercheuse fait -elle cette hypothèse : « Il existe peut-être une coïncidence à interrogerentre ce moment du reportage féminin au tournant du siècle, et puisaujourd'hui la sociologie actuelle de la profession qui se caractérise parune augmentation nette du nombre des femmes et également l'émergence dedifférentes formes de journalismes qui témoignent d'un nouvel engagement dureporter ». Quant à ce qui a trait aux professionnels eux - mêmes, ellemontre tout l'intérêt d'une recherche attentive à exhumer le rôle joué parcertaines personnalités : « Cette pratique invite l'historien à un retour enarrière sur ces quelques femmes journalistes du XIX e siècle dont l'invention de postures, de procédés et de poétiques a sansdoute été considérablement occultée, soit qu'elle ait été récupérée (onpense à la chronique), soit qu'elle ait été niée (on pense au reportage). Ontouche alors à un paradoxe manifeste : une partie de l'invention dujournalisme serait à mettre à l'actif de quelques femmes alors même qu'ellesont été, dans la mesure du possible, tenues à l'écart du champ médiatique ». Enfin, Marie-Ève Thérenty ne dissocie pas l'histoire de la presse del'historiographie de celle -ci, dont elle constate qu'elle est quasimentuniquement masculine. De ce diagnostic, elle tire une conclusion en forme demanifeste : non seulement les études de Genre doivent s'ouvrir à l'Histoiremais, selon elle – et elle l'assume pleinement –, il n'est pasinconcevable – ce qui sous-entend qu'il est souhaitable – qu'elles soientprises en charge par des femmes. C'est aussi l'angle historique qui sert de fil conducteur à la contributionde Catherine Gravet. Mais le propos de cette spécialiste d'Alexis Curversdiffère de celui de ses collègues :il n'y est question ni des médias, ni de la situation française, mais duchamp littéraire belge et de l'historiographie le concernant. Ainsi, endépit d'une approche spécifique, Catherine Gravet, comme les autrescontributrices, associe -t-elle l'analyse d'un champ à celle du domainescientifique qui lui est attaché. Ce, afin d'examiner « le rôle deshistoriens de la littérature dans la reconnaissance, l'essor, la stagnationou l'occultation des romancières belges ». Elle retrace plusieurs lieux etouvrages fondamentaux où s'est exercée la critique, montrant les partis prisqui y furent à l' œuvre jusque dans les années 80 et la considérationvariable et limitée dont les femmes y ont bénéficié. Premier cas : l'Académie royale de langue et de littérature françaises deBelgique qui vit le jour en 1920. Si cette institution était censée accorderune place significative aux femmes, force est de constater qu'aucune « n'estmembre fondateur et que, parmi les 49 membres ayant siégé durant les deuxpremières décennies, on n'en déniche qu'une seule, Marie Gevers (entréeen 1938) ». Il faudra attendre l'après-guerre pour trouver une romancière« prisée ou primée par l'Académie ». Or, l'Académie bénéficie d'une imagequi serait celle de sa dimension féministe. Chiffres à l'appui, CatherineGravet récuse ceci et suggère que si cet avis a la dent dure, probablementest -ce dû à la présence en son sein de deux illustres figures de lalittérature : Anna de Noailles (1921) et Colette « (qui lui succède au siègen° 33, en 1935) ». Catherine Gravet s'attaque ensuite à un ouvrage de référence, Les Écrivains belges contemporains. 1800-1946, parupeu après la Seconde Guerre mondiale et signé de l'abbé Camille Hanlet. Dansle chapitre 6 de cette impressionnante somme (1302 pages), l'abbé traite desfemmes de lettres, écartant donc celles -ci de rubriques où elles avaienttoute légitimité de figurer : « Les Écrivains de guerre » ou « Les Écrivainsde voyages ». Certes, l'admiration peut affleurer dans plusieurs analysesconcernant des romans écrits par des femmes, mais des manques sontmanifestes et des avis pour le moins tranchés sont formulés, pour la pluparten lien avec la graduation de ce que l'abbé considère comme étant acceptableou non aux yeux de la morale chrétienne. Quant à l'ouvrage dirigé parGustave Charlier et Joseph Hanse, qui consiste en une« première grande histoire collective des lettres françaises de Belgique, deleurs origines à nos jours » et qui paraît à l'occasion de l'expositionuniverselle en 1958, il voit la collaboration de trois femmes (sur un totalde 31 collaborateurs) : Marie Delcourt, Rita Lejeune-Dehousse et ÉmilieNoulet. De ce point de vue, les compléments que Catherine Gravet apportesont explicites : « Des 59 chapitres, répartis en dix livres et autresappendices, ces dames en rédigent quatre, et, sur un total de 656 pages ,elles s'en voient attribuer quarante-huit, illustrations et bibliographiecomprises, soit, grosso modo, 7 % ». Et de faire cecommentaire : « Ici, le militantisme féministe ne semble pas de mise ,peut-être parce que les périodes ne s'y prêtent guère ». Que se passe -t-il donc dans les années 80, qualifiées par l'auteure detournant et où l'on commencerait « à appréhender autrement les lettresbelges en leur cherchant des spécificités » ? Une personnalité nourrit leslinéaments de son analyse, celle de Marc Quaghebeur qui, selon elle, « aproduit des miracles pour la promotion des lettres belges, et en particulierdes romancières ». Dans Balises pour l'histoire deslettres belges (1982) ou dans Lettres belgesentre absence et magie (1990), celui -ci réserve de belles pages àdes romancières ou poétesses, louant notamment certains traitscaractéristiques de leur écriture : « Les femmes paraissent en tout casdevoir proférer leurs audaces dans une langue qui ne se préoccupe pasd'irrégularités, mais qui ne débouche pas pour autant sur la crispationnéo-classique » (Quaghebeur, 1990 : 421). Deux décennies plus tard, en 2000, une autre somme paraît. Elle est dirigéepar Pierre Halen et Christian Berg, et permet à Catherine Gravet de mesurerle chemin parcouru. Il aura donc fallu attendre de nombreuses années pourvoir l'historiographie belge observer la littérature féminine autrement qu' àtravers les lunettes de la misogynie : « Une femme de lettres, quoi qu'ellefît, ne pouvait être l'égale de l'homme de lettres. Au mieux, pouvait-elleespérer une reconnaissance morale ». Ainsi, selon la chercheuse, laromancière belge souffrirait-elle (au passé mais peut-être encore auprésent) « d'une double illégitimité liée à la double tare d' être à la foisfemme et belge ». Deux sérieux handicaps dans un champ quadrillé par desidées convenues ! La contribution de Françoise Thébaud entrelace deux aspects qui sont présentsdans les autres textes, mais de façon moins frontale : l'étude d'un champ etcelle de ses acteurs. En effet, l'historienne réserve une part importante desa démonstration aux femmes historiennes et à la place de celles -ci dans ladiscipline, selon une approche chronologique. Précisons que la problématiquedes femmes traverse de part en part la carrière de Françoise Thébaud .Soutenue à l'université Paris 7,en 1982, sa thèse s'intitulait Donner la vie. Histoire de la maternité en France entreles deux guerres; son habilitation à diriger des recherches portele titre Écrire l'histoire des femmes : bilan etperspectives (université Lyon 2, 1995). Entre-temps, elle a écritnombre d'articles et publié plusieurs ouvrages – La femmeau temps de la guerre de 14 (1986), Quand nosgrands-mères donnaient la vie : la maternité en France dans l'entre-deuxguerres (1986), Écrire l'histoire des femmes( 1998). Elle a également coordonné des volumes collectifs ainsi que desnuméros de revues et codirige une revue – clio, Histoire, Femmes etSociétés – qu'elle qualifie ainsi : « Libérée de la crainte ,autrefois affirmée, de faire de l'histoire des femmes un “ghetto ”, animée dela volonté d'obtenir une reconnaissance intellectuelle et institutionnellede l'histoire des femmes et du genre, elle [la revue] affirme, par son titreet son contenu, son appartenance à la communauté des historiens, joue lacarte de la visibilité intellectuelle et recherche une confrontationmutuelle féconde avec à la discipline historique ». Si les travaux de la chercheuse sont centrés sur l'histoire des femmes, ilsajoutent désormais à celle -ci une attention « au processus de reconnaissancede ce domaine de recherches, par la transmission d'une expériencehistoriographique, l'exposé des débats méthodologiques et une mise enperspective internationale ». C'est notamment cette perspective qu'elledéveloppe dans une réédition revue et complétée de son ouvrage de 1998, etdont le titre se voit modifié quelque peu : Écrirel'histoire des femmes et du genre (2007). Et c'est cette approchequ'elle amplifie ici et qu'elle explique en ces termes :« Derrière Joan Scott (1988), qui invite à comprendre en quoi la politiquedéfinit le genre (place respective et hiérarchisée des hommes et des femmes ,conceptions culturelles du masculin et du féminin), et en quoi le genrestructure la politique, il s'agira de reprendre sous un autre angle cesavoir accumulé; en prêtant notamment attention aux définitions de ladiscipline et à ses contestations, au rôle des actrices (scientifiquesfemmes), aux moments singuliers où changent les configurations de savoir etde pouvoir, aux résistances multiples et à leurs recompositions ». Trois périodes scandent sa démonstration : une première (entre la fin duXVIII e siècle et 1930) où l'histoire apparaît comme unediscipline masculine, la postérité oubliant d'ailleurs que des femmes y ontexercé « faute de légitimité et de transmission »; une deuxième, à par tirdes années 70, qu'elle qualifie de « moment féministe » et qui est « animépar des filles du baby boom ayant bénéficié de lapremière vague de démocratisation de l'enseignement secondaire etsupérieur ». Il se caractérise par un substrat politique doublé d'uneréalité sociologique, puis lors de la seconde vague, par « une dimensionculturelle de critique des savoirs établis ». Le projet est ambitieux : ilconsiste à redonner une histoire aux femmes du passé et une mémoire à cellesd'aujourd'hui; une troisième qui voit « le glissement d'une histoire auféminin » – toujours prolixe – à une « genderhistory » qui résulte « à la fois de critiques internes au champ derecherche et d'un phénomène de transfert et accommodement de notions venuesd'outre-Atlantique et d'autres disciplines ». Le rapport entre militantismeet recherche fait alors débat, celui des emprunts notionnels aussi. Ainsi enest-il du terme gender qui ne sera pas du toututilisé « avant la traduction en français en 1988 de l'article de Joan Scott“ Gender : A Useful Category of Historical Analysis” », sera mis endiscussion ensuite, et dont les apports méthodologiques et conceptuelsseront néanmoins intégrés et adaptés. Si la démonstration de Françoise Thébaud est fondée sur une analyse dessujets travaillés et concepts utilisés, des réseaux de sociabilité et deslieux d'édition, elle prend également en compte les effets engendrés par lecontact entre différentes traditions de recherche qui font des études deGenre, un domaine foisonnant d'échanges et de discussions. Quant à laréception de ces travaux, elle connaît une situation particulière :« Acquise depuis les années 80 auprès du public lecteur, la reconnaissanceintellectuelle de l'historie des femmes et du Genre a indéniablementprogressé ces dernières années dans la communauté des historiens [… ]. Cettereconnaissance intellectuelle n'est cependant pas totale et n'est pas suivied'une reconnaissance institutionnelle qui permet à un domaine de recherched'exprimer toutes ses potentialités ». D'où une situation contrastée sur leplan de la transmission, des étudiants pouvant suivre un cursus complet sansjamais entendre parler des travaux sur le Genre, tandis que d'autres, àl'occasion de séminaires ou cours optionnels, peuvent y être initiés. De cepoint de vue, les derniers mots de la conclusion sont explicites :« L'Histoire continue ». En arrière-fond des contributions ici rassemblées, une question se profile :comment stimuler un Gender Turn qui ne soit pas un seuleffet de mode, mais qui constitue un véritable enjeu scientifique ? PourMarie-Joseph Bertini, seul le volontarisme académique peut y parvenir. Mais unvolontarisme associant, pour les sic, les instances quiont en charge sa structuration, à savoir la société savante – la Sociétéfrançaise des sciences de l'information et de la communication (sfsic) –, le lieu de qualification desenseignants-chercheurs – le cnu 71 e section –, le ministère de l'Enseignement supérieur et de laRecherche. Selon elle, c'est à cette condition qu'il sera possible de voir sedéployer un effet en chaîne (« un cercle vertueux »), qui va du profilage despostes – en pensant une offre pédagogique ajustée –, à l'encouragement et lesoutien d'études sur le sujet. De la sorte, elle espère voir des réseaux seconstituer et des problèmes de recherche acquérir une importance qui, pourl'heure, reste encore trop fragile. Pour Catherine Gravet aussi, une recherchevolontariste doit être menée car c'est elle qui permettra de dépasser lesobstacles que peuvent constituer certains a prioritenaces. Toutefois, la chercheuse s'interroge : « La bonne volontésuffit-elle ? ». Effectivement, les préjugés ont pour particularité d' êtretenaces…
La question au centre de ces « Échanges » est celle du contraste entre l'abondance des publications et débats autour de la problématique du Genre et la discrétion des sciences de l'information et de la communication en la matière. Pour en comprendre l'origine et les ressorts, Marlène Coulomb-Gully met en discussion un texte dans lequel elle étudie la discipline au regard du cadre académique et social dans lequel elle s'inscrit. À sa suite, plusieurs chercheuses lui répondent: quatre conduisent des recherches dans le champ des médias - Marie-Joseph Bertini, Béatrice Damian-Gaillard, Cégolène Frisque et Eugénie Saitta -, deux au sein des études littéraire - Catherine Gravet et Marie-ÈveThérenty -, une est historienne, Françoise Thébaud. Convaincues que la recherche en ce domaine doit s'accompagner d'une démarche volontariste, toutes tentent d'élucider les raisons du retard constaté et le profit qu'il y a pour les sciences humaines et sociales à le combler.
sciencesInfo_10-0298628_tei_1080.xml
termith-354-communication
Le monde culturel se transforme avec les technologies de l'information et le rôle qui lui incombe pour numériser puis gérer, publier, préserver des documents numériques, images, texte, vidéo, son, 3D, ressources interactives. Il bénéficie d'un certain nombre de technologies développées par ailleurs pour d'autres applications, et adaptées aux documents patrimoniaux, en tenant compte des problèmes spécifiques qu'ils posent. Afin de créer des programmes pour la numérisation des collections, le secteur culturel s'est appuyé sur des expériences lancées dans le monde de la recherche. La Mission de la recherche et de la technologie du ministère de la Culture et de la communication soutient ainsi des projets de recherche parallèlement à la gestion du programme national de numérisation; la Bibliothèque nationale de France participe à de nombreux travaux, en France et à l'international; l'Institut national de l'audiovisuel a une direction de la recherche et de l'expérimentation très active dans les réseaux européens, notamment sur la préservation du patrimoine audiovisuel. Les travaux de recherche menés dans les laboratoires conduisent à améliorer les standards et les outils techniques pour développer l'accès aux contenus culturels numériques, pour préserver les originaux lors de la numérisation, pour assurer l'intégrité des données stockées, pour extraire automatiquement des informations à partir de ces documents, enfin pour mettre au point des chaînes de traitement performantes qui permettent de baisser les coûts de production. Un certain nombre d'obstacles à la production massive de ressources numériques font ainsi l'objet de recherches sur les documents eux -mêmes et sur les systèmes qui permettent de les créer, de les identifier, de les gérer, d'y accéder, de les retrouver, d'en extraire des informations, de les préserver. Pourtant, les travaux doivent se développer dans un certain nombre de domaines et évoluer avec les innovations technologiques et l'adaptation du secteur culturel aux technologies de l'information. Des difficultés majeures subsistent pour répondre aux besoins de numérisation à des coûts raisonnables et dans de bonnes conditions, pour l'exploitation et la conservation des documents numériques. Les recherches permettent d'améliorer les procédures de traitement pour le monde culturel (bibliothèques, musées, archives, inventaire, monuments et sites…), pour celui de la recherche (archéologie, fonds patrimoniaux des bibliothèques universitaires par exemple), mais aussi pour les galeries, agences, ou encore les établissements publics tels que l'Institut national de l'audiovisuel. Des coopérations existent ainsi entre monde de la recherche et monde culturel et patrimonial pour réaliser des applications innovantes. Elles sont encouragées par les pouvoirs publics pour améliorer les procédures de travail et moderniser les services aux citoyens. Sur l'ensemble de la chaîne de numérisation et de traitement des documents, la recherche et l'expérimentation de technologies sont fondamentales. La numérisation en masse de documents se heurte à la manipulation particulière de documents fragiles, la nécessité parfois de numériser sur site, la diversité des formats (certaines séries comprennent des documents très larges et d'autres de taille réduite). Les documents d'archives, souvent fragiles, se mesurent en kilomètres et posent un véritable problème à la fois de conservation des originaux et d'accès. Ils sont souvent dépourvus d'index qui faciliteraient le repérage des informations et les généalogistes par exemple doivent parfois déployer une grande énergie pour repérer les noms cités dans des registres. Les cartes et plans, en particulier de grand format, nécessitent des dispositifs particuliers pour l'acquisition et le stockage de l'ensemble des informations nécessaires afin de restituer les images numériques et permettre une navigation pertinente. Les formats numériques n'assurent pas la pérennité des données patrimoniales et des stratégies doivent être élaborées pour la conservation des documents numériques, avec le défi particulier posé par les nouveaux médias qui mêlent différents formats. Le coût important de l'indexation des documents et le volume des fonds existants qui ne sont pas indexés a conduit à mener des travaux pour l'indexation ou la classification assistée des documents qui permettent la création automatique ou semi-automatique de métadonnées descriptives et/ou de structure pour l'accès, la gestion et la diffusion des documents. A partir de données techniques, il est alors possible de développer de nouveaux modes d'accès, très importants dans le cas du son et des images animées, basés sur la recherche et la navigation par le contenu (recherche d'images similaires à une image donnée par exemple). Enfin, la diffusion des fonds numérisés pose un véritable problème pour la protection des droits de propriété intellectuelle. Cet aspect est de plus en plus traité de manière technique, avec la protection technique des œuvres et donc des documents numériques publiés sur les réseaux (par exemple le marquage). A titre d'exemples, le Laboratoire d'acoustique musicale du CNRS collabore avec le ministère de la culture français sur la préservation des supports de stockage des documents numériques (intégrité des données). L'IRISA travaille sur des applications pour la navigation dans de grandes quantités de documents d'archives grâce à l'annotation des documents en fonction de leur structure. Le projet DEBORA, conduit notamment à l'Ecole nationale supérieure des sciences de l'information et des bibliothèques et à l'INSA de Lyon, a permis d'améliorer la chaîne de numérisation de documents fragiles. Les chercheurs de l'Institut national de l'audiovisuel développent des systèmes d'indexation assistée grâce à la reconnaissance des sons et des formes. Le centre de recherche et de restauration des Musées de France analyse la structure de peintures, réalise de la numérisation à très haute définition et en trois dimensions… L'IRCAM élabore des systèmes pour la recherche d'informations musicales par le contenu et l'identification automatique d' œuvres. Outre la technologie, les travaux de recherche sur les aspects documentaires permettent d'améliorer l'accès aux documents numériques grâce à leur description, la préservation et l'organisation de ces documents grâce à des métadonnées de gestion, enfin leur utilisation et réutilisation dans différents contextes. Ces recherches sur les métadonnées, les concepts qu'elles représentent, les terminologies et thesaurus visent à faciliter l'accès et la gestion des documents numériques par différents systèmes descriptifs (jeux de métadonnées et contenus de ces métadonnées), établissant des relations entre des modèles d'interopérabilité et des ensembles de métadonnées. Elles exploitent les travaux d'indexation réalisés souvent manuellement dans les établissements culturels. Une particularité de ce type de recherches qui rejoignent en partie les applications du web sémantique, est qu'elles nécessitent de larges corpus documentaires, utilisables et utilisés pour améliorer les applications de recherche d'informations. Les recherches sur l'accès aux documents incluent également les applications du traitement automatique du langage pour la recherche dans de grands volumes de documents textuels ou dans des métadonnées. Ainsi le projet AGILE 1 qui associe la société Lingway et la Bibliothèque nationale de France doit permettre la mise au point d'une application de Web-mining. Enfin, des travaux lancés par le secteur culturel portent sur les utilisateurs des documents numériques patrimoniaux en ligne et leurs usages. L'étude lancée par la Bibliothèque nationale de France avec France Télécom R&D est à cet égard très importante pour montrer comment les utilisateurs abordent les documents numériques, ce qu'ils souhaitent en faire, comment et pourquoi les créer plus efficacement pour un plus large public. Des partenariats avec des universités, telles que Lille 3 permettent de développer ce type de recherche. Le laboratoire Culture et communication de l'université d'Avignon s'est notamment penché sur l'audience des sites internet patrimoniaux et leurs usages en milieu éducatif. Des travaux sur les interfaces homme-machine, en particulier au CNAM (laboratoire CEDRIC) anticipent les nouveaux modes d'accès aux documents patrimoniaux numériques, pour feuilleter des ouvrages en ligne ou la création et la navigation interactive de documents culturels numériques. Les travaux internationaux permettent de définir des axes stratégiques et de développer ainsi des projets communs. Des projets majeurs tels que DEBORA ou METAe ont par exemple montré la complémentarité des équipes de recherche en Europe sur le thème de la numérisation. L'émergence de thématiques transnationales telles que le multilinguisme doit associer des équipes internationales. Les acteurs culturels prennent conscience de la nécessité d'échanger les expériences et d'adopter des stratégies concertées sur l'innovation. Au niveau international, le Cultural Content Forum 2 s'attelle à fédérer les recherches sur les audiences des documents patrimoniaux en ligne ou « contenus culturels numériques ». Cette initiative commune des pays de l'Union européenne, d'Amérique du Nord, d'Australie et à laquelle se sont joints des Etats asiatiques, montre que les problématiques de recherche sur les documents patrimoniaux sont très largement partagées par les responsables des institutions publiques. Les responsables de la numérisation du patrimoine culturel et scientifique dans les différents Etats membres de l'Union européenne ont donc tout intérêt à partager les résultats des recherches réalisées dans leur pays, à discuter des technologies à expérimenter et définir les priorités pour la recherche sur les documents patrimoniaux. D'autres forums européens permettent de discuter des priorités technologiques, en facilitant la rencontre de chercheurs, de responsables institutionnels, d'acteurs culturels et d'entreprises du secteur. Ainsi, le forum Digicult 3 examine les applications de différentes technologies dans le secteur patrimonial, telles que les applications du web sémantique ou les technologies et applications qui assurent l'intégrité et l'authenticité des documents numériques. L'Open Archives Forum 4 envisage les recherches, expérimentations à réaliser et développements potentiels du protocole de collecte de métadonnées de l'initiative des Archives ouvertes (OAIPMH). Cette rencontre des chercheurs, des acteurs culturels et institutionnels afin de définir les usages et thèmes prioritaires de la recherche passe par l'organisation de grands événements. Sur le modèle de la grande conférence américaine Joint Conference on Digital Libraries, la conférence européenne European Conference on Digital Libraries sur les bibliothèques électroniques est devenue une référence mondiale et un espace privilégié de rencontre entre acteurs culturels et acteurs de la recherche pour la création et l'exploitation de documents numériques patrimoniaux. Pourtant, une telle rencontre a conduit à poser la question de l'aire couverte par le concept de bibliothèques électroniques, lors d'une table ronde animée par Stefan Gradman de l'université de Hambourg « Bibliothèques ? Electroniques ? ». Des spécialistes de différents secteurs réunis autour de ce thème appliquent des technologies développées dans les domaines de la recherche d'informations, les interfaces homme-machine, le traitement automatique du langage, la création d'outils pour la gestion à long terme des fonds patrimoniaux. Le champ couvert par les bibliothèques électroniques est devenu bien plus large que celui des seuls fonds de bibliothèques, il s'étend en effet à de nombreux autres types de contenus, produits et gérés dans des services d'archives, des musées, des monuments, des sites archéologiques ou naturels, etc., ainsi que le décrit le réseau d'excellence sur les bibliothèques électroniques en Europe, DELOS 5. Les applications mises en œuvre devraient être, dans l'avenir, de moins en moins calquées sur celles des bibliothèques physiques. Pourtant, les représentants du secteur patrimonial à une telle conférence viennent surtout du monde des bibliothèques. Face à la diversité des recherches présentées, face à un « public » encore peu composé de représentants des secteurs des musées, des archives ou d'autres domaines patrimoniaux, la table-ronde proposait une réflexion sur les stratégies, les objectifs et les attentes des publics pour comprendre comment intégrer réellement l'ensemble des types de contenus numériques et adapter les recherches en cours aux besoins des utilisateurs de bibliothèques numériques. Mais les « bibliothèques électroniques » sont un champ d'application, sont-elles un champ de recherche ? La question majeure posée aux intervenants était ainsi d'envisager la structuration d'une aire de recherche pour intégrer toutes les technologies nécessaires pour créer, accéder, gérer, rechercher et préserver les documents numériques patrimoniaux. Toutes ces technologies convergent pour proposer des applications au monde culturel mais ne définissent pas de problématiques spécifiques aux documents patrimoniaux, les différents types de contenus, leur langue, leur type, audiovisuel, image, texte… leur histoire, leur création… C'est là la responsabilité des acteurs culturels de démontrer les besoins spécifiques des documents patrimoniaux et donc de s'impliquer aux côtés des chercheurs, proposer des contenus adaptés à la recherche et partager leurs savoirs et expériences complémentaires pour le développement de projets innovants. Une stratégie pourrait ainsi s'élaborer pour permettre la rencontre des acteurs de la numérisation et de l'exploitation des documents culturels numériques, pas seulement par secteur mais grâce à des réseaux transversaux, alliant les bibliothèques, les musées, les archives, les monuments, les vidéothèques, les universités et laboratoires des établissements culturels. Il est très important, pour le secteur patrimonial, d'encourager ce type de collaborations, en développant les compétences des établissements culturels, en réalisant le cas échéant des guides et en fournissant des outils tels que des contrats types pour l'utilisation de ressources. C'est de ce constat qu'est né le projet EMIIDCF 6 qui devait définir l'état des collaborations entre les différents secteurs pour les projets de recherche du programme IST de la Commission européenne 7 et fournir des outils et spécifications pour améliorer la participation des acteurs culturels, seule garante du transfert de technologies et donc de l'utilisation effective des résultats de la recherche. Finalement, les établissements qui ont développé des compétences technologiques se prêtent souvent plus volontiers à des projets de recherche avec le secteur universitaire ou le secteur privé. Les contenus fournis pour la recherche sont de meilleure qualité et les partenariats plus aisés. C'est en développant ces compétences et le respect de standards pour la création des documents numériques, que les fonds patrimoniaux seront le plus facilement réutilisables pour le développement d'applications innovantes. Ainsi, les projets EMII-DCF sur la réutilisation des documents numériques patrimoniaux pour la recherche et MINERVA 8 sur les politiques de numérisation réalisent un guide commun pour les standards techniques à respecter dans les programmes de numérisation. Il dessine les contours d'un environnement européen des contenus culturels numériques (numérisés ou créés numériquement) pour faciliter la réutilisation de ces documents et le développement de services culturels en ligne. Au sein du Groupe des représentants nationaux sur la numérisation du patrimoine culturel et scientifique (GRN) 9 en Europe, des représentants des Etats membres sur la culture numérique sont sollicités pour coordonner leurs politiques, les programmes nationaux de numérisation et leur articulation avec notamment les programmes de financement de la recherche en nouvelles technologies, afin d'assurer une meilleure prise en compte des résultats des projets de recherche. Cette action repose sur un certain nombre de textes. Les principes de Lund définis en 2001 ont été approuvés par tous les gouvernements européens. Ils établissent que « Pour permettre aux Etats membres de définir et d'appliquer des stratégies et des accords relatifs à la production, à la qualité, à la découverte et à l'utilisation des contenus, il convient de résoudre un certain nombre de problèmes techniques actuels ou émergents au moyen d'actions de recherche et développement technologique 10 à court et à plus long terme. La Commission devrait : […] lutter contre la menace d'une stagnation dans le domaine numérique en concevant des programmes de recherche avancée sur les technologies numériques et sur la conservation du contenu, en améliorant les applications relatives aux technologies avancées de numérisation du contenu culturel et scientifique (par exemple, l'imagerie multispectrale) ainsi qu'en valorisant le contenu au fil du temps. Ce travail devra être effectué en collaboration étroite avec le secteur industriel 11. » Cet effort devrait être particulièrement orienté vers les établissements qui ont peu accès aux technologies et aux compétences. La Commission européenne doit donc relever le défi énoncé dans le résumé du rapport sur le patrimoine numérique en Europe : Digicult Executive Summary 2001 12 de « permettre aux petits établissements culturels, qui manquent de moyens de participer aux futurs programmes de Recherche & Développement (R&D) en réduisant le fossé technologique 13 ». La mise en place de « réseaux d'excellence 14 », rassemblant les acteurs de la recherche les plus actifs en Europe dans de nombreux secteurs, devrait renforcer cette coopération. Les pays européens doivent tirer parti de cet effort de structuration d'un champ de recherche sur la culture numérique, en intégrant les innovations aux programmes de numérisation et en assurant la création d'un grand nombre de ressources numériques, donc la présence des contenus culturels européens sur l'internet. De nombreux pays, tels l'Autriche ou les Pays-Bas 15, en élaborant une stratégie de numérisation, incluent tous les aspects de la production (numérisation et récupération des contenus créés numériquement), économiques (stratégie de commerce électronique ou modèle économique) et de recherche. Le programme « Chaîne de production numérique 16 » aux Pays-Bas associe des établissements culturels, des entreprises, des laboratoires de recherche de grandes universités pour le développement de technologies pour le patrimoine. En France et en Italie, les sources de financement de la numérisation sont couplées avec celles d'activités de recherche. Les programmes de numérisation s'appuient ou devraient s'appuyer sur des centres de compétence. Ceux -ci sont désignés pour apporter un support technique ou juridique et éventuellement un accompagnement aux porteurs de projets. Les activités de MINERVA sur les bonnes pratiques 17 montrent que de nombreux centres de compétences, qu'ils soient nommés officiellement ou largement reconnus, sont souvent des laboratoires de recherche ou des services dédiés à l'innovation dans de grands établissements culturels, tels que des bibliothèques nationales. Ces centres de compétences sont des canaux majeurs pour le transfert de technologies et jouent un rôle important pour encourager les expérimentations et les projets innovants. Les établissements plus petits devraient être davantage impliqués dans de tels projets de recherche et les guides réalisés par les experts d'EMII-DCF et de MINERVA visent effectivement à compléter l'action des centres de compétences européens. Une position commune des deux projets EMII-DCF et MINERVA dans ce sens a été présentée au Groupe des représentants nationaux lors de la réunion de Parme en novembre 2003 18. Elle vise à mettre la coopération entre secteurs culturel et de la recherche au cœur des initiatives du GRN et de la Commission européenne au moment où une nouvelle configuration apparaît entre les différents programmes communautaires pour la société de l'information, en particulier eContent, eTen, 6e programme cadre de recherche et développement (PCRD). Le programme européen IST (PCRD) est une source majeure de projets innovants impliquant notamment des établissements culturels qui développent des applications des technologies de l'information pour le patrimoine. Pourtant, la Commission n'a pas mis en place de programmes pour financer directement la numérisation et l'application des technologies peut seulement être assurée au travers des programmes de numérisation et de recherche nationaux. Dans ce contexte, il n'est pas possible de développer d'activités communes et réellement coordonnées sans l'intervention d'un organe intermédiaire. Le Groupe des représentants nationaux a clairement un rôle à jouer pour assurer la coordination de la création de contenus culturels numériques mais il doit s'élargir et être complété pour coordonner les dispositifs pour la numérisation et ceux pour la recherche, au travers de centres de compétences européens, au travers de la promotion d'un dispositif européen pour la numérisation du patrimoine, au travers d'un organe européen (observatoire ou agence décentralisé) sur la numérisation des contenus culturels. La Commission européenne n'a pas mis en place de programme pour la numérisation mais les acteurs européens pourraient tirer un meilleur parti d'instruments tels que les programmes eTen et eContent, afin de créer des services en ligne innovants avec une dimension transeuropéenne. Cet engagement constituerait une manière tangible de démontrer le potentiel d'exploitation des contenus culturels numériques au travers de l'implémentation concrète de services tels que des portails transeuropéens. Les orientations majeures de la recherche dans le secteur de la numérisation du patrimoine pour les années à venir doivent contribuer à améliorer la qualité des documents numériques et baisser les coûts de la numérisation de sorte à améliorer la productivité et accroître le volume des contenus numériques créés. Ils doivent principalement relever les défis posés par les documents archivistiques, notamment la reconnaissance automatique des contenus, la numérisation de grands formats, la production de masse de documents 3D, les architectures distribuées pour des services patrimoniaux numériques, la préservation des contenus numériques, la gestion de contenus multilingues et multiculturels, l'amélioration de la recherche d'informations patrimoniales, les outils de standardisation des ressources, finalement de nouvelles interfaces pour l'affichage intelligent des contenus culturels. Les communautés de recherche sur tous ces secteurs fonctionnent souvent dans des réseaux distincts. Il semble intéressant d'établir des liens entre les laboratoires qui travaillent sur les ressources patrimoniales, aux niveaux nationaux et internationaux et bénéficier ainsi des évolutions structurelles liées à la mise en place de l'Espace européen de la recherche. L'organisation de conférences et événements rassemblant des conservateurs de musées, de bibliothèques, des archivistes et des chercheurs en nouvelles technologies peuvent renforcer la coopération entre les établissements culturels et le secteur de la recherche. La conférence ICHIM sur les institutions culturelles et le numérique 19, initialement axée sur les technologies pour les musées s'est élargie à l'ensemble des secteurs patrimoniaux et a aujourd'hui un rayonnement mondial. La Conférence européenne sur les bibliothèques électroniques (ECDL) décrite précédemment constitue un très bon exemple de cet effort et de cette coopération fructueuse. Elle offre une opportunité pour les professionnels des bibliothèques de s'engager dans les activités de recherche et de fournir des orientations aux chercheurs. L'élargissement d'un tel forum ou la création d'un nouveau forum pour tous les secteurs patrimoniaux et les chercheurs en nouvelles technologies sur le patrimoine, qu'elle soit académique ou privée, permettrait à la fois de renforcer la dimension transversale et transsectorielle des applications pour le patrimoine et de faire prendre conscience de la qualité et du type de contenus nécessaires pour un usage par les chercheurs. Les projets MINERVA et EMII-DCF ont souligné la nécessité de lancer des initiatives pour la coordination des programmes de recherche et des programmes de numérisation. L'environnement en cours d'élaboration au niveau européen pour les contenus culturels numériques doit intégrer une stratégie de diffusion des technologies et de l'innovation dans les établissements culturels. L'innovation est indispensable dans de nombreux domaines et est seule garante de la visibilité des contenus culturels français et européens sur les réseaux et de la qualité des services offerts aux citoyens .
Les programmes de numérisation du patrimoine s'appuient sur des travaux de recherche pour les aspects technologiques de la numérisation et pour le traitement, l'accès, la conservation et l'usage des documents. Cette collaboration, très importante pour les acteurs culturels, commence à se structurer notamment au niveau européen, avec la valorisation des travaux associant acteurs culturels et acteurs de la recherche. C'est à cette condition que les technologies développées par les chercheurs bénéficieront aux contenus culturels numériques pour leur exploitation et leur visibilité sur les réseaux.
sciencesInfo_04-0288746_tei_DN_073_0179.tei.xml
termith-355-communication
Penser un objet de recherche, c'est penser à la fois un objet scientifique et unobjet concret, en s'appuyant sur les acquis théoriques et pratiques des recherchesexistantes. Aussi, la question de la méthode est au cœur de tout travail derecherche puisque c'est elle qui permet l'articulation de ces objets scientifiqueset concrets. Le champ théorique des Sciences de l'information et de la communication par saconstruction épistémologique, ne disposant pas ou peu de méthodes propres et devantsouvent faire appel aux champs de la sociologie ou de la psychologie par exemplepour se construire pose la question du choix des méthodes d'analyse. En particulier ,un travail de recherche se construit en plusieurs moments. Des moments théoriques etdes moments pratiques, des moments d'observation et des moments de conceptualisationqui conduisent à partir d'un objet spécifique, à articuler l'ensemble d'uneréflexion autour d'une question centrale, parfois multiple. Ce questionnementcentral n'est pas toujours le point de départ du travail de recherche, bien aucontraire, il peut aussi être le fruit d'une investigation méthodologiqueimportante. Dans le cadre de nos propres travaux de recherche, le choix de la presse éducativecomme objet scientifique a été source de différents questionnements quant à laméthode et l'hypothèse considérant la nature des discours médiatiques et enparticulier les liens que ces derniers entretiennent avec les discours sociaux ,professionnels ou institutionnels. Ces choix méthodologiques se sont construitsprogressivement suite à différents constats ou diverses obligations de terrain. Le premier élément problématique dans le choix d'une méthode d'analyse concernel'observation et l'inscription dans le domaine de recherche lui -même. En effet ,l'objet de recherche et la méthode d'analyse doivent s'inscrire dans le champdisciplinaire mais plus que cela, ils doivent également répondre à une possibledemande de ce champ et proposer éventuellement de nouveaux outils d'analyseméthodologique. Par exemple, l'observation des domaines de recherche du champ disciplinaire desSIC, a permis, dans le cadre de nos travaux, de constater la relativement faiblereprésentation des questionnements sur le secteur de la presse jeunesse. Aussi ,il ne s'agissait pas seulement de mener à bien une recherche mais également decontribuer à l'élargissement des investigations des SIC comme interdiscipline eninvitant à porter les regards vers des supports négligés en considérant enparticulier avec Y. Jeanneret et B. Ollivier, que « dans laconstruction d'un champ, les vides ne sont pas moins significatifs que lespleins » (2004, p.18). Or s'interroger sur le faible intérêt que lesSIC portent à certains produits médiatiques en dit long sur les hiérarchiesimplicites de ce domaine d'études qui semble favoriser les médias dominants ,mais cela invite également à proposer des structures et des méthodes d'analysevalides et validantes pour les recherches à venir. Le second point jouant dans la détermination méthodologique d'un travail derecherche peut être lié comme nous l'évoquions plus haut à l'interdisciplinaritéinhérente à l'objet de recherche lui -même. Ici, la presse éducative, en tant quecarrefour disciplinaire, interpelle à la fois les SIC pour l'aspect médiatiquede l'objet et les Sciences de l' Éducation (Sed) pour le contenu notionnel et lesvisées du dispositif. Or, « c'est toujours dans laconfrontation avec d'autres espaces disciplinaires que se conquiert laréelle conceptualisation ». Cette démarche, que nous empruntons à B .Ollivier et Y. Jeanneret (2004), avait pour ambition de repousser l'idée que lesobjets ou les méthodes sont exclusivement réservés à certaines disciplinesparticulières. Ainsi, la question de la transposition des discours, c'estc'est-à-dire de l'adaptation au support médiatique de discours à l'originenon-médiatiques et ici plus particulièrement dans un support de presse éducativeest parcourue de façon transversale par différents questionnementsméthodologiques et théoriques inhérents à ses « voisinages » scientifiques ,c'est-à-dire qu'elle renvoie à des approches issues des sciences de l'éducation ,de la pédagogie, de la psychosociologie, etc. Il s'agissait donc de trouver uneplace théorique et institutionnelle à un domaine de recherche tout en lelégitimant et en l'inscrivant dans un univers social interdisciplinaire. Cependant, l'objectif d'une recherche en SIC est aussi et avant tout d'ancrer sonobjet dans la discipline des SIC. Aussi, ici, par exemple, il ne s'agissait pasd'aborder la communication éducative dans une analyse de l'acquisition desavoirs en vue d'une évaluation, ni dans la considération de données depsychologie cognitive comme cela pourrait être le cas dans une recherche enSciences de l'éducation, mais il s'agissait de déterminer les dimensionscommunicationnelles sémiodiscursives des dispositifs et de considérer l'objetmédiatique dans une dimension pragmatique prenant en compte la transversalitééducative du discours. Cet objectif final ne s'est néanmoins pas dessiné dès le début de la recherche etles tâtonnements méthodologiques et imprévus de terrain font largement partie dela construction de la méthode. Aussi, nous souhaitons mener dans cettecommunication une double réflexion sur les dispositifs méthodologiques quis'intéresse d'une part à l'influence que le terrain peut avoir sur les choixméthodologiques et d'autre part à la façon dont on peut/doit s'approprier uneméthode (et la littérature qui lui est associée) pour mener à bien une rechercheà la fois personnelle et inscrite dans un champ disciplinaire reconnu. Le terrain, le choix du corpus ou de l'objet concret et les possibles de larecherche ont une incidence sur la méthode utilisée. Dans le cadre d'un travailde recherche, l'objet scientifique ne peut être dissocié de l'objet concret etplus exactement, l'objet concret sera la mise en scène de la réflexionscientifique. Un travail derecherche de Doctorat peut trouver des racines dans des réflexions antérieureset se proposer d'aborder des questionnements en lien avec des recherches passéeset faisant échos à une première réflexion théorique et méthodologique. Dans lecadre de notre propre recherche de Doctorat, l'apparition de rubriques dephilosophie pour adolescents dans les pages du magazine Okapi semblait pouvoir constituer une matière apriori riche pour l'analyse des contenus et apriori propice à des réflexions sur la présence de l'adulte dans lediscours médiatique et sur la part de la morale dans les supports de presseéducative, objectif envisagé dans des travaux antérieurs. Suite à cesquestionnements antérieurs, la méthode envisagée pour ce travail de thèse allaitdonc de pair avec une problématique initiale s'orientant vers une analyse decontenu, s'appuyant en particulier sur les théories de L. Bardin (2001) etenvisageant l'utilisation de logiciels d'analyse lexicographique (Lexico 3). Il s'agissait de mener une analyse enproduction et en réception en assistant aux débats entre le philosophe et lesadolescents, en recueillant destémoignages puis en procédant à une analyse de contenu. L'enjeu était deparvenir à relever les tendances formelles et fondamentales entre le produitinitial (la discussion) et le produit final (la rubrique de presse). Le butétait d'avoir accès au produit brut qu'était la discussion initiale et de lamettre en relation avec le produit médiatique proposé aux adolescents dans lespages du magazine par la maison Bayard, pour parvenir à une typologie desreprésentations de la maison d'édition et du philosophe. L'intérêt de ce choixméthodologique était qu'il permettait de répondre à la problématique initialeportant sur le discours moral des dispositifs pour la jeunesse. Cependant, et c'est là que le terrain devient déterminant dans la constitution dela méthode mais aussi de l'analyse et de la problématique, il peut arriver quela collaboration attendue, que les documents nécessaires ou que lespersonnes-témoin ne soient pas disponibles ou accessibles. Dans ce cas, letravail de recueil de témoignage ou l'observation participante devientimpossible. Ici, la collaboration avec la maison d'édition s'est avérée trèssuccincte et l'objectif initial était donc compromis. Le jeune doctorant doit dans ce cas repenser dans sa totalité le principeméthodologique de ce travail de recherche. Ici, par exemple, un corpus réduit seconstruisant au fil des semaines, numéros après numéros, n'offrait plus dematière suffisante et intéressante pour une analyse de contenu et l'analyse enréception ne pouvait dans ce cas se passer d'un contact direct avec lesdestinataires. Mais dans ce type de revirements méthodologiques, il ne s'agitpas seulement de substituer une méthode à une autre mais bien de repenser leprincipe même de la recherche, de recentrer la problématique sur d'autresinterrogations et questionnements, de construire différemment son objet et saperspective de recherche. En ce qui nous concerne, les témoignages en productionet en réception et la matière brute étant absents, il s'agissait de repenserl'objet, cette rubrique de philosophie pour adolescents, comme un produit fini ,comme un produit clos, indépendant des représentations des producteurs et duphilosophe, de ne considérer que l'objet médiatique lui -même et en même temps del'inscrire dans un univers médiatique et socio-historique plus large en menantune réflexion sur le média lui -même et en recentrant la problématique autour dela question du genre des dispositifs médiatiques. Le rôle du directeur de recherche est dans ce cas plus qu'important puisque c'està travers ses conseils et ses suggestions de lecture que le doctorant parvient àreconstruire un canevas méthodologique et s'ancre dans une nouvelle logiqueanalytique. Dans le cadre d'une réflexion sur le genre comme nous l'imaginions désormais, lanotion même de « genre » a imposé et construit une perspective méthodologique .Il fallait en effet trouver une méthode permettant de considérer, dans uneperspective pragmatique, tous les aspects du « genre médiatique ». Nous renvoyons ici en particulier aux définitions du genre de D. Maingueneau parexemple qui détaille trois typologies : la typologie communicationnelle, latypologie situationnelle et la typologie linguistique et discursive. En ce quiconcerne la typologie communicationnelle, elle classe les éléments de discours àpartir de la visée communicationnelle des fonctions dulangage (cela rejoint les travaux antérieurs de R. Jakobson) et des fonctions sociales de l'énoncé. La typologiesituationnelle, elle, considère que le dispositif peutvarier selon les époques. Ainsi, « le genre n'est pasdéterminé, comme on le dit souvent, par les caractéristiques formelles dudiscours, mais bien par la situation qui met en place des conditions deproduction du discours » (Charaudeau, 2006, p.12). Cettedifférenciation linguistique et situationnelle du genre permet de faire, avec E .Veron, une distinction fondamentale entre ce qu'il nomme les genres-L, genres caractérisés par l'agencement de leur matièrelangagière (dialogue, interview, débat, etc.) et les genres-P, produits d'une société de communication et decommercialisation (mensuel féminin, magazine éducatif, etc.). Les genres-P sont en lien étroit avec les « types dediscours ». Ces derniers représentent l'alliance entre supports organisationnelset rapports sociaux qui structurent l'imaginaire d'émission et de réception desdiscours (discours politique, éducatif, etc…). La typologie linguistique etdiscursive, troisième et dernière typologie définie par D. Maingueneau, propose ,quant à elle, une synthèse des deux typologies précédentes (situationnelle etcommunicationnelle) en considérant les propriétés énonciatives du discours enfonction de la situation de communication. La communication est dans cettemesure la résultante d'une co-construction qui « ne se faitpas de façon aléatoire. Elle se fait dans des situations qui, à force derécurrence, finissent par se stabiliser en « types » » (Mucchielli1991, p.72). « Chaque type de situation de communication, parréférence aux situations culturelles habituelles d'échange, comporte desnormes communicationnelles, c'est-à-dire un ensemble de règles qui exerce uncontrôle sur les pratiques de communication » (Mucchielli 1991, p.72). Cette notion de « type de discours » que l'on trouve chez D. Maingueneau, E .Veron ou A. Mucchielli renvoie à celle de « genres discursifs » chez P .Charaudeau ou S. Moirand et désigne la combinaison socio-matérielle englobantune structuration langagière et un produit social. Il s'agit d' « une désignation par laquelle les membres d'une communauté decommunication s'accordent à classifier les textes » (Beacco et Moirand ,1995, p.47). « " Le genre " serait donc une représentationsocio-cognitive intériorisée que l'on a de la composition de ce que [SophieMoirand] appelle, faute de mieux, des unités discursives empiriques, unereprésentation donc des activités langagières qui surgissent dans unesituation X, une communauté Y, avec une langue Z et une culture Z ' sous desformes diverses (textes, exposés, échanges verbaux, etc.) » (Moirand ,2003, p.1). À partir de ces éléments théoriques, la méthode choisie dans le cadre de cetravail de recherche devait donc permettre l'analyse de ce double ancragelinguistique et social de la notion de genre en prenant comme postulatpsychosocial que « toute communication humaine implique laconstruction d'une situation prête à être « habitée » par les personnesconcernées » (Esquenazi, 2002, p.107)et qu'elle s'apparente à unensemble « d'actes rituels qui établit les prérogatives etles devoirs de chacun d'entre nous » (Esquenazi, 2002, p.107). Ils'agissait de parvenir à mettre en valeur le fait que le genre repose de cettefaçon sur la notion de contrat qui fait entrer chaque membre de la communicationdans un jeu de reconnaissance de références co-partagées. Par la ritualisationdu contrat, chacun reconnaît les éléments typologiques et caractérise les typesde situation de communication grâce à son « habitus », que A. Mucchielli décritcomme « la structure cognitive d'un groupe tout entier quiintervient dans l'appréhension du monde et dans la genèse des conduitesd'adaptation au monde », comme « un système deperception, de pensées et d'appréciation commun à tout un groupe »( Mucchielli, 1991, p.78). Or, l'habitus grâce à un stockde modèles sociaux et de structures narratives préétablies permet lareconnaissance de certaines situations. Mais il est aussi celui qui permet decréer de nouveaux modèles situationnels en reconnaissant des éléments ou desmanquements d'éléments par un processus de déductions antithétiques. De fait, déterminer les caractéristiques d'un genre médiatique nouveau et d'unesituation spécifique de communication, impliquait, au niveau méthodologique, dedéfinir les éléments par opposition ou corrélation successives. Il s'agissaitdonc d'opérer des comparaisons médiatiques ou sociales à partir de « modèles culturels de communication » (Mucchielli, 1991, p.78) et de modèles de dispositifscommunicationnels, « porteurs de normes communicationnellesgrâce à une perception-interprétation du genre » (Mucchielli, 1991, p.78). La démarche réflexive et méthodologique considère dans ce cas le genre comme un« dispositif socio-historique » (Maingueneau, 1996) enpartant du postulat que chacun a une idée de ce qu'est un genre de l'éditorial ,du fait divers ou du débat (genre-L), etc., mais quecelui -ci peut apparaître dans différentes situations de communication( différents genre-P). Ainsi, ces « genres socio-historiques » se déclinent à travers une grande diversitéde sous-genres dont les caractéristiques fluctuent en fonction des élémentssituationnels. Une méthode pourcaractériser un genre discursif doit donc permettre de trouver des traitsdéfinitoires communs et récurrents à plusieurs discours. L'analyse d'un genre adonc pour objectif de distinguer le constitutif du normatif, « le substantiel de l'accidentel » (Jost, 1997) pourarriver à une définition stable. Dans cette perspective, l'approche linguistiqueanalytique de l'information médiatique de P. Charaudeau s'est imposée comme uneméthode validante pour cette recherche dans la mesure où elle invite, en plusd'examiner l'Objet-texte, à considérer la viséesituationnelle en déterminant son origine et son lieu dePertinence et àdéfinir les axes de typologisation. Cela nous a permisd'affirmer que le genre dépend des constructions discursives et situationnelleset que les axes de typologisation permettent d'analyser le type de modediscursif, le type de l'instance énonciatrice, le type de contenu, ainsi que lescaractéristiques du dispositif scénique. Il s'agit là d'une approche théorique de la notion de « genre » mais elle devientméthode dans le cadre de cette recherche dans la mesure où il s'agit deconsidérer avec S. Moirand que les communautés médiatiques sont « productrices d'opinion mais qu'elles les reçoivent aussi enprovenance d'ailleurs; elles ont pour objet propre de produire del'information; elles sont autant de « lieux de passage » desconnaissances; et enfin, elles produisent des textes destinés à un marchédont on peut se demander s'il les consomme uniquement en fonction de leuradéquation à ses représentations sociales et à ses convictionsmorales » (Beacco et Moirand, 1995, p.47). Autrement dit, la presse éducative, objet de notre recherche, n'était pas lesimple lieu d'une manifestation langagière, elle était aussi le terrain deconstruction d'un objet discursif. Elle n'était pas une simple productionlinguistique, elle était un produit socio-culturel, socio-commercial qui puisaitses contenus dans les différents discours sociaux existants. Une approchelinguistique ne permet pas d'atteindre le produit que représente le genre. Uneapproche sémiopragmatique considérant la construction linguistique, lamacro-structure et les conditions de productions du produit en lien avecl'histoire et la société est donc devenue un outil plus performant dans le cadrede cette recherche de caractérisation d'un genre, permettant d'appréhender ledispositif de presse dans sa globalité et de mener une analyse thématique etcommunicationnelle se passant de l'avis des destinataires et des éditeurs. Notons enfin que, bien entendu, une méthode n'est pas toujours applicable tellequ'elle. Les grilles d'analyse proposées par les modèles méthodologiquesdemandent souvent à être adaptées. Par exemple, l'approche sémiodiscursive de P .Charaudeau et les réflexions de G. Lochard sur le genre des dispositifsmédiatiques concernaient essentiellement les médias audiovisuels, il fallaitpouvoir les adapter au support de presse de notre recherche. De même, l'établissement d'une typologie des genres doit souligner desrécurrences discursives grâce à la comparaison d'éléments équivalents. Celarejoint ce que B. Ollivier affirme quand il écrit que « laconnaissance des territoires voisins dans l'espace (sciences proches) etdans le temps (approche généalogique) renforce la cohérence des conceptsqu'on utilise, dont on connaît dès lors mieux les ambiguïtés et la possiblepertinence face aux objets de recherche que l'on entend constituer »( Ollivier, 2000, p.14). Or, cette méthodologie appliquée à notre objet, objetnovateur et donc isolé, nous a contraint à dépasser l'attitude médiacentriquesouvent reprochée aux SIC et à considérer d'autres productions, non-médiatiques .Cela a permis d'affiner notre réflexion en nous invitant à considérer que chaquediscours porte les marques des productions antérieures ou contemporaines et quetout produit médiatique se nourrit de différents dispositifs extra-médiatiques .Cette contrainte méthodologique a joué un rôle déterminant dans l'affirmation decette problématique construite autour de la question de la transposition desdiscours sociaux et de leur adaptation au support médiatique Il apparaît donc au regard de ce parcours que contrairement aux idées reçues, laméthode n'est pas toujours première et elle peut (doit ?) évoluer au cours de laprogression de la recherche. Par ailleurs, il semble assez clair ici que laméthode ne doit pas être considérée comme un simple outil d'analyse. Elle est aucœur des questionnements théoriques et peut même, ce fût le cas ici, être àl'origine d'orientations radicales et même des conclusions des travaux derecherche .
Cet article mène une double réflexion sur les dispositifs méthodologiques. D'une part, il revient sur l'influence que le terrain peut avoir sur les choix méthodologiques et d'autre part il s'intéresse à la façon dont on doit s'approprier une méthode (et la littérature qui lui est associée) pour mener à bien une recherche à la fois personnelle et inscrite dans un champ disciplinaire reconnu. En particulier, il aborde la question du « genre » et montre comme l'étude du genre implique des choix méthodologiques spécifiques et comment les grilles d'analyse proposées par les modèles méthodologiques demandent souvent à être adaptés.
sciencesInfo_10-0351923_tei_993.xml
termith-356-communication
LES SYSTÈMES D'INFORMATION SCOLAIRES en France se sont largement développés depuis 1952 et constituent de véritables dispositifs d'organisation et de diffusion des savoirs. L'enseignement a fait preuve de dynamisme et d'innovations pédagogiques par la mise en place de centres de documentation et d'information (CDI), la création d'un corps de professeur documentaliste puis par l'inscription partielle dans les programmes de cours de documentation (ministère de l'Agriculture) ou d'initiations à la documentation (Éducation nationale). Les professeurs documentalistes que, à la suite de Jean Meyriat [16 ], l'on peut qualifier de professionnels de l'information, sont également des enseignants. En effet, au sein des systèmes d'information, ils assurent une double mission, celle de gestionnaire des centres de documentation et celle de professeur. Or, la formation à l'information, institutionnalisée, et bien que présente, semble avoir beaucoup de difficultés, d'une part à se caractériser et, d'autre part, à établir des référents scientifiques et professionnels. Les difficultés résident principalement dans la mouvance des savoirs théoriques et dans une transposition didactique approximative. La question récurrente est celle de l'affirmation ou non d'une discipline scolaire spécifique, et de ses conséquences sur la formation des professeurs documentalistes, sur celle des enseignants et sur l'évolution et la reconnaissance du métier. Ce dernier souffre toujours, en effet, d'un positionnement difficile dû à son histoire et à sa construction sur un ensemble de techniques issues presque exclusivement de l'expérience. La formation dispensée aux professeurs documentalistes ne suffit pas à une acquisition de savoirs notionnels et se caractérise par un ancrage théorique qui reste fragile [6 ]. Qu'est -ce qui permettrait de faire avancer ce métier vers une plus grande professionnalisation et vers une stabilisation identitaire ? Pour répondre à cette question, il s'agit ici de rapprocher et de discuter deux recherches qui développent chacune une approche différente mais qui s'alimentent l'une l'autre. La première conduite en 2002 par Viviane Couzinet sur l'enseignement secondaire à l' Éducation nationale, l'autre conduite par Cécile Gardiès en 2006 sur l'enseignement secondaire agricole. La première est fondée sur une analyse du contenu d'articles et la seconde sur des données quantitatives complétées par des entretiens. Les résultats repris ici nous semblent permettre la mise en débat et la confrontation, dans le cadre d'un travail d'équipe 1, de la réflexion conduite par d'autres auteurs. En France, le premier enseignement des techniques de la documentation est ouvert en 1945 à Paris. Puis, en 1966, des cursus sont mis en place dans certaines universités, notamment dans les instituts universitaires de technologie. Les années 1990 marquent le développement de ces formations qui vont s'imposer progressivement et permettre une reconnaissance des diplômes professionnels. Ceci se traduit notamment dans l'accès devenu possible aux concours de la fonction publique territoriale ou dans l'inscription de ces diplômes dans certaines conventions collectives. Sans faire un rappel historique complet de l'évolution du métier, nous pouvons, avec quelques auteurs se regroupant sur ce constat, dire qu'il s'est développé en France, dans un premier temps, en opposition à celui de bibliothécaire, ce dernier se situant traditionnellement plus du côté de la gestion de documents, alors que les documentalistes se situent plus volontiers du côté du traitement de l'information. Suzanne Briet, fondatrice de l'Institut national des techniques de la documentation, l'INTD, en complément de sa définition « le documentaliste fait métier de documentation » [3 ], insiste fortement sur son rôle dans la diffusion de la culture scientifique et dans la production documentaire. Dans l' Éducation nationale (EN), dès 1952, une circulaire intitulée Le rôle de la documentation dans les établissements du second degré recommande aux professeurs de rendre l'élève plus actif dans la construction et l'appropriation de son savoir. Toutefois, les mesures d'application prises, notamment l'imposition de l'usage limité de documents, réduisent fortement la portée de ce texte [18 ]. Si, dès 1958, est créé le premier centre de documentation d'établissement d'enseignement, jusqu'en 1986 son rôle est surtout technique et administratif. À partir de cette date, l'accent est mis plus particulièrement sur le développement d'une pédagogie pluridisciplinaire, sur l'ouverture de l'établissement sur son environnement et sur l'apprentissage actif par le travail autonome. Le statut de ceux qui animent ces centres est fixé en 1989 avec la création d'un certificat d'aptitude à l'enseignement secondaire (CAPES). C'est ainsi que les centres de documentation et d'information (CDI) sont animés par un professeur documentaliste. Celui -ci, outre la gestion du CDI, a en charge l'initiation des élèves à la recherche documentaire, à l'usage de la documentation, et il collabore avec les enseignants de discipline à la mise en œuvre de projets favorisant l'interdisciplinarité [18 ]. Dans l'Enseignement agricole (EA), l'histoire de la documentation se développe en parallèle et commence entre 1969 et 1972, période où une réflexion générale s'engage sur l'utilisation pédagogique du document. Celle -ci amènera à la création de CDI 2, dans chaque établissement scolaire. Les personnels affectés seront dans un premier temps des enseignants d'autres disciplines mais peu à peu leur spécificité, leur rôle et leur statut vont se préciser. En 1990 ils deviendront des professeurs documentalistes par l'ouverture d'un concours spécifique d'enseignant, le CAPESA 3, dont la préparation est longtemps assurée par l'EN. En 1997 un Référentiel CDI précise leurs missions, activités et compétences et leur assigne « quatre axes de travail : un axe de gestion du service CDI, un axe pédagogique, un axe d'animation et un axe plus orienté vers les techniques documentaires ». Leurs missions sont également précisées par la publication de deux notes de service. La première, en 1983, établit le rôle des CDI. La loi d'orientation agricole du 9 juillet 1984 engage une rénovation de l'Enseignement agricole, la documentation est alors introduite comme discipline à part entière au sein de modules pluridisciplinaires dans les programmes de formation. Par exemple, 40 heures de documentation sont inscrites dans les programmes des BTSA avec des objectifs, des contenus pédagogiques et une évaluation propres 4. La deuxième note de service en 1998 annule et remplace la première, en reprenant les missions et obligations de service et en les actualisant. Mais on peut noter que le terme « CDI » n'apparaît plus dans l'intitulé de cette dernière et que le statut de professeur documentaliste y est nettement affirmé. L'axe pédagogique est renforcé avec un appui fort sur le référentiel métier. À la fin des années 1990, la réforme de l'enseignement du second degré affirme le rôle de l'enseignant et la nécessité de conduire l'élève à l'autonomie, guidé par l'enseignant. Celui -ci transmet des connaissances dans sa spécialité et des méthodes de travail qui doivent permettre de comprendre les liens entre les disciplines. Afin de donner tout son poids à cette réforme, deux types de travaux ont été rendus obligatoires : les « travaux croisés » en classe de quatrième et les « travaux personnels encadrés 5 » (TPE) en classe de première. Tous deux fondés sur la coopération entre les élèves et entre les disciplines. Des textes officiels fixent les modalités pratiques de réalisation – nombre d'heures de travail dans l'emploi du temps des enseignants, liste de thèmes, mise à disposition de locaux spécifiques, et le rôle du CDI est précisé. La mise à niveau technologique, l'aménagement de l'espace afin de permettre le travail en groupe, et la mutualisation des ressources avec les réseaux documentaires de l'éducation sont recommandés. Toutefois, si le documentaliste est bien cité comme membre de l'équipe pédagogique, celui -ci ne semble exercer qu' à travers l'organisation matérielle de son lieu d'exercice. Formé aux technologies de l'information et de la communication éducatives, au travail sur document, à la recherche d'information et au travail en partenariat, il fait figure de novateur dans les pratiques pédagogiques. Cependant l'instauration, dans la réforme du second degré, d'un apprentissage des méthodes de travail par les enseignants semble brouiller les frontières entre enseignement disciplinaire et apprentissage des méthodes. Comme nous l'avons souligné, dans l'enseignement, à l'EN et à l'EA, une double compétence est demandée aux professeurs documentalistes, celle de gestionnaire d'un service et celle de pédagogue. Comment leur formation amène -t-elle à cette double compétence ? Les techniques documentaires, issues en partie de la bibliothéconomie, s'appuient aussi sur une discipline, les sciences de l'information et de la communication (SIC). Or, les contenus des formations des documentalistes de l'éducation restent principalement axés sur les techniques documentaires. Il n'a été fait appel qu'assez tardivement aux enseignants chercheurs des SIC, alors que ce sont elles qui ont conduit à développer les enseignements professionnels de haut niveau. La jeunesse relative de cette discipline n'est pas sans conséquences sur la formation des professionnels de l'information et demande une attention particulière qui passe, nous semble -t-il, par une meilleure appréhension de leur territoire scientifique et de leur identité pour mieux en circonscrire les ancrages. D'après Maingueneau [14 ], « toute discipline pour fonder sa légitimité doit poser son identité, une identité qui la distingue des autres disciplines ». Ce que les SIC ont tenté de faire dès le début des années 1980, en avançant qu'elles s'intéressent à une activité humaine finalisée, à la compréhension des processus d'échanges utilisant l'information comme une connaissance communiquée, et prenant en compte son élaboration sociale quels que soit sa nature, son support, son cadre et l'intention en jeu. Or, toujours d'après Maingueneau, « on peut considérer qu'une discipline se définit moins par son objet, qu'elle peut partager avec d'autres, que par son point de vue sur cet objet » [14 ]. Ainsi Jean-Paul Metzger avance que « la science de l'information s'intéresse essentiellement à l'élaboration sociale et au partage du savoir (…) élaboration et partage qui se réalisent dans des contextes sociaux ou culturels différents » [15 ]. Au-delà d'objets à décrire, comprendre ou analyser tels que « information », « communication » ou les objets matériels médiatiques, il s'agit donc de prendre en compte les processus dans leur construction et leur fonctionnement au sein d'interactions humaines et sociales. La prise de conscience de la proximité de cette discipline avec les objets techniques, y compris dans leur dimension composite [12 ], est nécessaire pour ne pas constituer d'obstacle au travail scientifique. On peut considérer que le pluriel attribué à sa dénomination est à la fois le sceau de l'interdisciplinarité, revendiquée lors de son institutionnalisation, et le reflet de sa richesse. Il permet à la fois de prendre en compte la pluralité de courants théoriques, l'apport de différentes sciences mères et des manières diversifiées d'investigation de ces objets composites. Elles peuvent cependant prétendre à une « identité cognitive » [19] fondée sur une hybridation de concepts, d'objets, d'approches et de méthodes. Sa spécificité se construit par sa manière de poser les problèmes et d'éclairer par ses propres modèles théoriques des éléments de compréhension de la réalité des phénomènes étudiés. Les objets abordés par les SIC rejoignent les préoccupations professionnelles des documentalistes et constituent le fondement des savoirs pratiques en jeu. C'est majoritairement dans les écrits de Jean Meyriat que nous trouvons la centration informationnelle du travail des documentalistes très clairement posée : « Pour le documentaliste, ce n'est pas le document qui est essentiel, mais l'information qu'il véhicule. » [16] Le métier de documentaliste, selon lui, consiste à traiter l'information, c'est-à-dire à communiquer à un public, plus ou moins étendu, un contenu mental ayant pour le récepteur un sens déterminé. C'est pourquoi il affirme la nécessité de formation véritable pour améliorer la compétence, l'efficacité et la compétitivité des jeunes professionnels, et pose que, si « le documentaliste est [donc] principalement un technicien, [il] reste que les techniques qu'il utilise dépendent, pour leur maintenance et leur renouvellement, des acquisitions d'une connaissance fondamentale » [17 ]. Ainsi, il nous paraît nécessaire d'interroger la place des savoirs fondamentaux et leurs liens avec les savoirs professionnels, et nous ferons appel à la sociologie du travail pour tenter de l'éclairer. La professionnalisation est souvent décrite comme le passage dynamique d'un métier à une profession, mais ce terme de professionnalisation est beaucoup employé et de nombreux sens peuvent lui être attribués. Le dictionnaire des sciences humaines 6 le définit comme processus conduisant les personnes exerçant des travaux similaires ou semblables à se doter de règles morales et techniques qui vont amener à un renforcement des normes professionnelles. Raymond Bourdoncle précise que les enjeux liés à ce processus concernent à la fois les formations, les personnes, les activités, les groupes et les savoirs. La professionnalisation de l'activité reposerait sur l' « universitarisation » [2] de la formation professionnelle, parce qu'elle entraînerait la rationalisation de la pratique par l'acquisition de savoirs de haut niveau produits par les universitaires de la profession. Accéder à un statut social de profession passe aussi par un travail de défense et de promotion de celle -ci. Ceci s'exprime parfois par un conflit entre anciens et nouveaux professionnels qui veulent faire progresser cette profession, mais aussi par le prestige social, c'est-à-dire les niveaux de salaires ou l'autonomie qu'elle nécessite. La transmission des savoirs autres que par un apprentissage imitatif impliquerait une abstraction, une organisation autour de principes théoriques, une crédibilité quant à leur efficacité, voire une sophistication. On peut définir alors la professionnalisation par un double processus d'acquisition, celui de savoirs, savoir-faire et savoir-être professionnels en situation réelle, et celui d'une identité qui se construit progressivement par identification au rôle professionnel [2 ]. R. Bourdoncle rejoint ici Claude Dubar pour qui la socialisation professionnelle est « à la fois une initiation, au sens ethnologique, à la culture professionnelle et comme une conversion, au sens religieux, de l'individu à une nouvelle conception de soi et du monde, bref à une nouvelle identité » [7 ]. Une profession ou un processus de professionnalisation peuvent ainsi être définis par les savoirs scientifiques et théoriques sur lesquels ils reposent, les compétences attendues et reconnues, le fonctionnement du groupe (code éthique, autonomie, responsabilité et expertise, ensemble de valeurs), le mandat confié par la société et le diplôme, le rôle de la formation et notamment de la formation universitaire dans une formation professionnelle. Ils contribuent à la construction du sentiment d'appartenance à un groupe socialement identifié et reconnu. Qu'en est-il alors du métier de professeur documentaliste ? Peut-on dire qu'un processus de professionnalisation et une identité propre ont été engagés avec la création du CAPES ? Pour mettre au jour des éléments de réponse à ces questions, nous interrogerons des recherches conduites séparément sur les deux terrains de l'enseignement secondaire définis précédemment. Le métier de professeur documentaliste, en France, est fondé presque exclusivement sur une formation disciplinaire autre que les sciences de l'information et de la communication. Il s'agit le plus souvent de disciplines relevant des lettres ou des sciences humaines sur lesquelles, pour obtenir un concours de recrutement d'enseignant, ont été plaquées des connaissances procédurales documentaires et une initiation à la pédagogie documentaire. Le temps de la préparation au concours étant relativement court (environ huit mois), les candidats n'ont pas le temps d'acquérir, et encore moins d'approfondir, les nouvelles notions apprises. Cette préparation aux concours est plutôt orientée vers les sciences de l'éducation 7 et très minoritairement vers les SIC [13 ], mais elle comporte un enseignement soutenu en techniques documentaires. Les professeurs documentalistes apparaissent alors comme des spécialistes des technologies, et des techniciens en documentation ayant quelques rudiments de pédagogie. La « double compétence », souvent citée dans les textes officiels, n'est qu'apparente. Il s'agit plutôt d'une superposition des compétences notionnelles, dans une discipline, et des compétences méthodologiques en documentation. Dès lors l'enrichissement entre ces deux couches de compétences est difficilement réalisable [6 ]. Ceci remet en cause l'organisation actuelle de la préparation au concours, mais aussi plus largement les cursus proposés aux documentalistes. En effet, malgré le développement de masters 8, il y a encore aujourd'hui, en France, peu de cursus universitaires complets dans la spécialité information communication. La formation post-concours dans l'EN ou dans l'EA est également à dominante technique et pédagogique. L'objectif visé est de permettre l'acquisition de savoir-faire. Les savoirs sous-jacents relevant de l'information-documentation ne font pas l'objet d'enseignement. On peut donc penser qu'ils sont considérés comme pré-acquis. Cependant, comme nous l'avons vu, une très faible proportion de recrutés ont réellement acquis ces savoirs en formation initiale [9 ]. Ceux -ci sont plus difficiles à acquérir en formation « continue » car, si cette dernière contribue à la construction de savoirs professionnels, elle a du mal à atteindre un objectif de construction de connaissances fondamentales. Or, l'évolution des pratiques professionnelles s'enrichit d'interactions dialectiques entre théorie tournée vers les connaissances et empirie orientée vers l'action. Nous sommes alors en présence, dans les deux contextes étudiés, d'un fort décalage qui ne permet pas aux techniques professionnelles d' être en interaction avec des référents théoriques. Comment le professeur documentaliste perçoit-il ce décalage ? Comment est-il perçu par les autres professeurs pour lesquels la légitimité pédagogique est ancrée dans une discipline reconnue ? La fragilité repérée des savoirs nous semble influencer, à la fois, la construction identitaire des professeurs documentalistes et la formation à l'information qu'ils dispensent. L'identité sociale englobe tout ce qui permet d'identifier le sujet de l'extérieur et qui se réfère aux statuts qu'il partage avec les autres membres de ses différents groupes d'appartenance. C'est souvent une identité « prescrite » ou assignée, dans la mesure ou l'individu n'en fixe pas, ou pas totalement, les caractéristiques. Cette identité sociale situe l'individu à l'articulation entre le sociologique et le psychologique. Les individus tentent d'accéder à (ou de maintenir) une identité sociale positive. Cette dernière est fondée, pour une large part, sur les comparaisons favorables qui peuvent être faites entre le groupe d'appartenance et certains autres groupes pertinents. Le groupe doit être perçu comme positivement différencié ou distinct des autres groupes pertinents. Dans l'EA, nous avons vu que la naissance et l'installation institutionnelle de la documentation sont fortement liées à la question pédagogique puisque c'est la réflexion sur l'utilisation pédagogique des documents qui est à son origine ainsi que l'inscription de modules d'enseignement en collaboration avec d'autres disciplines. Cette situation est également la même à l'EN. Là aussi l'objectif pédagogique a été un élément fort mais les professeurs documentalistes ont ainsi été confrontés à des enseignants ayant une assise disciplinaire bien établie. Comment se perçoivent-ils mutuellement ? Par ailleurs, cette question de la formation à l'information dispensée aux élèves influence l'identité de professeur documentaliste. Si l'on considère avec Annette Béguin qu' « une discipline comporte à la fois des thèmes, des objets de savoir et des organisations sociales qui, parce qu'elles sont identifiables, forgent une identité à ceux qui s'y conforment » [1 ], la définition du métier et son évolution, les choix institutionnels, la reconnaissance qui peut, ou non, en découler y contribuent également. Si nous observons que quatre types de savoirs structurent l'identité professionnelle : les savoirs pratiques, les savoirs professionnels, les savoirs d'organisation et les savoirs théoriques, nous pouvons nous demander ce qu'il en est de l'identité professionnelle des professeurs documentalistes. Enfin, est -ce que ces différents types de savoirs sont présents dans l'exercice du métier ? Dans un milieu où la reconnaissance de la valeur passe par la transmission des savoirs scolaires se référant à des savoirs savants, comment l'identité d'un professeur ayant des savoirs et une mission fondés essentiellement sur la technique peut-elle se construire ? Le professeur documentaliste est en charge de façon officielle d'un travail pédagogique. Pour autant, dans l'enseignement général, cette création d'un corps de professeur ne va pas de pair avec l'inscription dans les programmes d'une discipline scolaire alors que, dans l'EA, la création du concours est concomitante avec l'inscription dans les programmes d'une discipline nommée officiellement « documentation ». On assiste, dans ce contexte, à la mise en place d'un enseignement autour de la découverte des espaces documentaires et de la répartition des documents dans cet espace puis, avec le développement exponentiel des technologies, à des formations centrées sur la recherche documentaire liée à l'outil informatique. Tout d'abord focalisée sur l'interrogation de la base de données locale via le logiciel documentaire, elle est complétée actuellement par la recherche via Internet. On peut se demander si cet enseignement, en l'état, relève bien d'une discipline scolaire. À l' Éducation nationale, les savoirs constituant le corpus informationnel qu'il serait nécessaire que les élèves acquièrent sont traités à l'école, mais une recherche d'Annette Béguin a montré qu'ils le sont « toujours partiellement et incidemment, selon les hasards et les opportunités ou les préoccupations occasionnelles des enseignants. On est loin d'un savoir construit, systématiquement pris en compte et faisant l'objet d'une évaluation » [1 ]. Une réflexion globale sur la transposition didactique nous paraît indispensable car, comme l'écrit Yves Chevallard, « le savoir à enseigner, et le savoir savant d'où il dérive par désignation, se trouve rapidement oublié, au cours du procès de transposition, en tant que point de départ, objet de référence, source de normativité et fondement de la légitimité » [4 ]. Certains travaux actuels qui se développent sur la didactique de l'information nous paraissent segmentés. Il ne s'agit pas d'exclure de ce procès les pratiques sociales de référence, les valeurs de l'enseignant, ni de minimiser les écarts avec le savoir enseigné, mais de saisir la spécificité du traitement didactique d'un savoir qui ne mettrait pas à l'écart le savoir savant objet de référence. Or, en l'absence de savoirs savants acquis par les professeurs documentalistes, ce passage aux savoirs à enseigner est difficilement envisageable. Quel est alors le contenu réel de l'enseignement en documentation tel qu'il se pratique aujourd'hui dans l'enseignement secondaire ? Pour tenter de répondre à l'ensemble des questions soulevées ici, nous mobiliserons l'enquête par questionnaire 9 complétée par dix entretiens semi-directifs menés en 2004 auprès de tous les professeurs documentalistes de l'EA et qui a permis de percevoir leurs représentations. Pour l'enseignement du second degré, nous nous référerons à l'analyse d'un corpus de textes de 1998 à 2001 10 extraits des Cahiers pédagogiques et d'InterCDI, revues mensuelles destinées aux enseignants de l'école primaire à l'enseignement supérieur. Ce corpus a permis de collecter, au travers de la relation des expériences de terrain, la mobilisation des savoirs sous-jacents. À la lumière de la comparaison de ces deux recherches, nous tenterons de cerner les enjeux en termes de savoirs, d'identité et de reconnaissance des éléments recueillis. Si, sur le terrain de l'EA, les interventions pédagogiques, leur déclinaison (cours ou autres types d'interventions), leur position dans le calendrier scolaire et les collaborations mises en place paraissent bien réelles, sur le fond, la définition même de l'enseignement en documentation semble être difficile à donner. Parmi les interviewés, les définitions avancées se situent autour d'une contribution à l'acquisition de l' « autonomie », de la recherche documentaire, des méthodes du travail intellectuel en général puis de l'information. Vient ensuite l'enseignement des techniques documentaires et des outils. Enfin est exprimé un contenu d'enseignement lié à l'organisation de l'espace documentaire. Les professeurs documentalistes pensent ainsi enseigner des savoir-faire, puis des savoir-être et en plus faible proportion des savoirs. Par ailleurs si l'on analyse le contenu des programmes, la discipline est bien nommée « documentation », mais un nombre d'heures restreint est alloué dans certains diplômes uniquement, et il y a peu ou pas de progressivité entre les niveaux. Bien qu'elle soit inscrite comme discipline à part entière, on peut émettre un certain nombre de réserves quant à sa mise en équivalence avec les autres. En effet les programmes actuels 11 ne font pas appel à des contenus qui relèveraient d'une discipline. Sur le terrain de l'EN, les articles parus dans les deux périodiques analysés rapportent des expériences de réalisations menées par des documentalistes. Les exposés des cas, plus ou moins distanciés, les diverses modalités de leur mise en œuvre, volontairement concrètes, illustrent par la pratique les collaborations des formateurs entre eux et les résultats obtenus par les élèves. Parmi les articles de réflexion, un professeur documentaliste livre un commentaire « raisonné et prudent » sur la place du CDI dans l'institution scolaire. Il est conforté par la synthèse d'une journée académique, faite par deux autres professeurs documentalistes, qui rapporte les avis d'inspecteurs de disciplines et de directeurs de centres de documentation pédagogique en faveur du développement de collaborations entre discipline et documentation. Ce rôle, décrit comme essentiel, est complété par une lecture critique du dispositif des TPE par un enseignant chercheur en sciences de l'information. Celui -ci y voit un risque d'instrumentalisation des missions du professeur documentaliste dans une formation où l'interdisciplinarité lui paraît rester relative. Par ailleurs l'analyse faite en 1979 par un sociologue et un chef d'établissement, reproduite en 2001 dans un numéro du corpus étudié, montre que le travail documentaire doit apprendre à poser un problème. C'est l'apprentissage du questionnement qui contribuerait à préparer l'adolescent à l'autoformation. Les auteurs soutiennent l'idée que « la formation au travail documentaire autonome est un aspect majeur de l'éducation aujourd'hui, orienté vers la formation permanente ». Puis un conseiller pédagogique expose l'intérêt qu'il y a de pratiquer une « évaluation diagnostique » organisée avant la réalisation d'un projet; elle contribuerait à mesurer les compétences déjà maîtrisées par les élèves et permettrait au documentaliste de percevoir l'écart entre les prérequis et la réalité. Cette évaluation préalable à l'initiation implique l'élève dans sa relation au savoir et est présentée comme une aide précieuse pour conduire à l'autonomie. La mise en relation des résultats des deux recherches sur ce point particulier du poids du terrain montre bien la similitude des situations. Si le positionnement du professeur documentaliste de l'EA paraît plus « confortable » car plus délimité, en terme de présence dans les programmes qui officialisent la nécessité de la formation par un volume horaire conséquent (de 9 à 40 heures annuelles suivant les niveaux), les contenus de la formation dispensée et les modes d'intervention pédagogiques restent très proches de celui de l'EN. Mais on remarque aussi que l'existence d'une évaluation, en terme de progrès accomplis par l'élève, formalisée par une note entrant dans le calcul de la moyenne finale, place la documentation à un niveau similaire à celui des autres disciplines, au moins au regard de l'élève. Cependant le malaise, exprimé par les professeurs documentalistes de l'EA dans les entretiens, vis-à-vis des autres disciplines, et le rejet, parfois exprimé dans les textes des Cahiers pédagogiques, d'un enseignement de méthodes qui paraît empiéter sur les prérogatives des autres enseignants, posent dans les deux contextes la question d'un ancrage plus net sur des savoirs théoriques en information-documentation. Les entretiens et l'enquête ont soulevé des interrogations sur le rôle pédagogique des professeurs documentalistes. Les cours ne sont pas toujours vécus comme étant la meilleure solution même si c'est ce qui est considéré comme amenant le plus de reconnaissance du statut et comme confortant l'image individuelle. Nombre de professeurs documentalistes évoquent les aides individualisées et le rôle de médiation. Certains soulignent aussi l'intérêt du partenariat et du travail en projet avec les autres enseignants, tout en notant la reconstruction nécessaire chaque année. Ceci nous semble révélateur d'une difficulté à construire des contenus. En l'absence de contenus à transmettre, le choix se porterait sur des modes d'intervention se situant plutôt vers l'accompagnement, ce qui paraît conforté par les programmes actuels qui, comme nous l'avons dit ailleurs, « font référence à des savoirs-faire, des méthodes, c'est-à-dire des savoirs procéduraux liés à des disciplines littéraires ou encore à une culture générale. Les contenus décrits font eux référence à des savoirs techniques ou professionnels » [10 ]. Enfin, si les professeurs documentalistes interviennent massivement, les modes d'interventions et les collaborations mises en place sont dispersés et instables. Les articles de la revue InterCDI affirment l'intérêt des partenariats établis avec les autres disciplines et s'attachent à construire une représentation positive de ce type d'action. Ces dernières semblent dominantes dans la pratique pédagogique des professeurs documentalistes, qu'il semble nécessaire de rassurer sur les difficultés qui peuvent être rencontrées sur le terrain pour répondre à l'imposition des textes réglementaires. Cependant, si le déroulement des phases de projets est décrit et l'intérêt pédagogique mis en évidence, la part des contenus, transmis ou découverts, autres que ceux relevant des disciplines partenaires, reste faible. Les savoir-faire que détiennent les documentalistes n'étant pas, ou peu, articulés sur des savoirs notionnels, ils ne peuvent faire valoir une spécificité autre que méthodologique. Ils sont alors des « experts méthodologues », enfermés dans les procédures d'accès aux savoirs autres que ceux relevant de l'information-documentation. Ils se retrouvent alors cantonnés dans une formation au service des autres disciplines. Or, si nous suivons Jacques Legroux, la « méthode » peut s'apparenter à un savoir-faire intellectuel, à des savoirs instrumentaux ou opératoires. Les savoir-faire intellectuels se situent, par exemple, autour d'actions comme observer, décrire, distinguer, classer, définir, analyser, synthétiser, abstraire, isoler, modéliser, proches d'une culture générale. Mais il n'y a pas de méthodes qui ne finissent par perdre leur fécondité première, il y a toujours un moment où la méthode est périmée par rapport à l'action à mener, d'où un risque d'ériger la méthode en contenu et de la réduire à un savoir à apprendre, ce qui enferme dans une pratique, un savoir-faire au détriment de la pensée. « L'apprentissage des méthodes nécessite une expérimentation et ceci suppose un savoir. Savoir et méthode fonctionnent de manière dialectique. La méthode n'est pas une entité en soi, comme elle n'est pas un invariant sécurisant, elle ne remplace pas le savoir, elle entretient des liens avec lui. Le savoir est une réflexion de premier degré, la méthode est un moyen d'appréhension du savoir et de compréhension de ce mode d'appréhension, c'est une réflexion de second degré » [11 ]. Ceci nous paraît expliquer, en partie, la difficulté à conceptualiser la pratique, perçue dans les textes publiés dans InterCDI. L'expérience livrée en partage n'a pas toujours la distance nécessaire pour permettre une appropriation qui ne se limiterait pas à la reproduction à l'identique de l'expérience d'un tiers. L'acte pédagogique lui -même semble limité. La capacité à construire ses propres outils documentaires est totalement oubliée, ce qui montre bien qu'elle n'est pas perçue comme valorisante. On comprend alors l'intérêt dominant pour l'initiation des élèves à la recherche et à l'usage de l'information. Outre le rôle important que revêt pour eux cette initiation, elle nous paraît être le faire-valoir, la manière de se positionner comme enseignant dans une communauté relativement fermée. Si l'identité professionnelle revendiquée par les professeurs documentaliste de l'Enseignement agricole semble s'affirmer au travers du rôle d'enseignant, elle ne semble pas encore suffisamment stable à leurs yeux. En témoigne le manque de reconnaissance perçu (avoir à recommencer toujours, expliquer, justifier…) dans les représentations sociales du métier et que l'on pourrait désigner comme identité attribuée. Cette identité -là ne coïncide pas encore avec l'identité revendiquée. L'hiatus se situe à la fois dans la perception du rôle du documentaliste gestionnaire au service de la communauté éducative et et dans la non-perception de son rôle se spécialiste de l'information et de pédagogue. L'absence des professeurs documentalistes en tant qu'auteurs dans les textes publiés par les Cahiers pédagogiques sur la période étudiée nous paraît significative du malaise ressenti vis-à-vis des partenaires dans les établissements scolaires. Par opposition, la mise en œuvre par InterCDI de collaborations avec des auteurs exerçant des responsabilités hiérarchiques ou scientifiques contribue à la représentation du positionnement du documentaliste au sein de la communauté éducative. L'intérêt porté par un inspecteur, par un sociologue, par un enseignant chercheur leur montre qu'ils ont raison d'affirmer leurs compétences pédagogiques. Cette fonction de soutien, qui s'explique aussi par la mission militante à l'origine de la revue, reste pourtant limitée aux aspects pédagogiques et procéduraux de la fonction documentaire. Les diverses observations conduites à partir du terrain et à partir du corpus de textes mettent en évidence l'existence d'un groupe social spécifique au sein de l'institution éducative (EA et EN confondus). Au-delà des différences de contexte, ce groupe se construit autour d'une mission commune, rendre l'élève autonome à partir de savoir-faire en I-D, afin de lui permettre d'entrer dans les meilleures conditions possibles dans sa vie d'adulte et de citoyen. Cette mission est un identifiant fort des professeurs documentalistes car il est transversal aux deux terrains. Il n'existe pas, pour nous, des professeurs documentalistes de l' Éducation nationale et des professeurs documentalistes de l'Enseignement agricole, mais des professeurs dans une discipline particulière, ce que semble bien mettre en lumière l'existence d'une préparation commune aux deux concours. Cependant, des différences notables apparaissent sur le terrain. Une reconnaissance plus forte de la mission d'enseignant par la présence d'une discipline intitulée « documentation » dans les programmes et d'une évaluation certificative dans l'EA, mais également une importance plus grande accordée à la fonction managériale du CDI perceptible à travers des outils mis en place, de longue date, comme le thésaurus Théa (1981) ou le réseau Rénadoc 12 en 1996. Pourtant, ni l'un ni l'autre des contextes étudiés ne semblent donner toute sa place à ce professeur bien particulier. Si le partage du statut, au sens juridique du terme, est le même que celui des autres professeurs, le sentiment d'appartenir à leur communauté professionnelle est peu partagé. Les entretiens et les analyses de textes révèlent, en effet, que peu d'entre eux se sentent acceptés et reconnus. Or, la différence entre un professeur documentaliste et un autre professeur, c'est justement la documentation. Il faut alors aller rechercher ce qu'elle a de différent par rapport aux autres disciplines. L'appui sur des compétences méthodologiques n'est pas propre à la documentation, tous les enseignants ont des compétences méthodologiques liées à leur discipline d'appartenance même si, dans le cadre de l'enseignement, ce ne sont pas elles qui sont mises au premier plan. Ce qui paraît faire défaut dans le cas étudié, ce sont les compétences notionnelles, alors que c'est sur ces compétences que s'appuie la reconnaissance identitaire des enseignants. Le professeur documentaliste, spécialiste des méthodes d'accès à l'information, apparaît ainsi comme technicien de l'information démuni de compétences notionnelles à transmettre. Par ailleurs l'appartenance au groupe des professeurs de l'enseignement du second degré n'exclut pas celle à un groupe plus restreint lié à la discipline d'exercice. Peu initiés aux sciences de l'information et de la communication et aux problématiques travaillées par les enseignants chercheurs spécialisés en information-documentation, les professeurs documentalistes ont du mal à trouver leur place dans une collectivité qui se reconnaît prioritairement par son appartenance à un champ du savoir. Il apparaît alors difficile de faire converger l'identité revendiquée et l'identité attribuée. Les différences et les similitudes perceptibles dans le positionnement au sein de la formation du second degré dans l' Éducation nationale et dans l'Enseignement agricole pour un statut professionnel et une formation initiale identique, y compris dans la préparation du concours, nous ont invitées à réfléchir à l'identité disciplinaire des professeurs documentalistes. La comparaison des observations conduites dans des recherches centrées sur ces deux terrains a permis de mettre en évidence que la fonction, dans les représentations des professeurs documentalistes fondées essentiellement sur des compétences pédagogiques, donc transversales, et des savoir-faire, ne contribue ni à développer un sentiment d'appartenance au groupe des enseignants, ni à celui d'une discipline de référence. Les savoirs construits par les SIC restant, en effet, encore peu connus et peu mobilisés par ce groupe professionnel, ils ne peuvent ni construire le lien avec elles comme discipline de référence ni contribuer à renforcer une position fragile au sein de la communauté scolaire. • Décembre 2008
Qu'est-ce qui permettrait de faire avancer le métier des professeurs documentalistes de l'enseignement secondaire français vers une plus grande professionnalisation et vers une stabilisation identitaire ? C'est cette question que cet article tente d'éclairer en rapprochant les résultats de deux recherches menées au sein de l'Éducation nationale et de l'Enseignement agricole. Après un rappel de l'histoire de la documentation scolaire et un examen de la situation des documentalistes, à la fois gestionnaires et enseignants, dans l'enseignement secondaire, Viviane Couzinet et Cécile Gardiès se penchent ici sur le territoire scientifique des professeurs documentalistes et sur leur identité disciplinaire face aux sciences de l'information et de la communication.
sciencesInfo_09-0295423_tei_DOCSI_idPAS_D_ISBN_pu2009-02s_sa02_art02.tei.xml
termith-357-communication
La recherche d'information n'est pas une activité récente. Mais, il s'agit d'une activité nouvellement redécouverte car sa maîtrise semble être de plus en plus requise. En effet, savoir rechercher rapidement et/ou efficacement des informations dans son environnement est vital ou du moins extrêmement important dans le cas d'activités très variées telles que la conduite de centrales nucléaires, le pilotage d'engins, la prise de décision médicale, le vote électronique, la gestion et prévention des risques industriels, ou encore la recherche d'un emploi. Les dimensions « informatisée » d'une part, et « collaborative » d'autre part, se sont progressivement et récemment accolées à la recherche d'information. Cette évolution s'est réalisée en quatre phases : initialement, l'activité de recherche d'informations était manuelle, réalisée dans des fichiers papier, et était presque exclusivement du seul domaine des « experts » (bibliothécaires, documentalistes, bibliothéconomes) auxquels l'usager devait s'adresser. Il n'y avait pas à proprement parler de collaboration; tout au plus quelques interactions verbales. Durant cette période, l'approche de la recherche d'information était techno-centrée (Rabardel, 1995) dans le sens où la plupart des travaux visaient à améliorer les aspects techniques liés à l'activité. Le credo était alors « c'est l'usager qui doit apprendre à … » et donc s'adapter à l'environnement et aux outils, les comportements réels et éventuelles difficultés des utilisateurs intéressant peu; avec la mécanisation puis l'informatisation de la recherche d'information, des non-experts (utilisateurs « tout-venant ») ont été amenés à plus fréquemment réaliser l'activité seuls, de manière indépendante. Pourtant, ces utilisateurs finaux (ou « end-users » pour reprendre la terminologie anglo-saxonne) sont loin d' être autonomes, les intermédiaires experts devenant de plus en plus centraux puisque les environnements et outils se compliquent. Durant cette période, l'approche devient progressivement anthropo-centrée (Rabardel, 1995) dans le sens où les comportements et processus mentaux sous-jacents commencent à intéresser la communauté des concepteurs et chercheurs; avec la numérisation des bibliothèques et l'apparition fulgurante du Web dans tous nos espaces de vie (travail, domicile, école), les usagers tout-venant non experts deviennent les principaux « chercheurs d'informations » et se dispensent généralement de l'aide des intermédiaires experts. Parfois, ces experts en documentation sont cantonnés à un simple rôle d'aide technique (par exemple, lorsque le système documentaire rencontre un problème). Hansen et Jarvelin (2005) constatent même avec ironie que l'informatisation et la numérisation ont comme principale conséquence d'individualiser l'activité de recherche d'information; si la mondialisation et la dispersion sont généralement considérées sous le seul angle économique et financier, elles concernent également les informations, les individus, leurs connaissances et leurs compétences. Depuis quelques années, nous voyons donc apparaître de nouveaux contextes et de nouveaux environnements (virtuels, à distance, etc.) qui exigent que nous possédions et développions de nouvelles habiletés, notamment pour collaborer en vue d'atteindre un même objectif. Il y a quelques années encore, les principaux soucis et principales inquiétudes des utilisateurs concernaient les équipements (manque d'ordinateurs, câblage des salles, etc.) et les infrastructures liées aux réseaux (problème du débit des réseaux, de l'accès à distance aux serveurs, etc.). Les verrous auxquels la communauté des chercheurs en sciences et techniques s'attaquaient étaient donc principalement des verrous technologiques (stockage des données, vitesse de transfert de données, etc.). Aujourd'hui, ce sont les usagers et les usages qui sont au cœur des préoccupations des utilisateurs et des chercheurs, puisque sont devenues centrales les notions d'utilité, d'utilisabilité, de satisfaction, de gain et de coûts cognitifs. Même s'il reste encore bon nombre de verrous technologiques à lever, les verrous humains et sociaux sont devenus primordiaux puisque ces derniers apparaissent comme les principaux facteurs de résistance et de difficulté. Et pourtant, les études scientifiques qui s'intéressent aux technologies de l'information et de la communication du point de vue des usages et des usagers sont encore minoritaires, notamment en ce qui concerne l'activité de recherche collaborative d'information. En accord avec la définition de Hansen et Järvelin (2005; traduit par Dinet, 2007), nous pouvons définir la recherche collaborative d'information de la manière suivante : « est considérée comme recherche collaborative d'information toute tâche de type résolution de problèmes, impliquant plusieurs individus interagissant, de manière synchrone ou asynchrone, lors d'une tâche commune de recherche de sites ou de pages Web dans des contextes plus ou moins définis et des environnements plus ou moins ouverts. » Mais, cette définition est trop généraliste. Aussi, nous pouvons plus finement distinguer les activités de recherche collaborative d'information selon trois dimensions : le statut des partenaires (collaborateurs) concernés et impliqués dans l'activité : un utilisateur « novice » tout-venant et un expert. Ce dernier peut être expert dans l'activité (documentaliste, bibliothécaire) ou être expert dans le domaine concerné par la recherche (informaticien, chirurgien, pilote aéronautique); plusieurs utilisateurs novices (tels que des élèves); plusieurs experts; le type de média partagé par les collaborateurs pour réaliser l'activité : sans média technique. Dans ce cas, les collaborateurs interagissent dans des situations de face-à-face, par les canaux verbaux ou paraverbaux (gestes, postures, attitudes corporelles) habituels; avec média technique non numérique (par exemple, par téléphone); avec média numérique non spécifique (par exemple, Google.fr); avec média numérique spécifique (par exemple, MUSE, DESIRE, Ariadne) les phases de l'activité durant lesquelles la collaboration existe : durant la phase pré-active, c'est-à-dire avant la recherche d'information effective (par exemple, lors de la planification, du choix des mots-clés, d'un brainstorming); durant la phase active, c'est-à-dire pendant la recherche proprement dite (par exemple, en partageant les sites Web, par du consulting); après la recherche (par exemple, lors de la mise en commun des résultats, lors de la synthèse et écriture finales). Bien évidemment, les catégories d'activités ainsi définies ne sont pas exclusives les unes par rapport aux autres, et diverses combinaisons peuvent exister. Actuellement, l'une des typologies les plus utilisées est celle créée par Twidale, Nichols et Paice (1997). Selon ces auteurs, les activités de recherche collaborative d'information peuvent être distinguées selon deux axes orthogonaux : un axe spatial permet de distinguer les activités selon que les collaborateurs sont proches physiquement ou non; un axe temporel distingue les activités selon que les individus collaborent de manière synchrone ou asynchrone. Ces deux axes sont des continuums le long desquels une situation particulière peut être positionnée et ainsi définie. D'ailleurs, pour chacune des 4 conditions possibles, les auteurs présentent des exemples (Figure 1). Typologie des activités de recherche collaborative d'information selon Twidale, Nichols et Paice (1997) En matière de recherche collaborative d'information, les travaux peuvent être distingués en quatre grands groupes selon l'orientation théorique (et méthodologique) des auteurs : les sciences de l'information et de la communication (SIC, STIC) se focalisent essentiellement sur les facteurs sociaux liés à la situation qui ont un impact sur les différentes phases associées directement ou indirectement à la recherche d'information, telles que l'acquisition d'information ou l'organisation de ces informations. Ainsi, sur la base de modèles initialement conçus pour rendre compte des situations de recherche d'information individuelle (tels que celui de Kuhlthau, 1991), de nouveaux modèles sont élaborés en insistant particulièrement sur les aspects sociaux et affectifs (par exemple, Hyldegard, 2006; Ingwersen et Jarvelin, 2005). Ainsi, l'un des apports de ces approches est de mettre l'accent sur la dimension sociale et affective liée à l'aspect collectif et collaboratif; le domaine des sciences et techniques (dont les mathématiques et l'informatique) expérimente depuis de nombreuses années des outils (logiciels, plates-formes, didacticiels, etc.) censés aider et faciliter le travail collaboratif dans sa totalité ou en partie. La phase de recherche collaborative d'information est alors parfois intégrée par le biais d'outils censés aider à la navigation de groupes d'utilisateurs dans des contenus hypertextuels (Dosser et Perrimond, 2001), permettre la production de requêtes plus pertinentes (Razen, 204) ou encore faciliter le filtrage collaboratif (Denos et al., 2004). Mais, rares sont les expériences ayant donné lieu à de réelles évaluations, qui plus est auprès de populations non – expertes en informatiques, et en situation réelle contextualisée. Malgré tout, ces études présentent l'avantage de tester dans certaines conditions l'utilisabilité de dispositifs techniques innovants; les sciences humaines, notamment la psychologie sociale et la psychologie cognitive, proposent une approche anthropo-centrée de la recherche collaborative d'information. L'objectif de ces sciences humaines est triple : d'une part, mieux comprendre les comportements réels et mécanismes mentaux sous-jacents impliqués lors de la recherche collaborative d'information; d'autre part, mieux cerner les difficultés et facteurs de résistance (voire d'échec) chez les individus; enfin, proposer des recommandations en termes d'aménagement ou de création de dispositifs pour faciliter l'activité. Ici, un dispositif dépasse largement un simple outil technique ou technologique et renvoie à toutes les dimensions qu'il faut nécessairement prendre en compte (état des connaissances de l'individu, facteurs temporels et spatiaux, contexte exact, consignes, etc.); les approches pluridisciplinaires, telles que l'ergonomie ou l'intelligence artificielle, proposent d'aborder la recherche collaborative d'information à l'aide d'une part, de théories et méthodes issues de plusieurs courants antérieurs et d'autre part, de techniques et concepts nouvellement et spécifiquement créés. En empruntant à chacune des approches précédemment décrites, depuis quelques années, est apparu un nouveau champ théorique appelé Collaborative Information Behaviour (CIB). Ce nouveau champ théorique se donne pour objectif de proposer une synthèse entre les différentes théories précédemment citées en vue de mieux comprendre les comportements des usagers recherchant de manière collaborative des informations, généralement dans des environnements numériques (Internet, bases de données électroniques, CD-Roms). Les études s'intéressant à la recherche collaborative d'information se sont surtout focalisées sur la recherche sur le Web puisque cet environnement a relancé l'intérêt pour cette activité. Plus précisément, bon nombre de ces études se sont attachées à démontrer la supériorité de la dimension collaborative sur la dimension individuelle. Cette supériorité supposée transparaît notamment dans le titre de l'article publié par Lazonder (2005) : « deux têtes cherchent mieux qu'une ». Ainsi, de très nombreux travaux ont effectivement montré que la recherche collaborative de pages Web améliore les performances des utilisateurs (par exemple, Bharat, 2000; Cockburn et McKenzie, 2001; Diamadis et Polyzos, 2004; Dinet, 2005; Dumais et al., 2001), notamment en ce qui concerne le nombre d'informations pertinentes trouvées et le temps mis pour réaliser la recherche. Très concrètement, effectuer une recherche collaborative de pages Web présente les avantages suivants : le temps total nécessaire à la recherche d'informations sur le Web diminue significativement lorsque plusieurs individus recherchent ensemble des informations sur un même thème; le volume des informations traitées et lues par ces individus augmente significativement; l'organisation des informations trouvées sur le Web semble meilleure dans le sens où certaines fonctionnalités (telles que la « mise en favoris ») sont d'une part, beaucoup plus utilisées et d'autre part, plus structurantes lorsque la conduite de la recherche d'informations est menée par plusieurs individus travaillant à un même objectif; enfin, et très logiquement, plusieurs études ont démontré que le nombre de pages re-visitées diminue significativement lorsque la recherche d'information est collaborative. En effet, lorsqu'une recherche d'information sur le Web est menée par un seul individu, le nombre de pages consultées ayant déjà été précédemment vues est considérable : selon les études, le pourcentage de pages re-visitées varie de 30 % à 61 %, avec des maximums de 92 % pour certains individus ! Or, re-visiter des pages engendre forcément une perte de temps, temps que l'individu pourrait mettre à profit pour consulter des pages Web non vues. Mais, les résultats des études antérieures sont difficiles à comparer et les extrapolations sont également difficiles à réaliser car les situations décrites sont très hétérogènes. Par exemple, les utilisateurs sont tantôt des « experts » en informatique (doctorants en informatique) et tantôt des novices (étudiants de première année de psychologie); les outils utilisées sont multiples (navigateurs « traditionnels » Versus interfaces spécialement développées pour l'étude); les thèmes et scénarii des recherches d'informations sont également variés (recherche sur un thème libre Versus thème imposé; présence Versus absence de contraintes temporelles). De plus, d'autres études ont montré que la recherche collaborative d'information sur Internet présente trois inconvénients majeurs (par exemple, Lipponen, 1999; Nurmela et al., 1999) : le travail de recherche d'information est souvent très inégalement réparti entre les membres d'un même groupe devant pourtant réaliser l'activité conjointement, certains membres du groupe attendant que d'autres réalisent la recherche d'information ! les membres d'un même groupe ont parfois des représentations de l'espace-problème très différentes. En d'autres termes, les membres d'un même groupe devant conduire une recherche d'information commune peuvent ne pas rechercher pour le même objectif, même si ce dernier a été explicitement décrit. Ici, nous touchons au délicat problème de la distance entre la tâche prescrite (« ce que je dois faire ») et l'activité réelle (« ce que je fais réellement »). En effet, tout dépend de la représentation mentale que l'individu se fait de ce qu'il doit réaliser. Or, lors d'un travail collaboratif, les différences entre les représentations mentales de chaque partenaire sont rarement considérées et prises en compte; un ensemble d'études actuellement conduites avec des participants âgés de 7 à 18 ans dans l'académie de Nancy – Metz tend à montrer que certains facteurs affectifs (amitié, affinité) sont des facteurs déterminants dans l'efficacité de la recherche collaborative (Dinet, 2007). Par exemple, 57 élèves de Sixième (27 garçons et 30 filles), scolarisés dans le même établissement et très familiarisés avec Internet devaient participer à trois séances de recherches d'information de 50 minutes chacune dans les trois conditions suivantes : (a) seul, (b) en binôme avec un(e) camarade avec qui il(elle) entretenait une certaine amitié (condition « Affinité + »), (c) en binôme avec un(e) camarade avec qui il(elle) n'avait pas d'affinité et avec qui il(elle) ne s'entendait pas particulièrement (condition « Affinité – »). La définition du degré d'affinité (et donc la composition des binômes) a été réalisée par les enseignants du collège qui connaissent bien leurs élèves et les éventuelles amitiés et/ou tensions existant entre eux. A chacune des trois séances, contrebalancées pour éviter un effet d'ordre et de lassitude, chaque élève (ou binôme d'élèves) devait trouver sur le Web, à l'aide d'un même moteur de recherche, les réponses à 13 questions relatives aux divinités égyptiennes. Cinq résultats intéressants ont été obtenus : Sur la base des résultats obtenus, nous avons émis l'hypothèse que la recherche collaborative d'information (ou du moins en binôme) suppose l'existence de compétences de gestion des relations humaines et/ou d'adaptation que les jeunes élèves ne possèdent pas. Nous abordons là le domaine de la cognition ou plus exactement des processus cognitifs et métacognitifs de régulation de l'activité selon les paramètres environnementaux (autrui étant l'un de ces paramètres). Il existe un nombre croissant de modèles tantôt prescriptifs tantôt descriptifs de l'activité de recherche d'information (pour une synthèse : Dinet et Tricot, 2007). Parmi ces modèles, rares sont ceux qui s'intéressent aux comportements et processus cognitifs impliqués lorsque cette activité est réalisée de manière collaborative. Pourtant, sur la base des modèles actuels, nous émettons l'hypothèse que la recherche collaborative d'information demande un plus grand nombre de connaissances (et de compétences) que la recherche individuelle d'information (Figure 2), notamment en matière de gestion métacognitive de l'activité. En effet, en plus des connaissances déclaratives, procédurales et métacognitives activées lors de toute recherche d'information (Dinet et Rouet, 2002), des compétences non sollicitées lorsque l'activité est réalisée de manière individuelle se trouvent l' être lorsque cette même activité est réalisée de manière collaborative. Par exemple, en situation collaborative, l'individu doit gérer ses relations avec les autres partenaires et faire appel à certains « savoir-être » parfois nécessaires (par exemple, gestion des désaccords et des conflits). Alors, les aspects affectifs et émotionnels (relations d'amitié, affinités) deviennent cruciaux. Connaissances et métaconnaissances impliquées lors d'une recherche collaborative d'information Ainsi, lors d'une recherche individuelle d'information (IIB pour Individual Information Behaviour), les connaissances déclaratives liées au contenu, à l'objectif et au thème de la recherche d'information sont largement sollicitées, ainsi que les connaissances procédurales, liées à la méthode, la stratégie et à la procédure (« comment faire pour… ? »). L'aspect affectif est également sollicité puisque l'individu peut être plus ou moins motivé par le thème et/ou les objectifs, cette motivation affectant son degré d'implication et d'engagement dans l'activité. Certaines compétences métacognitives sont également mises en œuvre, ne serait -ce que pour permettre la gestion et le contrôle de ses propres comportements (« l'information trouvée me permet-elle d'atteindre mon objectif ? »). Lors d'une recherche collaborative d'information (CIB pour Collaborative Information Behaviour), les mêmes connaissances sont impliquées, mais sont mobilisés de nouveaux aspects affectifs (amitiés, affinités) et de nouvelles compétences métacognitives liées à la gestion des relations interpersonnelles. Ces dernières sont parfois rassemblées sous la dénomination de savoir-être. Il est intéressant de noter que si les connaissances déclaratives et procédurales font généralement l'objet d'enseignements et d'apprentissages formels (grâce aux référentiels de compétences et/ou aux formations spécifiques), les compétences métacognitives restent encore pour l'essentiel largement méconnues. De même, si tout le monde s'accorde sur le fait que les aspects affectifs jouent un rôle important dans la plupart des activités humaines dont la recherche d'information, ces mêmes aspects sont rarement pris en compte lors des formations (par exemple, lors de la constitution des groupes de travail). L'une des raisons est certainement que nous manquons cruellement d'études scientifiques à propos de l'impact de ces facteurs. L'un des modèles les plus récents s'intéressant aux différences de comportements entre la recherche individuelle et collaborative d'information est celui créé par Reddy et Jansen (2007). Pour ces auteurs, une situation de recherche d'information peut être décrite selon deux continuums distincts : d'une part, le contexte (de IIB à CIB); d'autre part, le comportement (d'un simple butinage à une recherche très focalisée). Parallèlement à ces deux axes, trois caractéristiques de l'environnement sont primordiales à prendre en compte : le problème que doit résoudre l'individu, c'est-à-dire la complexité de la recherche d'information qu'il doit mener (de simple à complexe); le nombre d'agents impliqués dans l'activité, un agent pouvant être humain ou technique (de unique à multiple); le type d'interactions entre ces agents (de simples et directes à complexes, indirectes et extrêmement riches). Selon ce modèle, ce sont des facteurs déclencheurs spécifiques (« triggers ») qui font passer un individu d'une situation de recherche d'information individuelle à une situation collaborative. Parmi ces facteurs déclencheurs, nous pouvons citer : des enjeux importants et vitaux; des connaissances insuffisantes chez l'individu; des ressources trop dispersées. En d'autres termes, ces facteurs sont ceux qui amènent un individu à devoir faire appel à d'autres individus (donc, à collaborer) pour atteindre son but efficacement et/ou rapidement. Si les recherches s'intéressant aux situations de recherche collaborative médiatisées par des outils informatiques ne cessent de se développer depuis une dizaine d'années, les résultats et constatations faites sont rarement généralisables et transférables à cause notamment de problèmes méthodologiques (Strijbos et Fischer, 2007). Un ensemble d'auteurs pense que plusieurs challenges doivent être résolus dans un futur proche si l'on veut pouvoir progresser dans l'état de nos connaissances relatives à cette activité (par exemple : Arvaja et al., 2007; Beers et al., 2007; Strijbos et al., 2004; Weinberger et al., 2007) : la question de la divergence/convergence. La plupart des approches théoriques de la recherche collaborative d'informations reposent sur l'idée que les différents individus composant le groupe s'influencent mutuellement. Les comportements, stratégies et représentations mentales de ces membres seraient tantôt convergents et tantôt divergents. Or, comment évaluer ces concepts de divergence et/ou convergence ? Comment déterminer si les contributions des individus concourent ou non à la réalisation d'un objectif commun ? Comment mesurer la proximité des représentations mentales ? la création de nouvelles techniques de recueil de données. Généralement, les études s'intéressant aux recherches collaboratives d'informations se focalisent soit sur des indicateurs quantitatifs (e.g., temps mis pour retrouver une information, nombre de pages consultées) soit qualitatifs (e.g., satisfaction des usagers, efficacité et efficience). De plus, les indicateurs sont soit hors-ligne (e.g., performances des utilisateurs) soit en-ligne (e.g., stratégies utilisées). Mais, ces indicateurs ne permettent pas d'obtenir des informations quant aux stratégies utilisées par les individus, à leurs besoins, à leurs attentes. De nouvelles techniques de recueil de données doivent donc être conçues; la prise en compte du contexte et du décours temporel. La dimension collaborative de la recherche d'information est généralement conçue de manière binaire : soit, la recherche d'information est collaborative, soit elle ne l'est pas. Or, la réalité est souvent plus nuancée puisqu'un même individu peut à certains moments collaborer avant de travailler individuellement par la suite. Et vice-versa. Comme le font remarquer Reddy et Jansen (2007), ce sont des facteurs déclencheurs spécifiques (« triggers ») qui font passer un individu d'une situation de recherche d'information individuelle à une situation collaborative. Quels sont ces facteurs spécifiques exactement ? A quels moments interviennent-ils ? le choix du niveau d'analyse. Comme dit précédemment, certaines études abordent la recherche collaborative d'information en tant qu'un type particulier de situation de recherche d'information et donc, en empruntant les concepts et méthodes utilisées lors d'études sur les recherches individuelles d'informations; d'autres abordent cette même recherche collaborative d'information comme une activité très différente et font donc appel à de nouveaux modèles et nouvelles approches. De plus, certains auteurs se focalisent sur les comportements des individus (en tant qu'unités) tandis que d'autres se concentrent sur le fonctionnement des groupes d'individus, ces groupes étant tantôt considérés comme la somme d'unités et tantôt considérés comme des entités spécifiques. Sans compter que certains groupes étudiés sont parfois formels (créés suite à la demande explicite d'un tuteur, enseignant, etc. et apparaissant dans un organigramme) et parfois informels (créés spontanément par plusieurs individus en vue de répondre à un problème particulier). En d'autres termes, il convient absolument de définir, avant de conduire toute étude s'intéressant à la recherche collaborative d'information, le niveau de granularité et d'analyse à laquelle on souhaite procéder. Ce n'est qu'après la définition de ce niveau d'analyse que les concepts et méthodes les plus pertinents pourront être choisis. En ce sens, Fidel, Pejtersen, Cleal et Bruce (2004) proposent d'aborder la situation de recherche collaborative d'information selon une approche concentrique (Figure 3). Et selon la « sphère » concernée par l'étude, le champ théorique correspondant est proposé. Les différents niveaux d'analyse de la recherche collaborative d'information selon Fidel et al., (2004) Sur la base des éléments précédemment cités, il apparaît donc pertinent de proposer la création d'un outil d'aide à la recherche collaborative d'information qui soit simple d'utilisation pour les usagers tout-venant. Cet outil repose sur le principe général suivant : grâce à des représentations graphiques simples et claires affichées à l'écran aux côtés du moteur, annuaire ou métamoteur utilisé, fournir à chaque membre d'un groupe des informations quant aux comportements de recherche d'information de chacun et des informations quant à l'efficacité de ces comportements de recherche. Élargir le contexte d'une activité de recherche en termes de localisation de l'information, de communauté d'utilisateurs collaborant à un projet, de types d'interfaces ou de multiplication des points d'accès, présente un avantage non négligeable à condition que l'on soit en mesure de mémoriser et d'évaluer l'activité. Selon nous, un système collaboratif doit fournir des indicateurs pour optimiser les fonctions de recherche et permettre d'estimer qualitativement et quantitativement la contribution de l'ensemble des utilisateurs. Un SRI collaboratif doit donc permettre d'apprécier simplement la pertinence des contributions de chacun (soit en autoévaluation, soit en évaluation a posteriori par un tiers), le rythme de travail des différents collaborateurs, leur contribution au projet, le taux de confiance que l'on peut accorder aux partenaires et à leurs contributions et bien évidemment optimiser globalement les méthodes de travail. La fonctionnalité première d'un SRI collaboratif est de distinguer et de conserver deux catégories d'information : d'une part, les informations que les utilisateurs ont jugées comme pertinentes par rapport au contexte et objectif de la recherche devront être conservées et accessibles au fur et à mesure de l'évolution des activités à l'ensemble du groupe; d'autre part, les informations qu'ils n'auront pas estimées bon d'archiver et de conserver. Il est cependant important voire vital de garder une trace de ces références « écartées » afin d'éviter au groupe d'utilisateurs de multiplier l'analyse et le traitement de ces documents non pertinents. Le résultat des consultations pourra soit être mutualisé au sein d'un référentiel globale (liste commune des informations pertinentes) soit être rattaché au partenaire ayant initié la recherche. Cette seconde solution présente l'avantage de pouvoir apprécier individuellement la contribution de chaque utilisateur. Évaluer la pertinence d'une stratégie de recherche en fonction de critères donnés (thématiques, objectifs, format, …) est généralement une tâche complexe dans la mesure où la notion de pertinence est délicate à définir (Mizzaro, 1998). Nous proposons ici une définition générique qui pourrait être précisée en fonction du contexte d'utilisation du système collaboratif. Par exemple, Taher (2004) définit la pertinence comme un ratio « jugement auto-évalué » par un « coefficient de pondération » à partir d'une échelle de valeurs comme celle proposée par Maltz (1994). D'autres systèmes de recherche proposent un degré de pertinence lié à la présence de mots clés dans les documents recherchés (sur ACM portal sur des noms d'auteurs ou autre mot clé). La restitution de ce critère est souvent réalisée sous la forme d'une jauge, d'une série d'étoiles ou simplement matérialisée par des logos spécifiques (par exemple, un chien pour l'annuaire de Lycos). Nous proposons de représenter, au travers d'un espace bi-dimenssionel visuel, une autoévaluation de pertinence sur l'échelle des ordonnées sans connotation négative. Si le site visité ou le document lu ne semble pas satisfaire les critères et objectifs de la recherche, celui -ci ne sera pas conservé. Une trace de consultation sera tout de même conservée dans l'historique de travail afin d'indiquer aux autres utilisateurs que ce lien ne présente que peu d'intérêt et éviter ainsi des lectures multiples. Plus l'utilisateur aura archivé de références d'informations pertinentes, et plus son avatar se situera haut sur l'échelle des ordonnées (figure 4). Représentation de la pertinence La pertinence étant une valeur subjective et donc soumise à controverse, il semble intéressant de posséder un indicateur permettant de pondérer l'autoévaluation des références trouvées par les utilisateurs. Pour cela nous définissions un variable « taux de confiance » que nous allons graphiquement associer à l'axe de abscisses. Ce taux de confiance peut être une valeur définie par défaut (0 au centre du graphique) ou forcée en début d'analyse en fonction d'expériences précédentes ou encore du degré d'expertise du collaborateur (figure 5). Taux de confiance initial différent L'évolution du taux de confiance du collaborateur X, qui pourrait devenir négatif, dépendra de notre propre évaluation de son travail. Ainsi, le travail de deux personnes situées sur un même niveau de pertinence n'aura pas intrinsèquement la même valeur (figure 6). Autoévaluation de la pertinence identique avec un taux de confiance différent Évaluer le travail de recherche d'information d'un individu peut se faire de manière qualitative par la pertinence des résultats trouvés mais aussi de manière quantitative en mesurant par exemple le nombre de sites visités, le temps passé sur chaque site ou encore le nombre de documents téléchargés. Pour apprécier la contribution quantitative d'un collaborateur au projet, nous proposons de le distinguer visuellement en modifiant la taille de son avatar (figure 7). Représentation de la contribution au projet Cette variation de taille sera un indicateur de l'évolution de la charge de travail d'un collaborateur. Aux différentes étapes du projet, la taille de son avatar pourra aussi bien croître que décroître en fonction de son rythme de travail. L'idéal est bien évidemment que le collaborateur soit de confiance et qu'il ait trouvé un grand nombre de références jugées pertinentes. Ce dernier cas se traduira graphiquement par un avatar surdimensionné situé dans le cadran haut-droit de notre repère. Selon nous, un outil collaboratif de recherche d'information a comme fonction principale de renseigner un utilisateur sur l'historique des recherches. En ce sens, cet outil doit être à la fois une mémoire de travail et un facilitateur de tâches pour chacun des collaborateurs. Synthétiquement, une fois connecté au système, un collaborateur doit être en mesure de répondre rapidement aux interrogations suivantes : le site a -t-il déjà été analysé par une autre personne du groupe ? si oui, par qui ? si oui, quelle en a été l'évaluation ? si oui, quand cette analyse a -t-elle eu lieu ? Généralement, les résultats d'une recherche d'information sur Internet réalisée avec un moteur, annuaire ou métamoteur se présentent sous la forme d'une liste de sites (ou documents) que l'utilisateur consulte principalement de manière séquentielle. Celui -ci n'a généralement pas la possibilité de savoir si cette référence a été consultée et retenue par un membre de l'équipe. On peut alors concevoir une aide qui, lorsque l'opérateur désigne un lien dans une fenêtre « résultat », modifie la représentation de l'environnement afin de la renseigner sur l'antériorité d'une recherche sur le même site. On peut par exemple (figure 8) modifier l'aspect visuel du collaborateur qui a au préalable effectué une analyse de cette source. Nous distinguons possibilités : si le site n'a pas été jugé comme pertinent par l'utilisateur U, seule la couleur de son avatar est modifiée; si le site a été jugé comme pertinent et retenu par U, la couleur de son avatar est modifiée et plusieurs informations (nom, note, date, …) apparaissent à l'écran. Informations sur l'antécédence des recherches Si le site que nous souhaitons consulter (de la figure 9) n'a été visité par aucun des membres du groupe, il sera, après consultation, automatiquement rangé dans l'historique de recherche de l'utilisateur (W sur l'exemple de la figure 9). Si cet utilisateur juge pertinent de conserver cette référence, il pourra alors demander l'ouverture d'une fenêtre de notation (adresse, note, date…) et la compléter. Mémorisation d'une nouvelle référence L'outil conçu et présenté ci-dessus repose sur le principe général suivant : grâce à des représentations graphiques simples et claires affichées à l'écran aux côtés du moteur, annuaire ou métamoteur utilisé, fournir à chaque membre d'un groupe des informations quant aux comportements de recherche d'information de chacun et des informations quant à l'efficacité de ces comportements de recherche. En ce sens, cet outil remplit donc deux principales fonctions : une aide à la recherche d'information proprement dite en fournissant des indications quant aux comportements de chacun à chacun. Ainsi, l'auto-régulation de ses propres comportements de recherche en est facilitée; un suivi et/ou une évaluation du comportement de chacun, soit par les membres du groupe eux -mêmes, soit par un superviseur de l'activité (tuteur, formateur, enseignant, etc.). Selon nous, les applications pédagogiques sont directes que ce soit lors d'enseignements explicites de la recherche d'information collaborative, d'accompagnements à distance ou encore d'auto-formations. Très concrètement, en matière d'évaluation et de suivi du travail réalisé par un groupe et les membres de ce groupe, cette proposition d'outil permet donc d'une part, d'évaluer les comportements de recherche et d'autre part, de suivre l'évolution de ces comportements au fil de l'activité. Pouvoir accéder au contenu des recherches de l'ensemble des collaborateurs du projet a un double intérêt. Le premier est bien évidement de pouvoir consulter l'ensemble des références trouvées et archivées par chaque membre. La figure 10 présente une possibilité de restitution, après une action sur l'avatar (clic souris par exemple), des sources mémorisées par le collaborateur U. Accès au travail de recherche d'un collaborateur Le second intérêt est de pouvoir, après consultation des éléments modifier le degré de confiance que l'on va accorder aux différents collaborateurs (rôle du responsable de projet) stimulant ainsi le collaborateur qui a vu son avatar « grimper » sur l'échelle de confiance, avertir celui dont l'avatar « descend » dangereusement vers des taux négatifs et plus généralement motiver l'ensemble du groupe. Les représentations d'un graphique ne sont que des vues instantanées permettant de retranscrire le travail de chacun à des moments précis. Il peut être intéressant de voir l'évolution du travail d'un collaborateur sur des périodes plus longues et notamment sur la totalité de la durée de vie du projet. Il pourra alors être possible de sauvegarder la situation en discrétisant les temps en périodes plus ou moins longues en fonction des besoins (tous les jours, semaines, mois, …). Un menu de suivi doit permet de contrôler l'évolution du travail d'un collaborateur donné en affichant un graphe de travail. La figure 11 présente une variation à quatre moments clés du projet du travail du collaborateur Z. On peut interpréter sur cette représentation que Z était au début du projet une personne pour laquelle le chef de projet n'avait pas d'a priori sur la confiance à accorder à son travail. Entre la période T1 et T2, Z a obtenu des résultats plutôt qualitatifs puisque que son autoévaluation a augmentée ainsi que le niveau de confiance (du chef de projet). Entre T1 et T2, ses recherches étaient plutôt quantitatives (en termes de nombre de sites visités par exemple) avec une autoévaluation plus négative de la pertinence des informations trouvées mais un taux de confiance en forte croissance. Sur la dernière période, Z était moins productif en termes de volume mais les éléments trouvés semblent plus correspondre aux critères fixés. Suivi du travail d'un collaborateur Mais, du côté de la psychologie de la recherche d'information, c'est-à-dire des connaissances concernant les stratégies et comportements de recherche d'information, de nombreuses questions et zones d'ombres demeurent, notamment celles liées au contexte collaboratif de l'activité. En effet, même si un nombre croissant d'études s'intéressent à la dimension collaborative de la recherche d'information dans les environnements numériques, les effets sont encore largement méconnus. Enfin, les paramètres et facteurs (contextuels, émotionnels, cognitifs, etc.) qui affectent l'activité de recherche d'information collaborative sont encore largement méconnus. Il est donc essentiel que les travaux se poursuivent dans cette direction surtout si l'on veut concevoir des outils d'aides simples, efficaces et rapides à maîtriser .
Cet article s'intéresse à la recherche collaborative d'information du point de vue des comportements et processus mentaux sous-jacents et poursuit trois objectifs complémentaires : après avoir explicité les enjeux liés à cette activité de nos jours et dans un avenir proche, faire un point sur les connaissances (et les non-connaissances) que nous avons quant à ces comportements et processus mentaux impliqués; ensuite présenter les caractéristiques d'un outil technique innovant, simple d'utilisation, pouvant aider les utilisateurs « tout-venant » à réaliser des recherches collaboratives d'information ; enfin, démontrer qu 'il est absolument nécessaire de poursuivre et de développer les approches pluridisciplinaires dans ce domaine.
sciencesInfo_10-0384090_tei_DN_103_0025.tei.xml
termith-358-communication
« Ce que montre l'étude socio-historique des technologies decommunication apparues depuis le XIX e siècle et des modes dereprésentation qui leur sont dialectiquement solidaires, c'est bien que ledéveloppement technique est indissociable, dans ses conséquences sociales, descauses sociales qui le génèrent .  » (Beaud, 1984  :153) La littérature en sciences sociales portant sur la « fracture numérique  » liée àl'informatique connectée (l'internet) est aujourd'hui des plus abondantes. Enrevanche, celle qui lui est adjacente et traite des « retardataires  » ,« non-utilisateurs  » et autres « abandonnistes  » s'avère pour le moins restreinte ,tout du moins en France. Si les travaux français traitant de cette question sont, àquelques exceptions près (voir Lelong et al., 2004) quasiinexistants, il existe toutefois un important corpus de textes anglophones quiabordent diverses facettes des phénomènes de « non-usage  ». Dans cette livraison deQuestions de communication ,l'article de Sally Wyatt en présente certains aspects et en souligne les principauxrésultats. Nous appuyant sur une revue de littérature relativement similaire, noussouhaiterions prolonger cette dynamique de recherche en problématisant à nouveauxfrais le « non-usage  » et en l'envisageant sous l'angle de la théorie de lareconnaissance (Honneth, 2000, 2001, 2005, 2006). Plus particulièrement, nousconsidèrerons la possibilité d'envisager le « non-usage  » comme une forme deréponse à l'idéologie de la reconnaissance que porte la mythologie de la « sociétéde l'information  ». Sur la base d'un matériau d'enquête de type qualitatif, nous voudrions développer uneperspective analytique critique qui n'opposerait pas représentations et pratiques .La sociologie des usages sociaux des technologies de l'information et de lacommunication (tic) a très tôt souligné la richesse heuristique à penser ensembleles dimensions pratiques (usages) et perceptives (Baboulin etal., 1983; Jouët, 1987; Chambat, 1992; Mallein, Toussaint, 1994 ;Flichy, 2008). Certes, l'usage et le non-usage décrivent des situations pratiques ,mais ils sont également portés par des significations sociales qui émergent de larencontre entre les dispositions des utilisateurs (manières de faire, d' être et depenser) et le cadrage techno-symbolique qui accompagne le dispositif technique( Jouët, 1997). En ce sens, les (non-)utilisateurs sont des agents sociaux quiconduisent toujours un double procès en légitimité  : celui d'un outil technologiquequi, en l'occurrence, leur est présenté comme un nouveau sésame social (condition deleur bonne insertion dans la « société de l'information  ») et aussi celui dessystèmes de représentation prescriptifs qui cadrent symboliquement cette nouvellenécessité. La notion d'appropriation a très souvent été employée pour souligner le fait que« les usagers s'approprient les attributs de la technique pour satisfairel'expression de leur subjectivité  » (Jouët, 1992  : 181) et moins pour décrire lesrapports sociaux qui constituent pourtant la matrice de cette subjectivité à l' œuvredans la manipulation technique (Jouët, 2000). À la lumière de cette précision, l'onpeut tout à fait envisager le non-usage comme un processus (négatif) d'appropriationqui enjoint plus particulièrement à prendre en compte la dimension dispositionnellede cette non-appropriation  : « L'insertion sociale d'une ntic, son intégration à laquotidienneté des usagers [dépend] moins de ses qualités techniques« intrinsèques  », de ses performances et de sa sophistication que dessignifications d'usage projetées et construites par les usagers sur le dispositiftechnique  » (Mallein, Toussaint, 1994  : 30). Comme le montre la littérature, s'ilest possible d'identifier un répertoire assez large de causes pouvant expliquer lenon-usage, plus précisément nous mettrons au jour les médiations symboliques quicadrent ce phénomène et à montrerons ce que ce non-usage révèle des subjectivités etconditions sociales de celles et ceux qui ne peuvent et/ou ne veulent s'investir( davantage) dans l'usage de l'informatique connectée. Car « les pratiques decommunication, en tant que relation homme/machine, ne peuvent être dissociées de laconstruction sociale de l'identité des machines à communiquer, construction quiconnecte les objets à des normes et à des valeurs  » (Chambat, 1992  : 21 )  : lesnormes (imaginaires) notamment codées par les discours institutionnelsd'accompagnement des marchés technologiques, mais aussi inscrites au sein même dudispositif et les valeurs (filtres perceptifs) des utilisateurs les décodant (Hall ,1994). Le matériau d'enquête recueilli s'appuie sur la réalisation de vingt-quatreentretiens semi-directifs approfondis. Ils ont été conduits aux domiciles denon-utilisateurs (9 femmes et 15 hommes ayant entre 22 ans et 48 ans) occupantmajoritairement des positions professionnelles relevant des pcs inférieures( employés et ouvriers). Un quart d'entre eux est toutefois titulaire d'un niveau decertification scolaire supérieur au baccalauréat et quatre ont une trajectoireascendante au regard des conditions sociales d'existence de leurs parents .Permettons -nous, ici, de souligner les obstacles rencontrés dans la constitution dece corpus. À la réticence des individus issus des classes populaires à se laisserinterroger, s'est ajoutée la prudence à participer à une enquête dont le principeest d'évoquer des usages de la technique qu'ils n'ont pas ou plus et dont l'absenceau sein de leur répertoire de pratiques peut être ressentie par eux comme un manquesocialement stigmatisant. Le travail d'analyse et d'objectivation de l'enquêteurs'en trouve d'autant plus perçu comme une source potentielle de désagrément vis-visde laquelle on préfère alors préventivement se soustraire. Defacto, nous avons essuyé de nombreux refus de participation, malgré uneméthode d'intéressement initialement organisée sur la base d'une proximitérelationnelle relative (prises de contact avec des connaissances de connaissances) .Nous avons finalement pu réaliser près des trois quarts du recrutement via une campagne d'affichage dans les halls d'immeubles delogements sociaux de quartiers populaires, que nous avons complétés par lasollicitation d'individus qui nous avaient été recommandés par les primo-répondants .Les entretiens réalisés présentent ainsi une double particularité  : la première estqu'ils rendent compte d'expériences de non-utilisateurs qui n'ont sans doute aucunevaleur de représentativité; la seconde porte sur la spécificité des répondants quitous ont été capables de tenir un discours construit quant à la justification deleurs (non-)pratiques de l'informatique connectée, passées et présentes. Si lesargumentations mobilisées sont variables, elles témoignent toutefois d'une réflexionpréalable concernant la question des tic et révèlent des capacités réflexives bienantérieures à la situation d'enquête. Nous n'avons donc pu obtenir de données auprèsde publics qui, pensant ne rien pouvoir dire au sujet de quelque-chose qu'ils nefont pas, refusaient spontanément le principe d'un entretien. Un des premiers objectifs de la littérature sur le non-usage de l'internet a étéd'essayer de catégoriser le phénomène et de lui redonner de la profondeur en enrepérant diverses modalités. En la matière, le travail séminal mené par JamesKatz et Philip Aspden (1997; 1998) a entériné une première différenciationentre ceux qui n'utilisent pas (encore) l'internet (non-users) et ceux qui se sont investis à un moment donné dansl'informatique connectée, mais ont finalement abandonné cet engagement (drop-outs). Ils montrent notamment que les« abandonnistes  » ont partagé les mêmes motivations à s'équiper que lesutilisateurs récents ou plus anciens. Par ordre d'importance  : communiquer avecd'autres personnes, puis s'informer et rester « à la page  » (keeping up-to-date). En revanche, les non-utilisateurs ayantl'intention d'utiliser l'internet invoquent en premier lieu le fait de ne pasêtre dépassés par les évolutions technologiques et, en deuxième mention, lapossibilité de se créer des opportunités rémunératrices (business opportunities). Par ailleurs, abandonnistes etnon-utilisateurs (de plus de vingt ans) sont moins favorisés socialement que lesutilisateurs et disposent aussi d'un niveau de certification scolaire moindre .De nombreuses études montreront par la suite que le déficit en différentessortes de capital (culturel, économique, social), mais également certains autresfacteurs (être âgé, être une femme, être parent isolé, etc.) restent de fait desindicateurs pertinents du non-usage (Rice, Katz, 2003; Wenhong, Wellman, 2003 ;Anderson, 2006; Batorski, Smoreda, 2006). James Katz et Philip Aspden notentégalement que les situations d'abandon sont plus fréquentes chez les individusqui ont souscrit à un abonnement sur les conseils de proches (famille, amis) queparmi ceux qui ont été motivés par un intérêt personnel ou qui ont pu bénéficierd'une formation leur permettant une acculturation minimale au dispositif (Duttonet al., 2005). Cette première distinction entre non-utilisateurs et abandonnistes pousserad'autres chercheurs à essayer de discriminer encore davantage les situations denon-usage pour en comprendre plus finement les mécanismes. Les travaux de IanMiles et Graham Thomas (1995), d'Eszter Hargittai (2002; 2007) ou de Jan vanDijk (2005) vont par exemple insister sur la vacuité à théoriser via ces paired concepts etproposer de repérer quels sont précisément les interfaces et services mobilisés( ou non) par les utilisateurs (par exemple surfer, mais ne pas utiliser lecourrier électronique). Par le biais de la notion de capital-enhancing, Paul DiMaggio et Eszter Hargittai (2002 ;Hargittai, Hinnant, 2008) vont, dans une perspective assez similaire ,s'intéresser aux différents types de pratiques en ligne susceptibles devéritablement améliorer les conditions sociales d'existence des internautes etmontrer que les usages les plus « utiles  » sont, sous cet aspect singulier ,socialement très mal distribués. Nombreux sont les chercheurs qui, à partir dequestions de recherche très diverses, tentent de comprendre quels sont les( non-)usages qui sont les plus problématiques. Une des principales manières dont vont être travaillées les données statistiquesissues des différents terrains empiriques est de proposer des typologies. Il enexiste de très nombreuses qu'il serait ici trop fastidieux de présenter, maisretenons que, pour l'essentiel, elles sont fondées sur des approches quilaissent assez largement de côté la question des représentations. Sally Wyatt ,Graham Thomas et Tiziana Terranova (2002) identifient par exemple quatre groupesde non-utilisateurs  : les « abandonnistes volontaires  » (rejecters) qui n'utilisent plus l'internet par choix personnels, les« abandonnistes involontaires  » (expelled) qui ontarrêté de l'utiliser pour des raisons qui ne relèvent pas cette fois de leurvolonté; les « exclus  » (excluded) qui ne peuventavoir d'accès par manque d'infrastructure ou de moyens socio-économiques et les« résistants  » (resisters) qui n'ont jamais utilisél'internet par choix. Concernant la population des moins de vingt ans, SoniaLivingstone et Ellen Helsper (2007) repèrent quatre types de non-utilisateursassez proches de ceux proposés par Sally Wyatt et al. :les abandonnistes volontaires (have access, stoppedusing), les abandonnistes involontaires (lostaccess, stopped using), les exclus de l'internet (noaccess, never used) et de façon plus originale  : les utilisateurspotentiels (have access, never used). Cescatégorisations – dont il existe par ailleurs d'autres versions présentant demenues variations (voir Lenhart et al., 2003) – sontfondées sur trois dimensions classantes de natures assez diverses  : infrastructurelle d'abord (l'accès – have vs. have not), pratique ensuite (l'usage – use vs non-use) et décisionnaire enfin (le caractère« volontaire  » ou non des situations décrites par les deux premièresvariables). Selon nous, cet exercice de raffinement dans le catalogage desnon-utilisateurs possède un intérêt évident qui, defacto, permet d'éclairer plus précisément certainsattributs du non-usage, mais aussi, dans certains cas hélas trop rares, de lirepossiblement le non-usage comme un acte de résistance plus ou moins actif( Bauer, 1995; Wyatt, 2003) et pas seulement comme une défaillance ou lerévélateur de nouvelles inégalités (Wyatt, 1999; 2008). Ce travers « défaillantiste  » n'est pas des plus récents. Il se retrouvenotamment au sein des approches critiques qui, attentives aux questionsd'exclusion, ne se donnent pas les moyens de penser le non-investissementtechnologique autrement que comme une nouvelle forme de domination. Au début desannées 80, Philippe Roqueplo (1983) considérait par exemple que le manque deculture technique et son corolaire, le non-usage, conduisaient à une situationde double aliénation  : a) ne pas maîtriser son propre environnement et b) êtredépendant des instances (individus et organisations) qui possèdent ce type decompétences et exercent de ce fait des formes de contrôle sur les individusdépourvus de cette forme de capital. De la même façon, la « fracturenumérique  » est parfois présentée comme un déficit d'acculturation technique .Sans remettre frontalement en cause le bien-fondé de cet examen (ne pas avoir lamaîtrise a minima de l'informatique connectée est sansaucun doute un handicap dans une société largement informatisée), ce type decadrage ne permet d'envisager les inégalités numériques que sous l'angle d'unefigure de l'extension du domaine de la dépossession contre laquelle il fautlutter. Cette perspective a pour faiblesse, d'une part, de n'envisager lesconditions sociales de la pratique que sous l'angle de l'acquisition et del'exercice d'une forme de capital spécifique et, d'autre part, d'appréhender lenon-usage comme une dynamique sociale relevant de la « limitation de soi  » .Ainsi ce type d'approche se déploie -t-il au risque même du mythe de la « sociétéde l'information  », c'est-à-dire sans remettre fondamentalement en question la« définition socialement approuvée  » (Hoggart, 1957) des sociétéscontemporaines qui fait de la « fracture numérique  » une nouvelle formed'inégalité à laquelle il faut croire et construit le non-usage comme unedéficience contre laquelle il faut agir (Wyatt, 1999; Warschauer, 2002 ;Gunkel, 2003; Granjon, 2009b). Les politiques en faveur des « publicséloignés  », des « have-nots » ou des « e-exclus  »sont ainsi des mesures considérées comme étant destinées à des « défavorisésnumériques  », alors que ceux -ci sont évidemment, la plupart du temps, d'aborddes « défavorisés sociaux  ». Leur but n'est ni de remédier aux causes desinégalités numériques en tant qu'elles sont un effet de discriminations situéesen leur amont, ni d'étayer une réflexion sur leur formation. Il s'agit plutôt deconsidérer une forme émergente d'inégalités, subséquente à la « société del'information  », et non d'examiner la dernière déclinaison en date d'inégalitéssociales préexistantes. Dans leurs travaux sur les jeunes, Sonia Livingstone et Ellen Helsperconstruisent également une typologie d'utilisateurs occasionnels (low-users) dont nous ne présenterons pas le détail ici ,mais dont l'initiative semble particulièrement inspirée parce qu'elle relativiseles frontières de l'usage et du non-usage (voir également Selwyn, 2006). Destravaux aussi différents que ceux de Paul DiMaggio et Coral Celeste (2004), deBen Anderson (2006) ou de Bertrand Fribourg (2009) montrent que les trajectoiresd'usages des tic (technological careers) sont des pluserratiques et dépendent notamment de la période du cycle de vie dans laquelle setrouvent les utilisateurs ou encore des éventuelles ruptures biographiquesauxquelles ils sont confrontés (perte d'emploi, déménagement, mise en couple ,etc.). Les abandons ne sont donc pas, loin s'en faut, toujours définitifs et ilarrive souvent que les pratiques oscillent entre des périodes d'usages effectifset des intervalles de temps où ils sont absents des répertoires d'activités desindividus (décrochage). Plus fondamentalement, nous pensons que ce bornage entreusage et non-usage, qui somme toute a pour lui la force de l'évidence, n'est paspour autant un élément opportun de périmétrage. Il fait en effet rentrer sousdes appellations spécieuses, des réalités sociales qui, certes, peuvent êtrediverses au regard de la mobilisation effective ou non de l'informatiqueconnectée, mais qui toutefois peuvent aussi se fonder sur des rapports et dessens pratiques similaires (en tout cas nous en faisons l'hypothèse). Et si nousvoulons faire une analyse sociale interprétative de ces phénomènes, il faut êtreen mesure de considérer le (non-)utilisateur non seulement en fonction de sonniveau d'investissement technologique, mais aussi en lien avec les rapportssociaux au sein desquels il se trouve pris et qui fait de lui un agentsingulier, historiquement et socialement situé. Outre ce recours fréquent à la catégorisation des formes de non-usage, unautre trait distinctif de la littérature du domaine est de porter uneattention particulière aux raisons du non-investissement de l'informatiqueconnectée. Là encore, l'intérêt pour la compréhension de ces formesd'éloignement de la modernité technologique s'ancre dans une tradition derecherche plus ancienne. Selon la théorie de la diffusion des innovationstelle quelle est proposée par Everett Rogers (1983), la non-adoption d'unetechnologie peut s'expliquer par le manque particulier d'appétence de sesutilisateurs potentiels pour la « chose technique  », la faiblesse de leursressources socio-économiques, informationnelles et relationnelles (médias etearly-adopters jouant censément un rôle des plusimportants) ou encore l'insuffisance réelle ou simplement perçue despotentialités pratico-sociales (avantages) censées être tirées de son usage .Ce modèle a largement été utilisé pour appréhender la (non-)adoption des tic( Rogers, 1986; Leung, Wei, 1999, etc.). Il a notamment été mobilisé, sousdes formes actualisées et hybridées avec d'autres constructions théoriques ,au sein de recherches récentes qui se sont intéressées aux facteurssocio-psychologiques influençant sensiblement l'intention ou non des'équiper et d'utiliser l'internet (Zhu, He, 2002). Les travaux déjà évoqués de James Katz et Philip Aspden (1997; 1998) n'ontpas dérogé à cette logique d'investigation et présentent une évaluation desraisons pour lesquelles les abandonnistes cessent de se servir del'internet. Ainsi ont-ils mis en avant que les motifs de l'abandon varientselon l' âge. Les moins de vingt ans n'utilisent plus l'internet ,généralement par manque d'intérêt ou par perte de leur accès (pour plus dedétails sur cette population, voir Livingstone, Helsper, 2007), tandis queles plus âgés avancent des motifs qui tiennent davantage à leurs difficultésà maîtriser l'informatique connectée ou aux coûts économiques trop élevés .D'autres études plus récentes confirment peu ou prou ces résultats (Rice ,Katz, 2003), quelle que soit l'aire géographique concernée (Crompton et al., 2002; Batorski, Smoreda, 2006; awt, 2008) .Elles soulignent aussi combien la question de l'acquisition des compétenceset d'une expérience dans la manipulation des équipements tend à devenir deplus en plus centrale (Rogers, 2001; Hargittai, 2002; Selwin, 2003 ;Ofcom, 2004; Dutton et al., 2005; Hargittai ,Hinnant, 2008). Toutefois, Dominik Batorski et Zbigniew Smoreda (2006 )observent aussi que les abandonnistes ne sont pas généralement desnéophytes. Par ailleurs, si les changements de statut professionnel ouscolaire, ou encore l'éloignement d'un lieu d'accès sont des causesévidentes de l'abandon, elles n'expliquent qu'un seul cinquième des cas  :« Il existe de ce fait une multitude d'autres facteurs qui peuventdéterminer l'arrêt d'usage de l'internet, la difficulté de construire unmodèle explicatif en est une preuve  » (Batorski, Smoreda, 2006  : 206). Selon les cas de non-usage pris en compte, le domaine des représentations estdonc généralement abordé par le biais d'un intérêt tout particulier pour lesmotivations des non-utilisateurs à s'équiper, ou les motifs pour lesquelsils n'investissent pas (davantage) la pratique de l'informatique connectéeou bien l'ont délaissée. Cette focalisation sur des aspectssocio-psychologiques censés fournir toute explication utile permettant desaisir les raisons du non-usage a, sous l'effet d'une logique de l'évidence ,pour conséquence de faire l'économie d'une interrogation sur les structuressociales et les dispositions des non-utilisateurs. Elle entérine une visionutilitariste assurant la promotion d'un agent social qui témoignerait de sacapacité à conduire une auto-évaluation rationnelle de ses besoins( contrariés). En l'occurrence, du fait de la méthode employée (réponses àdes questions fermées), les résultats obtenus ne livrent pas autre chose« qu'une énumération disparate des raisons ou des rationalisations que toutsujet peut invoquer, au prix d'un effort d'imagination pour justifier sonactivité ou son abstention  » (Bourdieu, 1965  : 34), mais rien n'est ditsur les causes sociales de ces justifications par trop autoguidées par lesappareils de preuves des enquêtes quantitatives. On retrouve un des traversclassiques des problématiques de la « fracture numérique  » qui certessoulignent l'existence d'inégalités dans le champ des tic, mais ne disent enrevanche rien ou pas grand chose des origines sociales de ces inégalitésnumériques (Warschauer, 2003; Wenhong, Wellman, 2003; Granjon, 2009b). Comme le suggère Eszter Hargittai (2004), nous ne saurions nous contenter deces listes de motifs qui, s'ils ont valeur de descripteurs, manquent deprécision interprétative et noient dans les eaux troubles du sens commun lesvéritables générateurs sociaux de ces non-pratiques. Paul DiMaggio et sesconfrères (2001) insistent ainsi avec raison sur le fait qu'il s'avère, làencore, nécessaire de réconcilier les approches portant sur lescomportements des (non -) utilisateurs (usages, valeurs et représentations )et les analyses macrostructurelles (institutional andpolitical-economic factors) qui cadrent ces comportements. Enaccord avec ces impératifs, notre contribution s'appuiera sur uneproblématique faisant siens les attendus d'une conceptualisation en termesd'appropriation. Pour ce faire, nous mobiliserons des matériaux d'enquête denature qualitative, plus pertinents selon nous pour comprendre les sens sociaux du non-usage, c'est-à-dire des activitésà la fois pratiques et perceptives des non-utilisateurs en tant qu'ils sontdes agents sociaux pris au sein de rapports sociaux remarquables. Les réflexions que nous avons menées ces dernières années sur la question dela « fracture numérique  » (Granjon, 2004; 2005; 2006; 2008; 2009b) ontconduit à considérer que le « fossé numérique  » ne saurait se résumer à undéfaut d'usage. Si les inégalités numériques s'expriment avec la force del'évidence dans le non-usage ou dans une pratique « indigente  », elles nesauraient toutefois se résumer aux phénomènes d' « e-exclusion  », qui nesont que l'expression des formes les plus radicales d'inégalités numériques .En réalité, ces inégalités peuvent aussi être présentes dans des usages lesplus stabilisés et les plus élaborés sur le plan des manipulations. Car ceque nous désignons par « inégalités numériques  » ne concerne pas tant desrégimes de manipulations besogneuses de l'internet, que des dissemblanceseffectives concernant la conversion en accomplissement de « bien-être  » despossibilités d'action offertes par l'informatique connectée. Et cesdissimilitudes ne sont pas autre chose que des traductions pratiques deformes de rapports sociaux (l'histoire-faite-chose) fondés sur desinjustices sociales. Elles sont des modalités différenciées d'appropriationproduites par des déficits de capitaux ou de compétences, ou des capacitéset des sens pratiques (manières d' être et de faire) qui sont les produitsintériorisés (l'histoire-faite-corps) de formes de domination sociale. Fidèle aux postulats qui nous ont conduit à considérer la « fracturenumérique  » par-delà les cas de non-accès et de non-usage, pourl'appréhender plus fondamentalement comme un ensemble d'écarts de pratiquesconstitutifs d'inégalités sociales, nous développons ici une visionagrégative du « non-usage  » et nous nous intéressons aux logiques etrégulations sociales qui structurent le phénomène. Nos investigationsportent à la fois sur les non-utilisateurs (have-nots) qui ne se sont jamais investis dans la pratique del'informatique connectée, sur les abandonnistes (drop-outs) qui, après avoir essayé l'internet, sesont in fine dégagés de cet engagement, mais aussisur les individus qui, s'ils disposent des éléments matériels (ordinateur etconnexion) leur permettant un accès au réseau des réseaux ne développentpour autant que de faibles usages en termes de fréquence, de durée et/ou derépertoire d'usages (low-users). La prise en comptede ces faibles utilisateurs invite à appréhender sous l'angle del'appropriation, un phénomène social qui est encore trop souvent ramené àdes indicateurs essentiellement infrastructurels (i.e. à une problématique de l'adoption des innovations – Rogers ,1983; 1986). Elle engage également à saisir pratiquement une populationconstituée de celles et ceux pour qui disposer de l'internet n'est pas, loins'en faut, synonyme d'une conversion des opportunités ouvertes par cesressources technologiques en avantages pratiques concrets (DiMaggio ,Hargittai, 2002). Nous désignons respectivement par « non-usage  » et « non-utilisateurs  »( avec des guillemets), l'ensemble des pratiques et des individus dont lacaractéristique est de relever d'une « in-capacité  » matérielle et/ou d'une« in-capabilité  » pratique à tirer bénéfice des potentialités économiques ,sociales et/ou culturelles pouvant être offertes par un usage del'informatique connectée. Dans cette perspective, essayer de comprendre le« non-usage  » et ses significations, c'est chercher à saisir le rapportqu'entretiennent les « non-utilisateurs  » à l'informatique connectée, ouautrement dit, à appréhender les sens pratiques qu'ils mobilisent en tantqu'ils sont les produits intériorisés de conditions socialesparticulières  : « Les agents sociaux, et aussi les choses en tant qu'ellessont appropriées [ou non !] par eux, donc constituées comme propriétés, sontsitués en un lieu de l'espace social, lieu distinct et distinctif qui peutêtre caractérisé par la position qu'il occupe par rapports à d'autreslieux  » (Bourdieu, 1997  : 161). À l'instar des éléments relevés par PierreBourdieu quant aux usages rares et rudimentaires de la photographie, le« non-usage  » de l'informatique connectée, tel que nous l'envisageons est àconsidérer comme une (non-)pratique qui comprend une « référence tacite ausystème des possibilités et des impossibilités objectives qui définit et [lasituation sociale des « non-utilisateurs  »] et les conduites compatiblesou incompatibles avec le donné objectif auquel ils se sententmesurés  » (Bourdieu, 1965  : 35). La théorie de la reconnaissance est construite sur une vision post-hégélienne dela lutte sociale qui s'appuie fondamentalement sur trois ordres de conflitssociaux potentiels faisant référence à trois manières de développer une relationharmonieuse à soi -même. Pour Axel Honneth (2001  : 11), ces sphères normativesde la reconnaissance sont l'amour, le droit et l'estime sociale (l'éthicité chezHegel) qui sont donc les trois sources morales et les trois espaces de lutte queles sujets investissent afin de faire reconnaître leurs besoins affectifs, leursdroits et leurs aptitudes pratiques  : « C'est la revendication dereconnaissance intersubjective de l'identité individuelle qui introduit d'embléeune tension morale dans la vie sociale  ». La perspective est ici profondémentintersubjectiviste  : il n'y a pas de reconnaissance du sujet sans expérience dereconnaissance réciproque entre les sujets. Autrement dit, la relation dereconnaissance est une confirmation mutuelle et éthique du caractère autonome etindividualisé des personnes  : « Les sujets ne peuvent parvenir à une relationpratique avec eux -mêmes que s'ils apprennent à se comprendre à partir de laperspective normative de leurs partenaires d'interaction, qui leur adressent uncertain nombre d'exigences sociales  » (ibid .  : 113) .Les trois sphères normatives où se construisent les rapports pratiques desindividus à eux -mêmes conduisant à l'autoréalisation de soi (confiance en soi ,respect et estime de soi), sont également des lieux possibles d'expériencesdéstabilisantes pour le sujet, directement liées au manque ou au déni derelations de reconnaissance. Ces pendants négatifs des différents rapports dereconnaissance sont définis comme autant de formes de mépris. Le mépriscaractérise donc « un comportement qui est injuste en ce que, avant mêmed'atteindre les sujets dans leur liberté d'action ou de leur porter un préjudicematériel, il les blesse dans l'idée positive qu'ils ont pu acquérir d'eux -mêmesdans l'échange intersubjectif  » (Honneth, 2001  : 161). C'est une expériencemorale de rabaissement et de l'impossibilité de se voir confirmer la valeurpositive de soi, dans l'autre. Si pour Axel Honneth, le rapport à soi positif( et négatif) ne peut être le résultat que d'une liberté (niée) qui est le fruitde l'interaction avec autrui, il faut comprendre cette nécessité intersubjective( relationnelle) dans son caractère à la fois incarné (éprouvée dans dessituations de communication), mais aussi incorporé (dispositionnel), lié à unpassé-présent ayant trait à la socialisation et aux parcours biographiques desindividus. Dans le cadre de cet article, reconnaissance et mépris ne seront appréhendés qu' àl'aune de la troisième sphère normative, celle de l'estime sociale où lesindividus cherchent à se rapporter positivement à leurs qualités et leurscapacités personnelles en tant qu'elles participent à la vie commune. C'est surce plan normatif que sont donc aussi éprouvées les expériences morales demésestime sociale conduisant au saisissement négatif d'identités individuellesqui ne sont pas reconnues comme participant pleinement à une praxis collective .La question de l'estime sociale nous intéresse plus particulièrement, car elledécrit le plan normatif où se construit le « cadre d'orientation symboliquementstructuré – qui reste cependant toujours ouvert et poreux – dans lequel sontformulées les valeurs et les fins éthiques dont la somme dessine la conceptionculturelle qu'une société se fait d'elle -même  ». Et de préciser  : « Un tel cadre d'orientation peut servir de système de référencepour apprécier les caractères individuels, parce que la « valeur  » sociale deces derniers se mesure à la contribution qu'ils semblent pouvoir apporter à laréalisation des fins poursuivies par la société. L'idée culturelle qu'unesociété se fait d'elle -même fournit les critères sur lesquels se fonde l'estimesociale des personnes, dont les capacités et prestations sont jugéesintersubjectivement en fonction de leur aptitude à concrétiser les valeursculturellement définies de la collectivité  » (Honneth, 2001  : 148-149). L'un des cadres d'orientation définissant les qualités singulières auxquellesdoivent se raccrocher les individus afin d' être reconnus pour leur participationà l'accomplissement des objectifs de la société contemporaine est sans douteaujourd'hui, celui qui met en avant les valeurs de la « société del'information  ». L'informatique connectée y est souvent présentée comme lacondition de possibilité matérielle ou, dans une vision moins déterministe maistout aussi biaisée, l' « aide  » nécessaire à la conduite de projets personnelsvisant la réalisation de soi. Affublée de discours d'accompagnement porteursd'injonctions à l'activité, à l'autonomie et à la responsabilité individuelle ,cette idée s'apparie aisément aux cadres d'un individualisme néolibéral quidemande performance et optimisation de soi (Ehrenberg, 1991; Beck, 1986). Lareprésentation commune de l'usager de l'informatique connectée entre enrésonnance forte avec celle de l'individu entrepreneur de sa propre vie, référence hégémonique du contexte sociétalaltermondialisé, valorisant le détachement des repères collectifs au profit dela performance individuelle et de l'autoréalisation. Pro-activité ,« risquophilie  », responsabilisation, management de son existence, travail deses intérêts personnels, acceptation de la concurrence avec les autres, etc. ,tels sont les « savoir-être  » censés imprégner l'utilisateur des tic. Àl'évidence, cette vive incitation à s'équiper et s'acculturer aux tic les plusrécentes est l'une des réponses souhaitées aux impératifs des théories ducapital humain qui encensent la montée en compétence dans la mesure où leprocessus favorise d'abord les potentialités productives de chaque individu. La« société de l'information  » se présente comme une politique généralesouhaitant améliorer les capacités d'action, aider à la réalisation de soi et àl'enrichissement de l'existence des individus, mais, de fait, ce qu'elle viseest moins l'encouragement d'une aptitude à conduire ses propres projets, qu'unemise en capacité pratique à contribuer aux processus de production et de croissance économique. Le rapport à soi qu'elle valorise estavant toute chose celui qui permet une inclusion conforme del'individu dans le système. La logique est alors d'éviter l'exclusion (lafameuse « fracture numérique  »), mais sans pour autant avoir comme horizonnormatif la reconnaissance sociale et la réalisation personnelle. Nous sommes enprésence d'un processus idéologique intégrateur, visant à laisser croire que lesusagers de l'informatique connectée auraient une réelle chance d'améliorer leursconditions d'existence du fait de leurs nouvelles pratiques, alors qu'ils sontsurtout susceptibles de contribuer, d'une nouvelle manière, au maintien du mondetel qu'il va. La mythologie de la « société de l'information  » (George, Granjon, 2008) est unedes formes qu'emprunte l'idéologie de la reconnaissance dans la mesure où elleproduit des représentations conformes aux attentes du système en termes decomportements (vis-à-vis de soi) à adopter. Les valeurs qui y sont mises enavant sont a priori bien des ingrédients essentiels de laréalisation de soi et de l'autonomie personnelle, mais le capitalismecontemporain en contraint paradoxalement les potentiels émancipatoires en endévoyant le caractère éthique (une liberté réflexive), l'objectif d'autonomiepersonnelle étant remplacé par des prescriptions visant à servir et à justifierl'ordre social. L'expérience de l'estime sociale qui est censée être effectuée( quasi directement) par l'insertion des individus dans cette sociététechnologisée ne garantit évidemment pas l'exercice d'un type de relationpratique à soi -même relevant de la reconnaissance. L'usage des tic assured'abord une mise en conformité avec les attendus de la « société del'information  », mais ne certifie aucunement ni le respect, ni la confiance, nil'estime de soi. Au contraire même, dans sa confrontation aux universtechniques, sociaux et culturels de l'informatique connectée, l'idéepotentiellement positive que peut se faire l'individu de soi -même n'est pasassurée ex ante. Dans certains cas d'usage (Granjon ,2009b) et comme nous le verrons infra, aussi de« non-usage  », la relation pratique à soi -même peut même être fortementbousculée et le (non-)utilisateur faire alors l'expérience de l'abaissement desoi. Les (non-)utilisateurs jugent alors négativement leur valeur sociale àl'aune de l'horizon idéologique de la « société de l'information  » dont une desparticularités est précisément de considérer l'estime sociale comme une affaireindividuelle et non collective. Les conditions de possibilité autorisant de tirer quelque avantage despotentialités offertes par la fréquentation de l'internet sont socialementdistribuées et ne coïncident guère avec lessituations sociales de la plupart des « non-utilisateurs  » (Granjon, 2009a ,2009b). Quand ils sont interrogés en profondeur sur les motifs de leurnon-investissement technologique, les « non-utilisateurs  » expriment tousun embarras quant aux bénéfices personnels dont on essaie de les convaincrequ'ils accompagneront forcément leurs usages de l'informatique connectée .Cette gêne épouse essentiellement trois formes. La première d'entre ellesest liée à une mise en doute de la validité des promesses qui sont évoquéesvia les nombreux discours d'accompagnementpromotionnel de la nouvelle modernité technologique, du fait de leuridentification à des propos commerciaux dont on sait bien que l'objectif estd'amener le « client  » à procéder à un acte d'achat  : « C'est difficile d'échapper à la pub pour les ordinateursou internet. Des pubs pour ça, vous en avez tous les jours dans votre boîteaux lettres, tous les jours sans exception. Vous sortez, vous voyez que çapartout quoi… enfin c'est l'impression que ça me donne. C'est du bourrage decrâne en fin de compte. Moi j'ai cette impression quand même qu'on essaie deme forcer à acheter. On voit bien qu'ils vendent ça comme des paquets denouilles ou des conserves, c'est devenu un rayon dans les grandes surfaceset on se dit qu'ils essaient de vous vendre des appareils dont on n'a pasbesoin  » (assistante puéricultrice, 30 ans). Mais la critique du monde marchand qui justifie ici de ne pas s'investir dansl'usage de l'informatique connectée, s'accompagne souvent d'une appréhensiondes phénomènes de marginalisation de ce fait encourus  : « C'est comme Bastien qui demande des marques. On lui aexpliqué que c'était ridicule et cher, mais on a conscience avec son pèrequ' à l'école si t'as pas un minimum de marques tu es le vilain petit canard .Alors des fois on cède sur des chaussures ou un jean, mais ça resteponctuel. J'ai envie de dire que c'est un peu comme ça pour internet. Onfait de la résistance, mais on se dit aussi qu'on se prive d'une chose quiva devenir banal comme la télé et Bastien réclame aussi. Donc il y a unmoment où on va céder de bonne grâce, c'est à peu près sûr  » (infirmière ,41 ans). Le cas est particulièrement intéressant dans la mesure où il met au jour unetension qui naît d'une position de refus explicite de participer à unsystème social dont on dénonce les travers, en l'occurrence lasurconsommation, et, dans le même mouvement, de la prise de conscience quece positionnement peut avoir un coût négatif, voire présenter un risquesocial. Si ce premier type de situations montre que l'ajustement critiquespontané aux prescriptions de la mythologie de la « société del'information  » n'a rien d'automatique, il authentifie également combien ilpeut être difficile de maintenir une prise de position n'allant pas dans lesens de ce qui semble être le cours « normal  » du développementsociétal. La deuxième forme de trouble est plutôt liée à une projection de soi ensituation d'usages. Une part des « non-utilisateurs  » interrogés exprimentainsi le fait qu'ils ne considèrent pas l'informatique connectée commequelque chose qui leur soit destinée ou qui leur convienne (un « utile  »impensable )  : « Non, ça ne me tente pas… vraiment. On pourrait sel'acheter, ça oui, mais on n'a pas envie de se lancer là-dedans. Nous, onn'a jamais eu d'ordinateur avant. Ça doit forcément être un peu compliqué àse servir et on n'a pas besoin d'une source de problèmes supplémentaire. Ona déjà bien assez à faire avec tout le reste. Ça nous donne pas envied'essayer et de se casser la tête. C'est pas trop pour nous, c'est plus pourles jeunes qu'ont du temps et qui sont habitués à se servir des ordinateursparce qu'ils en ont eu à l'école, dès l'école primaire  »( chauffeur-routier, 44 ans). Affirmer ici « ce n'est pas pour nous  », revient à dire  : « Nous ne sommespas ceux pour qui cet objet ou cette activité existe comme possibilitéobjective; par suite, cet objet ou cette activité n'existerait pour nouscomme possibilité « raisonnable  » que si nous étions autres, si nousétions placés dans des conditions d'existence différentes  ». Etd'ajouter  : « Mais dire « ce n'est pas pour nous  » c'est dire plus que« C'est trop cher  » (pour nous )  : expression de la nécessitéintériorisée, cette formule est, si l'on peut dire, à l'indicatif-impératifpuisqu'elle exprime à la fois une impossibilité et un interdit; elle estrappel de l'ordre et rappel à l'ordre  » (Bourdieu, 1965  : 35). De fait, cequi est énoncé par une partie des « non-utilisateurs  », c'est la volonté devouloir éviter les « ennuis techniques  », « d'avoir un virus qui bousilletout  », « d'appeler tout le temps le service après-vente  » ou « d' êtrebloqué et plus savoir quoi faire  ». Mais derrière ces argumentairesrécurrents qui insistent essentiellement sur leur manque de savoir-fairetechnique qui rendrait leurs pratiques difficiles, se cache en fait lacrainte d'avoir à faire l'expérience de l'échec et de la mésestime de soi .De ce point de vue, le « non-usage  » est comme une sorte de protectionvis-à-vis de formes d'humiliation qui pourraient surgir de la mobilisationd'outils techniques dont, de fait, ils n'ont pas la maîtrise. La troisième forme de perturbation est quelque peu différente dans la mesureoù elle s'incarne moins dans l'inquiétude de ne pas être à la hauteur oudans la dénonciation anxiogène du leurre qu'il y aurait à accorder un pleincrédit aux discours médiatico-publicitaires, que dans la déploration de nepouvoir (e.g. pour des raisons financières )participer à la « société de l'information  » et d'y « prendre sachance  »  : « On a été obligé de faire des choix. Nous avons des crédits àrembourser et moi je suis en invalidité prolongée… Les dépenses ça restetrès restreint et l'internet, même si on en a envie, ça passe forcémentaprès  » (femme au foyer, 43 ans). Ici, les « non-utilisateurs  » ontintégré les dispositions motivationnelles qui assurent une certaineefficacité aux discours tenus sur la « société de l'information  » dans lamesure où les promesses qui les accompagnent sont appréhendées commecrédibles  : « Ça me fait envie. Avec l'internet, j'aurais la possibilitéd' être mieux informée et comprendre ce qui se passe ailleurs. J'aurais accèsà des choses que je ne peux pas faire autrement comme d'aller dans tous lesmusées du monde  » (femme au foyer, 43 ans). La conviction emportée estalors liée à l'amalgame qui est effectué entre le fait de s'équiper et lapossibilité d'en tirer de suite quelque avantage concret. Dans l'exemple misen exergue supra, l'internet est considéré parl'enquêtée comme le sésame lui permettant d'effectuer une mise à niveauculturelle et de pallier un déficit de capital scolaire dont visiblementelle souffre. Elle envisage donc l'internet comme l'opportunité de réévaluerpositivement le rapport qu'elle entretient à sa propre personne. L'idéequ'elle se fait des avantages qu'elle pense tirer de l'usage del'informatique connectée lui « ouvre la perspective psychique d'une estimede soi rehaussée  » (Honneth, 2006  : 267). Ce qui n'est évidemment passaisi, c'est que ces potentialités sont indexées à la réalité desdispositions et sens pratiques des utilisateurs et que la « bonne volontéculturelle  » ne saurait ici suffire. Aussi, pour ceux qui ne disposent pasdes aptitudes, compétences et appétences nécessaires à l'exploitation decette « chance qui leur est offerte  », les potentiels de l'informatiqueconnectée ne peuvent évidemment s'actualiser en de réels bénéfices. Être encapacité de pouvoir faire l'expérience positive d'un accomplissement de soipar l'usage des tic n'a évidemment rien d'évident ni d'automatique. Il existe par ailleurs une déclinaison volontariste de cette option chez unepart des « non-utilisateurs  » qui, au contraire, ne souhaitent pas pourleur part s'inscrire dans cette dynamique sociotechnique au motif qu'ellecontribuerait à intensifier la destruction d'une culture du lien social àlaquelle ils semblent se raccrocher afin de fonder de manière privilégiéeleur rapport aux autres dans un monde qui, aujourd'hui, laisserait de moinsen moins de place au plaisir du face à face, à l'entraide, à laconvivialité, etc. « [Internet ?] Pour quoi faire ? Moi j'ai besoin de toucherles gens, de leur serrer la main franchement, d'aller boire un coup aveceux. C'est déjà pas simple parce que les gens ont tendance à se replier sureux, à être de plus en plus renfermés et à ne penser qu' à leurs petitsintérêts. Avant, dans le quartier ou au boulot ça se parlait, ça discutait .Maintenant… On est des êtres humains, on a besoin de chaleur humaine. Alorsl'ordinateur et tout le toutim, moi je me vois mal m'en servir pourcontacter les gens, donner des nouvelles et tout ça. Je me dis que c'est pasavec ça qu'on va avancer et qu'on sera mieux, au contraire. Si on va touslà-dedans, on sera tous dans son coin à être encore plus égoïste  »( tourneur dans l'industrie automobile, 48 ans). L'argument n'est pas nouveau. Concernant les usages de l'informatique et dela télématique de première génération, Josiane Jouët (1997  : 306-307 )notait déjà que « les discours des usagers témoignent de l'écartèlement desréférents entre d'une part, l'adhésion aux valeurs de l'idéologietechnicienne et, d'autre part, de la persistance des valeurs traditionnellesde l'humanisme occidental [… ]. Les valeurs fondatrices de la société moderneleur semblent menacées par la déshumanisation produite par l'asservissementà l'efficacité technique, l'isolement des individus repliés derrière leursappareils domestiques  ». Ce renoncement (forcé ou volontaire) est àl'évidence mâtiné d'une appréhension déterministe de la technique ,l'informatique connectée étant considérée comme une instance autonomesusceptible de provoquer quelques effets positifs ou négatifs assez directssur la vie de leurs utilisateurs. Mais, au-delà de ce travers, les regretsquant au fait de ne pouvoir s'approprier les technologies de l'internet ,tout comme les condamnations du désir de trop s'y investir se construisentsur une autre base commune qui est celle d'un constat partagé d'une sociétéoù se réduisent les occasions de félicité et de bien-être social. Les« non-utilisateurs par obligation  » adhérent idéologiquement à lamythologie de la « société de l'information  », mais reprochent au monde –tel qu'il va – de ne pas leur garantir leur intégration, tandis que les« non-utilisateurs critiques  » déplorent cet attachement idéologique qu'ilsjugent fallacieux, tout en désapprouvant l'évolution des conditions socialesd'existence et des subjectivités qui leur sont rattachées. L'une et l'autrede ces perspectives expriment ainsi une vision désenchantée des modalités devie qui ne favorisent ni l'accomplissement positif de sa personne, nil'expression de la valeur sociale de chacun. Cette inquiétude quant à la possibilité de maintenir une estime de soivalorisante au sein de la société contemporaine et de relier ce désarroi àun (non-)investissement dans l'usage des tic est une propriété perceptiveque l'on retrouve aussi chez les « non-utilisateurs  » qui ont (faiblesutilisateurs), ou ont eu un temps (abandonnistes) un rapport pratique auxtechnologies de l'internet. En ce sens, le « non-usage  » est aussi unpositionnement pratico-moral visant à éviter de nouvelles expériences demésestime sociale. Nous avons montré ailleurs (Granjon, 2009b) que si lesphénomènes de reconnaissance et de mépris dépendent de dynamiquesintersubjectives, c'est-à-dire de la possibilité ou de l'impossibilité de sevoir confirmer son moi par autrui, ces manifestations idiosyncrasiquespeuvent également s'éprouver via des artefacts et despratiques sociotechniques, par la confrontation des choses chargéesd'histoire, de culture et donc de social et les personnes qui lesmobilisent. Une partie des phénomènes de « non-usage  » de l'informatiqueconnectée peuvent être appréhendés sous cet angle particulier. Drop-outs et low-users ont bienune expérience pratique de la manipulation des technologies de l'internetmais, dans la plupart des cas, elle ne leur permet pas de se rapporterpositivement à leur personne, allant parfois jusqu' à les conduire à uneautodépréciation de leur estime sociale. L'usage « contrarié  » qu'ilsdéveloppent de l'informatique connectée débouche sur des dénis dereconnaissance et se traduit par l'expérience de blessures individuellesécorchant une nouvelle fois et d'une nouvelle manière, le sentiment positif ,parfois déjà bien ténu, que les utilisateurs ont d'eux -mêmes. Leur« non-usage  » se lit alors comme une réponse à des situations où ont étéexpériencées des situations de mépris. L'échec dans les manipulations ou ,sans doute plus violent encore, le fait de ne pas savoir quels typesd'utilisation faire du dispositif technique, se transforment en une variétéde moments négatifs, allant de la perte de confiance au sentiment derelégation. Ne pas trouver d'utilité précise à une technologie dont on« sait  » que beaucoup de personnes en développent des usages dont ellessemblent être en capacité de tirer avantage, c'est éprouver une dissemblanceradicale avec ceux « qui ont  », « qui savent  » et « qui profitent  », icicomme en d'autres domaines. Cela confine parfois à la blessure morale  : « Internet ? Bah… J'en fais pas beaucoup… enfinl'ordinateur, ça me sert pas, c'est pas pour moi. Pour s'en servir bien ,faut pas être comme moi… [Mais vous avez pourtant acheté un ordinateur etvous avez bien un abonnement qui vous donne accès à internet ?] Oui oui ,mais moi je m'en sers quasiment jamais parce que je vois pas ce que je peuxen faire de bien… enfin pour moi, pour que ça me serve… [Ça vous déplaît ?Vous ne trouvez pas ça très utile ?] C'est que je ne sais pas très bien m'enservir et ça m'énerve vite. Quand ça ne marche pas c'est agaçant quoi. J'ail'impression d' être complètement idiot des fois… C'est les enfants qui s'enservent surtout. C'est plus leur truc à eux  » (chômeur, 42 ans). S'envisager dépourvu de « compétences  » pratiques à considérer l'usage del'informatique connectée comme un élément profitable, c'est autrement plusstigmatisant que de ne pas partager l'intérêt pour un loisir que d'autresaffectionnent. Ce qui pourrait être envisagé à l'aune d'une anodine affairede goûts se vit alors comme une situation dépréciative, car cela revientd'une certaine manière à s'appréhender soi -même comme n'étant pas membre decette communauté imaginée de personnes insérées dans la modernité dont onnous dit qu'elle est la plus avancée. Le désœuvrement ressenti face àl'outil se transforme ainsi en manque de considération que l'utilisateurpeut se porter à lui -même. Les domaines d'usage susceptibles de révéler ce type de rapports pratiqueséloignés de l'autoréalisation promise par les discours d'accompagnement dela « société de l'information  » sont assez variés. L'investissement desdispositifs de communication est par exemple propice aux situations de dénide reconnaissance, sur fond de pénurie de ressources relationnelles. Nombrede faibles utilisateurs affirment ainsi n'utiliser qu'avec parcimonie lecourrier électronique, non par manque d'intérêt ou de compétences, mais pluscertainement par manque de correspondants (Lelong etal., 2004). L'expérience de cette carence relationnelleélectronique, qui n'est d'ailleurs pas nécessairement le reflet d'un déficitgénéral en capital social, les conduit à se penser comme n'étant pas « faitspour ça  », c'est-à-dire n'ayant pas les habiletés nécessaires à leurinscription dans la société émergente. Les activités de recherched'information en ligne sont également sujettes à ces formes de mésestime desoi. Certains « non-utilisateurs  » développent ou développaient des usagespeu maîtrisés des moteurs de recherche et déclarent être ou avoir étéquelque peu perdus, voire complètement dépassés par ces difficultés qui lesempêch(ai)ent de profiter des potentialités culturelles et informationnellesaccompagnant supposément l'usage de l'ordinateur et de l'internet. Nombreuxsont les cas où les « bonnes résolutions  » sont bridées par desdispositions individuelles qui ne facilitent pas la réalisation pratique decertaines des virtualités culturelles (au double sens de réalitéspotentielles et de réalités en ligne). Cette difficulté provient, d'unepart, de la distance importante entre les pratiques visées et les espacesculturels habituellement fréquentés, et d'autre part, des intentions quisont freinées par un sens des limites que lesenquêtés ne manquent pas d'exprimer  : « Je m'étais dit « je vais en profiter pour me faire uneculture en musique classique  » … ouais, bah, en fait, j'ai pas faitgrand-chose, faut bien le dire [rires ]. C'est pas pour moi ces trucs -là, jecrois. […] J'aime pas comment ils se la jouent, leur parlotte c'estprétentieux [se référant à des sites web qu'il a consultés, dédiés à lamusique classique] et puis, à part quelques trucs, en fait, j'aime pastellement  » (homme, en formation, 32 ans). Les situations de ce type s'accompagnent souvent d'un sentiment deculpabilité dont les « non-utilisateurs  » témoignent assez systématiquementsans qu'il soit nécessaire de les inciter à un examen poussé de leursattentes déçues. La difficulté à s'engager dans des régimes d'usages quirépondent pleinement aux objectifs qu'ils s'étaient fixés pour leur pratiquede l'informatique connectée révèle la plupart du temps un décalage avec lescadres d'attente de leurs motivations qu'ils ont par ailleurs intérioriséscomme une nécessité. Cette dissymétrie entre des perspectives pratiquesjugées importantes et des usages n'autorisant finalement pas la réalisationde ces espoirs, entraîne la tenue d'un procès qu'ils instruisent à leurpropre charge  : « Je ne suis pas à la hauteur de mes ambitions  », « Je nesuis pas assez curieux  », « C'est moi ça, je n'aime pas les trucs un peuscolaires  », « Je crois que je suis trop faignant pour ça  », etc. Lamanipulation heurtée de l'informatique connectée est d'abord un échec dansla conduite de tâches pratiques. Mais c'est aussi un échec au regard d'uncadre normatif sociétal, plus ou moins intériorisé par l'utilisateur et quile somme d' être un individu autonome, agissant, compétent, capable de tenirses objectifs. Or, l'expérience pratique que les « non-utilisateurs  »mènent en ce domaine tend à leur montrer qu'ils ne sont pas franchement enconformité avec ce modèle normatif. Cette expérience négative – qui seprésente d'abord comme un manque de réussite pratique – est alors vécuecomme une des marques d'inaptitude à participer à la reproduction de la viecommune. Les personnes éprouvent un sentiment d'amoindrissement de leursupposée valeur sociale qui relève d'une évaluation auto-discriminante etaffecte négativement le rapport qu'elles entretiennent à elles -mêmes. Dansle cas des faibles utilisateurs, ce n'est finalement pas tant aux usages del'informatique connectée qu'ils se confrontent qu'aux représentations qu'ilsont intériorisées de ce à quoi devrait ou aurait dû leur servir l'internetet qu'ils n'arrivent pas à actualiser. Qu'ils aient ou non entretenu un rapport pratique à l'informatique connectée, les« non-utilisateurs  » sur lesquels nous avons porté notre attention secaractérisent par la mise en lien qu'ils effectuent, d'une manière ou d'uneautre, entre la/leur (non-)pratique de l'internet et les expériences virtuellesou effectives de mésestime de soi qui s'y rapportent. Ces formes de mépris sedéploient essentiellement dans le registre de l'épreuve de la valeur de leurpropre personne au regard des exigences fonctionnelles de la société actuelle .Il est intéressant de noter que ces processus de dépréciation n'empêchent pasles verbalisations « révoltées  » qui témoignent de leur réflexivité critiquedont nous avons déjà donné supra quelques exemples. In fine, cette souffrance élémentaire est assezfacilement mise en mots et s'accompagne d'une argumentation qui en appelle à desprincipes évidents de justice sociale dont les tic sont, pour le coup ,complètement absentes. Leurs capacités réflexives les conduisent le plus souvent à faire le lien entrela déception qu'ils ressentent et la cause de ce sentiment. Si les expériencesnégatives qu'ils mettent en lien avec les usages effectifs, passés ou imaginésde l'informatique connectée prend le plus souvent la forme d'un témoignage à lapremière personne, elles s'envisagent aussi à l'aune d'un moi contextualisé quifait référence à une identité sociale particulière qui, sans épouser ce que l'onpourrait considérer, à tort, comme une conscience de classe, fait toutefoisréférence à un espace social inégalitaire où « Je  » et « Nous  » s'opposent àun monde extérieur (Hoggart, 1957 )  : « Pour moi, internet c'est comme dans la vie réelle, c'est unecopie de la vie qu'on vit, c'est un miroir de ce qui se passe en vrai. Il y ades gens intéressants et des salauds, mais comme dans la vie. Ça ne change rien .Si t'es pauvre, handicapé ou que t'as pas fait d'étude, internet ça va pas tefaire changer de vie. C'est ce qu'on te laisse peut-être croire, mais c'est unegrosse hypocrisie des gens qui sont là pour nous vendre un machin qui va fairegagner plein d'argent à ceux qu'en ont déjà trop, mais qui va pas rendre plusriches les autres et peut-être même pas leur servir du tout  » (femme ,intérimaire, 37 ans). Ce qui est aussi souvent souligné, chez les abandonnistes et les faiblesutilisateurs, c'est le décalage qui existe entre les représentations qu'ilsavaient de ce qu'allaient pouvoir être leurs usages et l'accomplissementpratique de cette projection cognitive. Les aspirations qui étaient les« leurs  » (en fait, celles de la culture sociale de promotion et de mise enacceptabilité des tic), assez largement déçues, sont alors l'objet d'unecritique, mêlée d'une dénonciation du travail de persuasion et des incitationssymboliques auxquels ils ont été trop sensibles et qui, pour certains d'entreeux, les ont même poussés à acheter matériel informatique et accès au réseau. Lejugement critique naît ici de l'incapacité patente de la « société del'information  » à pourvoir aux conditions matérielles de réalisation effectivedes qualités qu'elle promettait à ceux qui se sont lancés dans l'usage del'informatique connectée. Quand les expériences pratiques censées contribuer àla reconnaissance de l'utilisateur affectent négativement le rapport à soi ,émerge alors la possibilité d'une désadhésion aux schémas idéologiques dans lamesure où « entre la promesse évaluative et la réalisation matérielle se creuseun abîme dont la caractéristique est l'impossibilité de mettre en accord lesprésupposés institutionnels de la reconnaissance avec l'ordre social dominant  »( Honneth, 2006  : 272). En définitive, la capacité à construire une critique générale des usages del'informatique connectée et des normes sociales de la « société del'information  » est partagée par un assez grand nombre de« non-utilisateurs  ». De nombreux témoignages font la démonstration de leuraptitude à effectuer un travail de mise à distance et à ne pas se laisser minerpar des logiques auto-réifiante d'abaissement de soi. La promesse non réaliséed'un gain de reconnaissance sociale via l'usage del'informatique connectée peut, par exemple, conduire à l'élaborationd'expressions permettant une réappropriation positive de ce qui a pu être vécudans un premier temps comme une déficience personnelle. Ce retour réflexif des« non-utilisateurs  » sur le conditionnement social qu'opère le système sur lesindividus démontre que, en ce cas, une certaine autonomie de pensée s'exercebien. Si elle n'est pas synonyme de potentialités d'émancipation etd'autoréalisation, elle participe toutefois à la reconstruction de rapportspositifs à soi. De nombreuses tensions, émergeant en l'occurrence de cessituations de « non-usage  », naissent des tentatives de prescriptionstechnologiques. Elles produisent leur lot de désenchantement, d'indignations etrappellent in fine que les clauses de réalisation de soisont foncièrement sociales et dépendent non d'un niveau d'engagement dansl'informatique connectée, mais bien de préalables sociaux assurant desconditions d'existence propices au développement de soi. Contrairement à certaines formes d'usages de l'informatique connectée qui donnentl'illusion aux utilisateurs qu'ils actualisent par cette pratique certaines deleurs attentes morales et de leurs demandes d'estime sociale, le « non-usage  »se présente comme une situation négative qui confronte diversement, maisindubitablement, les « non-utilisateurs  » les plus réflexifs à des sentimentsde déni de leur valeur sociale. Ceux -ci sont même parfois en mesure de saisirsans mal le caractère idéologique des discours qui accompagnent la diffusion destechnologies télématiques dans le corps de la société et d'entrevoir combien ilstravaillent à reproduire des formes de domination sociale desquelles ilspâtissent. Quand elle existe, cette capacité n'est pas l'effet d'une « prise deconscience  », mais le fruit d'une expérience personnelle, affective, liée au« non-usage  », qui leur fait prendre le sens (i.e .ressentir) de leurs conditions sociales d'existence qui les brident dans leurspotentialités pratiques de reconnaissance. Comme le souligne Axel Honneth( 2001  : 167), ces sentiments négatifs « constituent l'aspect affectif dumouvement par lequel le sujet prend conscience de ses propres attentes, dès lorsqu'une de ses actions n'obtient pas le résultat escompté. Ce sont les décalagesentre le sens cadré par les discours affirmatifs sur la « société del'information  » et ce qui est pratiquement éprouvé par les personnes qui créentla déprise, c'est-à-dire le passage « d'une perspective participante à uneperspective d'observation [car] la disjonction sur laquelle [l'idéologie] reposene résiste pas à toutes les épreuves de réalité  » (Voirol, 2008  : 73-75). Enl'occurrence, ce qui la déconstruit le plus efficacement, c'est l'épreuve de lapratique indigente (projetée ou effective), productrice d'échecs et dedévalorisation de soi, mais aussi celle de la violence symbolique induite par unrenoncement de ses convictions  : avoir l'impression de céder par l'achat à lamythologie du caractère rédempteur des tic. Les autres situations critiquesrecensées, c'est-à-dire les formes techno-déterministes repérées supra, sont sans doute moins propices au dégagementpratique des relations idéologiques de la « société de l'information  ». Elles« ne mettent pas forcément le doigt sur l'injustice du mépris  » (Honneth ,2001  : 169) et demandent un accompagnement sémantique externe aidant àl'interprétation de ces situations de dénigrement du rapport pratique à soi .Dès le début des années 80, Paul Beaud (1984) soulignait l'urgence de replacer laproblématique des techniques et de la communication dans l'évolution généraledes rapports sociaux. Ce dont nous avons le plus besoin pour penser les usagessociaux des tic, leurs « non-usages  » ou la « fracture numérique  », c'est sansaucun doute de mobiliser une sociologie de l'appropriation vigilante aux formesde la pratique, aux capacités sociales, culturelles et économiques qui endéfinissent nécessairement les contours, et qui soit également attentive au senssocialement situé, accordé aux (non-)usages. Les (non-)utilisateurs sonttoujours subsumés sous des rapports sociaux déterminés et ce sont précisémentces rapports sociaux qui se révèlent dans les formes de « non-usage  » que nousavons eu le loisir d'observer. Ils s'énoncent tant dans les formes déceptivesd'auto-qualification des usages « en creux  » des faibles utilisateurs et desabandonnistes que dans les formes dépréciatives du soi, expériencées ou craintespar ceux qui ne peuvent ou ne veulent s'engager dans l'informatique connectée .En ce sens, le « non-usage  » est un bon laboratoire d'analyse de laconflictualité sociale dont on aurait pu imaginer naïvement qu'elle fut absentedes activités pratiques liées à la manipulation de dispositifs techniques. Or ,ce que révèle le « non-usage  » – si tant est que l'on veuille bienproblématiser le phénomène en termes d'appropriation –, c'est bien l'existenced'antagonismes sociaux dont la caractéristique est de s'exprimer négativementsur un plan psychosocial par de la peur, de la honte, du ressentiment, etc. Ilmontre que si la mythologie de la « société de l'information  » n'est pas uneforce d'aliénation mystificatrice, elle vulgarise néanmoins des formes fausséesde reconnaissance. La charge idéologique tient donc ici aux promesses deréalisation de soi (une idéologie de la reconnaissance) sans que ne soientassurées les conditions de possibilité qui en autoriseraient l'accomplissementeffectif .
La littérature en sciences sociales portant sur la « fracture numérique » liée à l'informatique connectée (l'internet) est aujourd'hui des plus abondantes. En revanche, celle qui lui est adjacente et traite des « retardataires », « non-utilisateurs » et autres « abandonnistes » s'avère pour le moins restreinte, tout du moins en France. Nous proposons ici de problématiser à nouveaux frais la notion de « non-usage » en l'envisageant sous l'angle de la théorie de la reconnaissance développée par Axel Honneth. Plus particulièrement, nous considérerons, à partir de matériaux empiriques, la possibilité d'envisager le « non-usage » comme une forme de réponse à l'idéologie de la reconnaissance que porte la mythologie de la « société de l'information ».
sciencesInfo_11-0395857_tei_1056.xml
termith-359-communication
La croissance de plus en plus rapide de la quantité d'informations et l'utilisation d'internet par tout un chacun conduit à l'exploration de nouvelles techniques pour rechercher et traiter les différents visages de l'information. Plusieurs fois par jour, tant pour nos besoins personnels que professionnels, nous utilisons des systèmes de recherche pour accéder à l'information adéquate. De ce fait, en tant qu'utilisateurs, nous devenons de plus en plus exigeants vis-à-vis de tels systèmes pour qu'ils soient rapides, efficaces et faciles à manipuler. Du point de vue informatique, l'accroissement du volume de données devient un réel problème tant au niveau du stockage, du temps de réponse que de la qualité du système. Retrouver au sein d'un corpus de documents volumineux et hétérogène, les seuls documents qui répondent précisément aux besoins des utilisateurs est devenu difficile car cette croissance accentue le retour de documents non pertinents pour l'utilisateur final. Notre étude se situe dans le cadre de la recherche d'information textuelle en favorisant une haute précision et pour cela, exploite la proximité des termes de la requête dans les documents pour sélectionner et ordonner la liste des « documents-réponses » à présenter à l'utilisateur. Le moteur de recherche Google, connu principalement pour la notion de « popularité » 1, utilise aussi comme indicateur de pertinence la notion de proximité entre les termes de la requête qui sont retrouvés dans les documents. En effet, la documentation 2 destinée aux utilisateurs indique : « Par ailleurs, Google privilégie les pages dans lesquelles vos termes de recherche apparaissent aussi près que possible les uns des autres. » Si l'on se tourne vers l'histoire des méthodes de recherche documentaire, l'utilisation d'opérateurs de proximité est assez ancienne. En effet, pour sélectionner des documents dans des bases de données bibliographiques, un opérateur de proximité a été introduit dans de nombreux systèmes dans les années 60. Le principe de cet opérateur est d'ajouter une contrainte à l'opérateur ET. Dans le modèle booléen standard, un document est représenté comme un ensemble de termes. Un document d répond à la requête A ET B si et seulement si l'ensemble Ed qui le représente contient à la fois les termes A et B, autrement dit ssi : {A, B} ⊂ Ed. Avec un critère de proximité dans la requête qui peut se formuler par exemple sous la forme : A NEAR B, il faudra qu'il existe au moins une occurrence de A et une occurrence de B dans le texte du document qui soient « proches ». Le mot « proche » selon les systèmes peut avoir différentes significations : même phrase (au sens grammatical), même paragraphe (au sens typographique), distance (exprimée en nombre de termes apparaissant entre les deux occurrences) inférieure à un seuil, etc. Toutefois d'un point de vue de la modélisation mathématique, cet opérateur n'est pas homogène avec les opérateurs strictement booléen ET, OU et NON; il s'applique aux termes mais on ne peut le généraliser de façon consistante à des sous-requêtes (Mitchell, 1973). Le système Inquery (Callan et al., 1992) est basé sur un réseau d'inférence dans lequel différents indices participent au calcul du score de pertinence. Les requêtes sont exprimées dans un langage et ce dernier fournit des opérateurs faisant intervenir les positions des occurrences de termes, et donc prend en compte leur proximité. Par exemple : #3 (A, B) indique que au plus 3 termes peuvent séparer une occurrence de A suivi d'une occurrence de B. Deux types d'approches se basent sur des extraits du texte des documents pour calculer un score. Dans la première catégorie, ces extraits dépendent de la requête et cherchent des intervalles dans le texte contenant les termes de la requête, nous parlerons de méthodes à intervalles. Les méthodes de la seconde catégorie travaillent sur des extraits construits a priori, c'est-à-dire indépendamment de la requête, dans ce cas les extraits sont des passages, et nous parlerons de méthodes à passage. Les passages peuvent être déduits d'aspects syntaxiques dans le cas des phrases et des paragraphes, ou être des fenêtres de taille fixe. Dans ce dernier cas, la taille des fenêtres est un paramètre de configuration. Trois méthodes à intervalles ont été décrites dans la littérature pour utiliser directement la notion de proximité. Dans ces méthodes, le score de pertinence d'un document dépend des intervalles contenant les termes de la requête présents dans le document. Pour toutes les méthodes, le principe général est identique. Etant donné un document et une requête, tout d'abord, un ensemble d'intervalles contenant les termes de la requête est construit, ensuite chaque intervalle fournit une contribution au score, et finalement, le score du document dépend de la contribution de chaque intervalle. Les critères de sélection des intervalles sont différents selon la méthode, celle de Clarke et al. (2000) sélectionne les plus petits intervalles qui contiennent tous les termes de la requête 3, les intervalles ne peuvent pas être emboîtés mais peuvent se recouvrir. Pour la méthode de Hawking et al. (1995), à partir de chaque occurrence d'un terme de la requête, l'intervalle le plus petit contenant tous les termes est sélectionné, donc, dans ce cas les intervalles peuvent être emboîtés. Rasolofo et al. (2003) choisissent de sélectionner les intervalles contenant deux termes de la requête à condition qu'ils soient séparés au plus par quatre autres termes. Du point de vue du modèle de requête, dans ces trois méthodes à intervalle, la requête est un ensemble de termes. Toutefois, le traitement de cet ensemble est analogue à un ET dans le cas des méthodes de Clarke et de Hawking, puisque ce sont les intervalles contenant tous les termes de cet ensemble qui sont sélectionnés. Dans la méthode de Rasolofo, cet ensemble est plutôt traité comme un OU, puisque le score dépendant de la proximité vient s'ajouter à un score Okapi, et que ce dernier produit un score non nul même pour un document qui ne contient qu'un seul des termes de la requête. De plus, le score de proximité est non nul dès qu'un document contient au moins deux des termes de la requête. Il n'y a donc aucune obligation que les documents les contiennent tous. Un modèle incontournable en recherche d'information est le modèle vectoriel car c'est l'un des premiers qui a permis d'établir un classement entre les documents retournés. Un document (resp. une requête) est représenté(e) par un vecteur dont chaque composante est le poids dans le document (resp. la requête) du terme associé. La taille de ces vecteurs est donc la taille du vocabulaire de la collection. Typiquement, le poids w (d, t) du terme t dans le document d dépend de façon croissante de la fréquence du terme dans ce document et de façon décroissante de la fréquence documentaire 4 de ce terme. La mesure de similarité s (d, q) est généralement calculée par la méthode du cosinus. La fréquence documentaire joue un rôle discriminant afin de relativiser l'importance des termes qui apparaissent dans de nombreux documents de la collection. Cependant, plus la taille de la collection augmente plus le nombre de termes augmente, par conséquent, les vecteurs de représentation des documents possèdent de plus en plus de composantes nulles. Le modèle vectoriel a montré son efficacité sur les collections bibliographiques à partir desquels les recherches était faites sur le contenu des résumés, les auteurs et le titre des articles. Cependant, à partir du moment où le texte intégral a été accessible les performances n'ont pas été égalées. Les méthodes de recherches de passage ont alors émergées. Les méthodes basées sur les passages posent la question de l'amélioration de la recherche si la similarité avec la requête est calculée par rapport à un morceau de document (i.e. un passage) plutôt que par rapport au document entier. Croft (2000) présente un tour d'horizon des approches de recherche de passage. Les méthodes utilisées pour le découpage des documents peuvent être classées dans trois catégories différentes. Tout d'abord, certains travaux utilisent les marqueurs textuels classiques comme les chapitres, sections ou paragraphes (Salton et al., 1993, Zobel et al., 1995), ensuite, d'autres utilisent des fenêtres sur le texte de longueur fixe, recouvrantes ou non, (Callan, 1994, Kaszkiel et al., 1997) et enfin, la méthode du TextTiling (Hearst, 1997) permet de détecter les passages sur un critère thématique, lui -même déterminé en fonction du vocabulaire utilisé. Les passages sont des parties de documents constitués de termes dont la fréquence est localement élevée et globalement faible dans le document. Les méthodes de recherche de passage ont été aussi utilisées pour la recherche d'information en texte intégral. Dans toutes ces propositions basées sur les passages, les requêtes sont encore des ensembles de termes interprétés comme avec un opérateur OU. Wilkinson (1994) propose des mesures pour déduire le score d'un document à partir de ceux des différents passages. La recherche de passage peut être vue comme une sorte d'utilisation de la proximité puisqu'elle sélectionne les passages qui concentrent de nombreuses occurrences du maximum des termes de la requête de l'utilisateur. Ces occurrences apparaissant dans le même passage sont donc proches les unes des autres. Par conséquent, la recherche de passage peut s'interpréter comme trouver les endroits dans le texte où la densité des termes de la requête est la plus élevée. Deux méthodes de recherches de passage sont explicitement basées sur la densité des termes de la requête. La méthode D ensity D istribution (Kise et al., 2004) construit une fonction de densité associant à chaque position dans un document une valeur numérique reflétant sa proximité aux occurrences des termes de la requête. Le poids (au sens du modèle vectoriel) d'un terme de la requête est associé à chacune de ses occurrences, puis une fonction fenêtre de Hanning (qui a la forme d'une période d'une fonction cosinus) permet de lisser cette valeur au voisinage de chaque occurrence. Le score d'un document est le maximum de cette fonction de distribution. Bien que les auteurs n'utilisent pas ce vocabulaire, ils font en fait une convolution entre des fonctions de Dirac associées aux occurrences des termes de la requête avec une fonction de Hanning. De Kretser et al. (1999) utilisent la même idée de convolution mais avec d'autres fonctions (triangle, cosinus, cercle, arc). La deuxième différence plus fondamentale est qu'ils présentent leur méthode comme une méthode de recherche de passage. Pour pouvoir tester cette méthode avec les outils standard d'évaluation qui travaillent au niveau des documents, ils ont proposé un algorithme qui accumule des pertinences partielles qui sont les valeurs maximum successives des scores des passages pour calculer des scores de documents jusqu' à ce qu'un nombre suffisant de documents ait été atteint. La méthode de Kise et al. (2004) utilise le maximum de la fonction de densité pour attribuer le score au document. De ce fait, toutes les occurrences ne contribuent pas au score final. De Kretser et Moffat ont fait des tests en prenant eux aussi le maximum comme score de document, mais les résultats obtenus dans ce cas sont moins bons que ceux de la méthode présentée qui accumule des scores partiels pour certaines des occurrences. La section suivante détaille notre méthode qui prend en compte la localisation des termes dans le document pour lui attribuer un score. Dans les modèles classiques, le critère de sélection d'un document est fondé sur l'appartenance (resp. la fréquence) d'un terme de la requête pour le modèle booléen (resp. vectoriel). Ces modèles procèdent avec une approche globale de l'influence des occurrences d'un terme sur la pertinence d'un document à une requête en utilisant le terme t. Ce qui revient à dire que la distribution des termes de la requête n'intervient pas dans le calcul du score de pertinence d'un document. Cependant, le sens du texte dans un document ne dépend pas seulement du vocabulaire employé mais aussi de l'agencement des termes de ce vocabulaire et donc de la distribution de ces termes. C'est pourquoi nous adoptons une approche locale dans le sens où elle modélise une influence des occurrences. Nous définissons cette influence comme une proximité au terme qui permet de savoir si en un endroit du texte, on est proche d'une occurrence de ce terme. Cette proximité est graduée, et nous emploierons le terme de proximité floue. Pour représenter l'influence d'un mot nous utilisons une fonction d'influence. Nous appelons ainsi une fonction définie sur ℝ, à support borné, prenant ses valeurs dans [0] [1 ], symétrique, croissante sur ℝ–, et décroissante sur ℝ+. Différentes fonctions d'influence comme les fonctions de Hamming, fonctions de Hanning, fonctions gaussiennes, fonctions rectangulaires, triangulaires, etc… peuvent être utilisées. Nous appelons k le paramètre qui permet de contrôler la largeur de la zone d'influence. Pour une occurrence d'un terme à la position i, la translation g (x) = f (x – i) d'une fonction d'influence f sert à modéliser la proximité floue. Par exemple, pour une fonction triangulaire, la valeur au point x est égale à 1 puis décroit de aux positions voisines jusqu' à atteindre la valeur 0. Dans ce cas, la fonction d'influence s'exprime ainsi : Nous déterminons que la valeur de la proximité floue à un terme t en une position x d'un document est la valeur de la proximité de la plus proche occurrence du terme t. Par exemple, pour la position x = 3 de la figure 1, il est naturel d'attribuer comme valeur de proximité floue celle provenant de la fonction d'influence de l'occurrence de terme la plus proche soit celle à la position x – 1 (soit 2) et non pas celle de la position x + 2 (soit 5). Comme les fonctions d'influence définies en section 3.1 sont décroissantes par rapport à la distance des occurrences, en une position x du texte cela revient à prendre la valeur de proximité floue maximale et on peut poser : où Occ (t, d) est l'ensemble des positions des occurrences du terme t dans le document d et f la fonction d'influence choisie. Notre modèle de requête est celui du modèle booléen, par conséquent, notre requête est représentée par un arbre dont les feuilles sont associées aux termes et les nœuds aux opérateurs ET et OU. Chaque feuille de l'arbre de requête représente un terme et porte donc la fonction de proximité correspondant à ce terme. Par exemple, pour la requête (A OU B), nous avons les fonctions pdAet pdB qui représentent la proximité floue des termes A et B à toutes les positions d'un document d comme illustré par les deux premières courbes des figure 2 et figure 3. Nous généralisons maintenant ces fonctions sur les nœuds. Pour un nœud OU, considérons d'abord le cas de la requête (A OU B) avec deux documents, l'un contenant les deux termes A et B une fois aux positions 3 et 6 (cf. figure 2) et l'autre contenant deux occurrences de A aux mêmes positions (cf. figure 3). Une telle requête suggère que l'utilisation de A ou de B dans le texte a la même signification. Par conséquent, nous souhaitons obtenir la même fonction de proximité pour ces deux documents avec une requête disjonctive (comme le montre la troisième courbe des figures 2 et 3). En posant : cette contrainte est vérifiée et nous généralisons ceci à la requête en posant : pour un nœud OU, où les fils ne sont pas simplement des termes. Ceci correspond à l'opération faite dans le modèle flou classique. Par analogie, pour un opérateur et, nous posons : De plus, notre modèle peut s'adapter facilement en employant les autres fonctions appliquées en logique floue pour les opérateurs ET et OU. L'évaluation d'une requête est effectuée en partant des feuilles. Tout d'abord, nous calculons pour chaque terme de la requête — c'est-à-dire pour les feuilles de l'arbre — la valeur de pertinence locale à chaque position x du document c'est-à-dire la fonction pdt. Ensuite, nous évaluons ces valeurs au niveau de chaque nœud de l'arbre en appliquant (toujours pour chaque position x dans le document) les fonctions correspondant aux deux opérations (ET ou OU). Finalement, en remontant jusqu' à la racine, nous obtenons la fonction pdq qui permet de déterminer le score du document pour une requête donnée dont le calcul est expliqué dans la section suivante. Dans le cas du modèle vectoriel, les formules de calcul de pertinence sont des produits scalaires ou des cosinus qui comportent une sommation qui peut s'interpréter comme une accumulation d'éléments de pertinence. Nous allons utiliser cette notion d'accumulation pour le calcul du score d'un document et prendre en compte les valeurs de proximité floue à chaque position d'un document. Les méthodes du calcul intégral permettent de mettre en œuvre cette idée en calculant la surface en dessous d'une courbe. À chaque position du document, la fonction pdq donne une proximité locale à la requête que nous interprétons comme un élément de pertinence. Nous dé finissons donc le score d'un document comme la sommation de tous ces éléments de pertinence selon la formule : Le score obtenu appartient ainsi à ℝ+ et permet de classer les documents par ordre décroissant en fonction de la proximité des termes de la requête. Les valeurs extrêmes de variation du paramètre k qui contrôle l'étendue de la zone d'influence d'un terme permettent de ramener notre modèle d'interprétation des requêtes, soit aux modèles vectoriel ou à niveau de coordination, soit au modèle booléen. L'un des premiers modèles de recherche d'information est celui du niveau de coordination. La requête y est représentée par un ensemble de mots-clés. Le score de pertinence d'un document est obtenu en calculant la somme de la fréquence de tous les termes de la requête apparaissant dans le document. Nous pouvons reproduire cette méthode avec notre modèle : en prenant une fonction d'influence rectangulaire de largeur 1 et de hauteur 1 comme dans la figure 4 si bien que la zone d'influence de toute occurrence de terme est limitée à l'occurrence elle -même et que les zones d'influence ne se recouvrent pas, et, en utilisant une requête disjonctive. Le premier point permet de prendre en compte la fréquence des termes pour calculer la valeur de similarité entre un document et une requête tandis que le second permet de considérer les documents dès qu'ils contiennent au moins un terme de la requête. De ce fait, notre méthode est équivalente à celle du niveau de coordination. De plus, le comportement du modèle vectoriel peut être aussi reproduit en affectant une hauteur de la fonction d'influence dépendant de la fréquence documentaire 5 aux positions d'apparition des termes. De cette manière, les scores des documents dépendent de la fréquence documentaire et de la fréquence des termes ce qui nous renvoie bien aux principes du modèle vectoriel. Si nous étendons la zone d'influence au document tout entier dans notre modèle de proximité floue, ce qui correspond au cas où le paramètre k tend vers l'infini, alors notre calcul d'appariement entre documents et requêtes se ramène à celui du modèle booléen. Nous en faisons ci-dessous la démonstration. Tout d'abord, prenons une fonction d'influence rectangulaire de largeur 2 k et de hauteur comme illustrée dans la figure 5 : Étant donnés un terme t et un document d de longueur l + 1, nous majorons la fonction pdt pour n'importe quelle position x : Étant donnée une requête q, cette majoration est vraie pour chaque feuille, donc elle est aussi trivialement vraie pour tous les nœuds de l'arbre. En utilisant cette majoration à la racine, nous avons : et Dans notre modèle, une requête q est un arbre qui porte les termes au niveau des feuilles et les opérateurs booléens ET et OU au niveau des nœuds. En développant une telle requête par distribution de l'opérateur ET sur l'opérateur OU, une forme normale disjonctive est obtenue q = q 1 OR q 2 OR … OR qn où tous les termes 6 conjonctifs (qi )1≤ i ≤ n sont des conjonctions d'éléments de T. Un tel document satisfaisant la requête est évalué à 1 avec le modèle booléen et nous allons prouver que lim k →+∞ sk (q, d) est égale à 1. Considérons un document satisfaisant cette requête booléenne. Un tel document satisfait au moins un des (qi )1≤ i ≤ n, soit. Nous avons en particulier : Sachant que est une requête conjonctive, nous pouvons l'écrire t 1 AND t 2 AND … AND tk pour (tj )1≤ j ≤ k ⊂ T. Comme d satisfait (), chaque terme tj, pour 1 ≤ j ≤ k, apparaît dans le document d. La fonction est l' « intersection » de chaque fonction d'influence et donc est aussi l' « intersection » des deux plus éloignées. Notons u (resp. v) la première (resp. la dernière) position où une occurrence d'un terme pris dans (tj )1≤ j ≤ k apparaît, soit : Comme nous avons : cette fonction est encore égale à min( pd t (u), pd t (v)) pour le terme t (u) qui apparaît à la position u dans d et pour le terme t (v) qui apparaît à la position v dans d (cf. figure 6). Comme et alors : comme illustré dans la figure 6. Par conséquent, nous obtenons : et donc : avec donc Comme nous avons précédement prouvé que cette limite est plus petite que 1, elle est donc égale à 1. Réciproquement, considérons un document d qui ne satisfait pas la requête booléenne. Dans ce cas, d ne satisfait aucun (qi )1≤ i ≤ n. Étant donné i, 1 ≤ i ≤ n, qi est une requête conjonctive : et au moins un des (tj), 1 ≤ j ≤ k, disons, n'apparaît pas dans le document d, alors : et donc : d'où : Par conséquent, la sommation vaut zéro pour n'importe quelle valeur de k et sa limite est aussi égale à zéro. Pour résumer, d'une part, si un document d satisfait une requête booléenne q, nous avons montré que : lim k →+∞ sk (q, d) = 1, et d'autre part, si le document d satisfait la requête q nous avons sk (q, d) = 0 pour n'importe quelle valeur de k, donc la fonction lim k →+∞ sk (q, d) = 0. Nous avons donc prouvé que nous pouvons retrouver le comportement du modèle booléen classique en considérant la limite du score calculé par notre méthode lorsque le paramètre k tend vers l'infini. Nous présentons ici les résultats obtenus avec le corpus de test de l'édition 2004 de la campagne d'évaluation CLEF 7 bien connue dans le domaine de la recherche d'information. La collection de test est indexée avec l'outil de recherche d'informations Lucy qui possède une implantation de la mesure Okapi BM-25 (Robertson et al., 1994). Cet outil sauvegarde à l'indexation la position des termes dans les documents ce qui nous permet facilement de l'étendre pour calculer les valeurs de similarité à la fois pour les méthodes à base d'intervalles et pour notre méthode de proximité floue. La collection de test de CLEF 2004 est constituée de documents XML contenant les dépêches de la collection de documents SDA French 8 (42615 documents, 88 MB) et les articles du journal Le Monde (47646 documents, 156 MB) de l'année 1995. Pour chaque document (balise <DOC>), nous avons retenu les champs <DOCNO> avec la balise et le numéro de document nécessaire à Lucy, et le contenu textuel des balises <TX>, <LD>, <TI>, <ST> pour SDA French et <TEXT>, <LEAD1>, <TITLE> pour Le Monde 1995. Nous utilisons la liste de sujets ainsi que les jugements de pertinence associés pour évaluer les méthodes avec l'outil trec_eval disponible à l'adresse. Chaque sujet est composé d'un numéro et de trois balises pour le décrire : <FR-title>, <FR-desc>, <FR-narr>. Pour effectuer nos tests, trois jeux de requêtes sont construits. Les requêtes sont construites automatiquement ou manuellement à partir du texte contenu dans les balises « titre » et « description ». Pour les requêtes construites automatiquement (2 jeux), un jeu est composé des termes contenus dans le texte du champ « titre », l'autre des termes du champ « description », les mots vides (à, aux, au, chez, et, dans, des, de, du, en, la, les, le, par, sur, uns, unes, une, un, d', l') sont retirés. Les résultats ci-dessous se rapportent au jeu de requêtes utilisant le champ « titre ». Les requêtes construites manuellement (1 jeu) sont constituées des termes du champ « titre » et de quelques termes du champ « description ». De plus, nous ajoutons les différentes formes (pluriel, noms associés) des mots-clés retenus pour pallier manque de lemmatisation de l'outil lucy. La requête ainsi construite est une conjonction de disjonctions des différentes formes orthographiques des termes retenus. Par l'évaluation avec l'outil lucy, nous retirons les opérateurs booléens, nous utilisons ainsi des requêtes plates. L'exemple du sujet 249 ci-dessous montre les étapes de construction d'une requête « titre » : Nous obtenons : 249 championne 10000 metres feminin. A partir de cette requête, nous avons ses variantes « automatiques » : Nous allons comparer les méthodes à base d'intervalles de l'état de l'art, la méthode Okapi et notre méthode floue avec différentes valeurs de k. Les méthodes de Clarke et al., et de Hawking et al. sont implantées en respectant les critères de construction des intervalles ainsi que les formules d'attribution des scores propres à chacune des méthodes. Comme d'une part nous savons que la méthode Okapi est l'une des plus performantes, et, d'autre part, une étude antérieure (Mercier, 2004) montre que les méthodes à base de proximité apportent un plus à la recherche, nous avons décidé de combiner la liste de réponses donnée par les méthodes à base de proximité avec celle obtenue avec Lucy. Par conséquent, si l'une des méthodes utilisant la proximité (intervalles ou méthode floue) ne renvoie pas assez de documents alors la liste des réponses est complétée par des documents de la liste Okapi n'ayant pas déjà été retournés par les méthodes à base de proximité, le nombre maximum de documents rappelés est 1000. Les résultats présentés ont été obtenus en interrogeant la collection avec des requêtes constuites avec les mots du champ « titre » pour les requêtes automatiques et construites avec les mots des champs « titre » et « description » pour les requêtes manuelles. Tout d'abord, notre première expérience illustre le point de la section 4.1. Pour simuler le comportement de la méthode du niveau de coordination, nous avons utilisé le jeu de requêtes construites automatiquement avec le contenu du champ « titre ». Pour Okapi Lucy, les requêtes sont plates, pour la méthode floue les requêtes sont exclusivement des disjonctions de termes. Notre méthode donne de meilleurs quand la valeur de k est plus petite (cf. figure 7). En employant des requêtes exclusivement disjonctives, les performances de notre méthode sont bien en dessous des méthodes à base d'intervalles et de Okapi Lucy, la meilleure valeur de précision est obtenue au premier niveau de rappel atteint seulement 30 %. Par conséquent, pour la seconde expérience, nous avons utilisé des requêtes exclusivement conjonctives construites automatiquement. Préalablement, nous avons testé la méthode floue avec une fonction d'influence triangulaire et différentes valeurs de k définissant l'étendue de la zone d'influence. Les valeurs k = {20, 50} conduisent aux meilleurs résultats 9, de plus nous avons remarqué que le taux de précision est nettement supérieur à celui obtenu avec des requêtes exclusivement disjonctives. Nous comparons donc la méthode Okapi, les méthodes à base d'intervalles avec notre méthode pour k = {20, 50} (cf. figure 8). Tout d'abord, la méthode Okapi Lucy ne donne de meilleurs résultats que pour les premiers 10 % de rappel. Ensuite, la méthode de Hawking et al. est légèrement meilleure que celle de Clarke et al., nous supposons que le fait de sélectionner plus d'intervalles dans les documents est à l'origine de cette différence. La méthode de proximité floue avec k = 50 dépasse toutes les autres à partir de 10 % de rappel jusqu' à 100 % et se confond avec celle ayant k = 20 à partir de 40 % de rappel. Cette expérience montre que d'une manière générale, l'exploitation de la notion de proximité apporte une amélioration pour la recherche d'un besoin d'informations. Enfin, la dernière expérience nous permet de pallier le manque de lemmatisation de Lucy en écrivant des requêtes manuelles. Par exemple, pour la requête (femme & championne) nous construisons la requête (( femme | femmes) & (champiomne | championnes)). Avec notre méthode, cette requête est interprétée comme une requête booléenne, par contre, pour les méthodes qui se basent sur les intervalles, nous fusionnons d'une part, les listes de positions des termes « femme » et « femmes » et d'autre part, celles de « championne » et « championnes ». Comme dans l'expérience précédente, les méthodes utilisant la proximité sont plus performantes, cependant, la méthode de proximité floue se détache plus nettement à tous les niveaux de rappel. L'utilisation des requêtes booléennes porte ici son effet car le besoin d'information est défini plus finement. Par rapport aux méthodes à base d'intervalles qui n'utilisent que des requêtes plates, notre méthode, utilisant des requêtes booléennes permet de sélectionner les portions de texte des documents avec plus de précision, ce qui explique, à notre avis, les meilleurs résultats de notre méthode. Dans un premier temps, nous avons présenté les modèles classiques ainsi que les méthodes utilisant la notion de proximité pour le calcul de pertinence. Ensuite, à partir de notre hypothèse : les documents ayant des occurrences de termes de la requête proches doivent être classés en premier, nous avons proposé notre modèle en fonction de la densité des occurrences des termes de la requête retrouvées dans le document. Par ailleurs, nous avons montré que notre modèle pouvait prendre en compte les modèles classiques de recherche d'information comme le niveau de coordination, le modèle vectoriel et le modèle booléen grâce au contrôle obtenu par le paramètre k. Ce dernier, permet de régler la portée de l'influence des occurrences de termes. Une valeur de l'ordre de 5 permet de spécifier une proximité de l'ordre de l'expression, une valeur de 15 à 30 la situe au niveau de la phrase. Notre méthode pourrait aussi simuler une méthode de recherche de passage avec une valeur de l'ordre de k = 200 et le renvoi de passages spécifiques plutôt que des documents. Finalement, nous avons constaté qu'en exploitant au maximum les requêtes booléennes notre méthode dépasse celles à base d'intervalles et la méthode Okapi classique. Pour compléter notre modèle de requêtes, nous envisageons fortement l'ajout de l'opérateur de négation. Enfin, nous souhaitons paramétrer l'implantation pour choisir d'une part, plusieurs types de fonctions d'influence et d'autre part, les différentes opérations de logique floue à effectuer au niveau des nœuds .
Le domaine de la recherche d'information, bien connu à travers les moteurs de recherche sur le web, utilise différents modèles comme le modèle booléen, le modèle vectoriel et la recherche de passage. D'autres approches prenant en compte la proximité des termes de la requête retrouvés dans les documents ont aussi prouvé leur efficacité. Dans ce contexte, nous posons l'hypothèse suivante: plus les termes de la requête se retrouvent proches (et ceci le plus grand nombre de fois) dans un document alors plus ce document doit être positionné en tête de la liste des réponses retournée par le système de recherche d'information. Tout d'abord, nous rappelons les diverses approches liées à notre recherche, ensuite nous proposons une méthode de calcul de pertinence basée sur la proximité floue- en chaque endroit du texte d'un document nous attribuons un degré de proximité floue à la requête - puis, nous montrons que notre méthode peut simuler le comportement des méthodes classiques. Avant de conclure, nous présentons les résultats des expériences ménées sur la collection CLEF 2004.
sciencesInfo_06-0278930_tei_DN_091_0043.tei.xml
termith-360-communication
Dans la rubrique « Échanges  » de Questions de communication ,il est régulièrement débattu de sujets en lien avec des préoccupationsépistémologiques  : le constructivisme (5, 2004a; 6, 2004b), les problèmes poséspar le terrain et l'expérimentation (7, 2005a; 8, 2005b), l'histoire des sciencesde l'information et de la communication (12, 2007), la question du genre en scienceshumaines et sociales (15, 2009a; 16, 2009b). Si le thème de l'interdisciplinaritépouvait se retrouver en arrière-fond des arguments développés pour chacun (plusparticulièrement quand il s'est agi de traiter de l'histoire des sciences del'information et de la communication), jamais encore il n'avait fait frontalementl'objet d'une interrogation. Pourquoi ? Probablement parce que ce postulat est siprésent en sciences de l'information et de la communication (sic) qu'il peut donner à penser que, non seulement, il relève del'évidence, mais que l'ensemble des chercheurs du secteur en maîtrisent lesfondements et façons de faire. Ceci explique probablement aussi qu'il ait étédifficile de convaincre des collègues d'accepter de collaborer à ces « Échanges  » .Parmi les justifications données, figurait notamment celle selon laquelle le sujetavait déjà été débattu. Au vu de ceci, pourquoi traiter de l'interdisciplinaritéalors que, aujourd'hui, elle est régulièrement convoquée au nom « de la complexitécroissante du savoir  » (Charaudeau, 2010  : 197) ? C'est précisément parce qu'elleest si présente qu'il est intéressant de savoir comment elle est pratiquée. C'estd'ailleurs ce qu'énonce Patrick Charaudeau  : « Ce n'est pas de cette façonpolémique que j'aborderai ici la question de l'interdisciplinarité. Je prendraiplutôt le parti d'une interrogation sur la possible rencontre de disciplines. Maissi une telle rencontre s'impose, comment celle -ci doit-elle s'opérer ?  » (ibid.). Pour répondre à cette question, Patrick Charaudeau se fonde sur sa propre identité dechercheur, celle d'un sémiologue et d'un analyste du discours. Et s'il le fait ,c'est qu'il considère que, pour traiter des conditions de l'interdisciplinarité, ilfaut partir d'une interrogation générique sur ce qu'est une discipline, puis sur cequi caractérise les phénomènes sociaux et leur problématisation. En découle la miseen exergue de notions et questionnements dont il apparaît qu'ils sont partagés pardifférentes disciplines. Fort de ce cadrage, Patrick Charaudeau en vient à uneposition théorique et méthodologique – l'interdisciplinarité focalisée – dont ildémontre la pertinence dans le cadre de l'étude de plusieurs domaines  : l'identitédu sujet, la représentation associée à celle d'imaginaire social, la stratégie. Pour lui répondre  : deux linguistes – Dominique Maingueneau et Roselyne Koren – etune chercheuse en sciences de l'information et de la communication, SylvieLeleu-Merviel. Les linguistes abondent dans le sens de la démonstration de leurcollègue, le premier s'intéressant plus particulièrement à la définition de cequ'est un champ disciplinaire tandis que la seconde met en pratique les présupposésde ce qu'est une interdisciplinarité focalisée. Avec une réserve néanmoins pourDominique Maingueneau qui préfère complexifier l'approche de Patrick Charaudeau ence qui concerne la notion de champ disciplinaire. Quant à Sylvie Leleu-Merviel, elledéplace la focale, mettant à distance celle de l'analyse du discours qui permettaitau linguiste de penser l'acte de communication et l'interdisciplinarité. En découleune autre façon de penser la science dans laquelle l'idée d'horizon d'attente dutexte de départ. Les deux questions principales qui sont au cœur de ces « Échanges  » sont donc enphase avec celles posées par l'analyste du discours – « Qu'est -ce qu'unediscipline ?  », « Que signifie pratiquer l'interdisciplinarité ?  ». En bonnelogique, elles guideront notre propos. Dans Qu'est -ce qu'une discipline ? (Boutier, Passeron ,Revel, 2006), des chercheurs partent du constat de l'évolution des sciences pourinterroger les liens aujourd'hui entretenus entre les institutions scientifiqueset réfléchir dans le même temps à la question des frontières disciplinaires .D'ailleurs, dans l'introduction aux « Échanges  » consacrés à l'histoire dessciences de l'information et de la communication, nous citions (Fleury, Walter ,2007  : 134) un auteur de cet ouvrage, Jean-Louis Fabiani (2006  : 12-13), quiexpliquait qu'il convenait de se méfier de l'illusion naturaliste pour définirune discipline et précisait que la notion juxtapose deux ordres historiques deréalité en tension  : « Le premier est bien antérieur à la science moderne. Ilcomprend toutes les dimensions d'un rapport pédagogique mais désigneprimitivement la relation vue à partir de l'élève, du discipulus, c'est-à-dire sous l'aspect de la réception des messages .La discipline ainsi entendue met l'élève au centre du système et organise lesavoir à partir d'un objectif pédagogique. Plus qu'un sujet connaissant, ce sontles formes du contrôle pédagogique qui occupent ici une place centrale. Ils'agit de s'assurer de la réalité et de l'efficacité d'une autorité pédagogiqueen tant qu'elle s'exprime à travers une opération de communication. Le deuxièmeobjet, central dans nos préoccupations depuis le XIX e siècle, c'est l'organisation particulière au sein de laquelle se développent dessavoirs modernes comme ensemble de pratiques codifiées et reconnues valides parun collectif auto-délimité, l'activité scientifique se développant par rapport àune ligne de front  ». Pourquoi reprendre cette définition ? En fait, afin de la confronter à celle quepropose Patrick Charaudeau qui retient plus particulièrement le deuxième aspect .Pour lui, en effet, « une discipline est constituée d'un certain nombre de principesfondateurs, d'hypothèses générales, de concepts qui déterminent un champ d'étudeet permettent en même temps de construire le phénomène en objet d'analyse. Seconstitue ainsi un cadre conceptuel, et c'est à l'intérieur de celui -ci quepeuvent être construites diverses théories [. .. ]. Sans cadre théorique, point dediscussion possible car on ne saurait dire au nom de quoi on pourrait évaluer ,confirmer ou contester les résultats d'une analyse  » (Charaudeau, 2010  :200-201). Et d'ajouter que c'est au vu de ce cadrage que d'aucuns dénient aux sciences del'éducation ou aux sciences de l'information et de la communication « le labelde discipline  » (ibid.). Aussi suggère -t-il dequalifier ces secteurs de champs disciplinaires, une appellation « utile pouréviter les querelles  » et qu'il convoque aussi pour la psychologie ou lessciences du langage. Les disciplines peuvent se combattre et se jauger au prismedes savoirs et connaissances qui les constituent. Or, c'est précisément sur cepoint qu'intervient Dominique Maingueneau qui considère qu'un champdisciplinaire se caractérise lui aussi par son hétérogénéité et, donc, par undéséquilibre – et un jeu de pouvoir – entre sous-disciplines à l'intérieur decelui -ci. Ainsi évoque -t-il, au sein d'un même champ, l'existence de secteursplus porteurs que d'autres, telle la psychologie cognitive aujourd'hui, aveclaquelle il est de bon ton de s'associer, au-delà du principed'interdisciplinarité. « Bien entendu, un chercheur en analyse du discours ou ensociologie qui veut travailler avec des psychologues peut minorer la psychologiecognitive, mais s'il le fait, il aura de moins bonnes chances d'accéder à desfinancements et d' être reconnu dans son domaine. L'interdisciplinarité au sensfort est une nécessité pour toute recherche scientifique, puisque toute vraieinnovation dans ce domaine implique que les chercheurs sortent de leur espace ,qu'ils entrent en dialogue avec d'autres modèles, d'autres disciplines, d'autresfaçons de penser. Mais cette nécessité peut aboutir à des résultats très variés ,qui peuvent aller dans des sens opposés  ». D'où le constat selon lequel le bornage relatif au savoir qui délimite les zonesdisciplinaires connaît des tensions et ajustements qui font « que leur survien'est jamais assurée  » et qu' « elles ne sortent pas nécessairement renforcéesde toute mise en relation  ». Dominique Maingueneau ajoute à cette complexité unautre facteur de brouillage  : l'hétérogénéité des référents disciplinaires dessous-champs d'un même champ disciplinaire. Pour cela, il fonde sa démonstrationsur l'analyse du discours. Partons de cette idée quelque peu simplificatricemais utile pour comprendre le raisonnement de Dominique Maingueneau  : unsous-champ décline un aspect des prérogatives d'un champ disciplinaire; il lefait en se spécialisant sur un type d'interrogations et un domained'intervention particulier. Pour autant, selon Patrick Charaudeau, l'ensembledes sous-champs se retrouverait sur des bases théoriques communes. Il en seraitainsi de ceux de sciences du langage – la linguistique descriptive de la langue ,la linguistique cognitive, la sociolinguistique, l'ethnolinguistique, lalinguistique du discours – qui se réfèreraient tous – comme le résume DominiqueMaingueneau – à « des concepts communs de signe, forme et sens, ordressyntagmatique et paradigmatique énoncé/énonciation et de procédures d recueil etanalyse de corpus  ». Mais, pour ce dernier, le problème viendrait de là. Selonlui, la juxtaposition tend à masquer l'hétérogénéité qui fait que chaquesous-champ ne se définit pas nécessairement en fonction des mêmes disciplines .Un exemple  : la grammaire générative se définit comme une branche de lapsychologie alors que, pour ses praticiens, « elle est apparue avant tout commeune approche qui permettait de modéliser des propriétés du système linguistiquemieux que ne pouvaient le faire d'autres courants linguistiques. Lesconsidérations d'ordre psychologique jouaient finalement un rôle marginal danscette affaire  ». Même brouillage quand il s'agit de raconter l'histoire del'analyse du discours, les auteurs identifiés comme « ayant joué un rôle dans safondation […] se trouvent placés dans des situations d'interdisciplinarité trèsdiverses  ». La conséquence est sans appel  : « Autant dire que mêmel'inscription de l'analyse du discours dans l'orbite des sciences du langage nepeut aller de soi  ». Sur le plan de l'histoire d'une discipline en lien avec les concepts qui lafondent, les frontières sont donc difficiles à tracer. Et sur le plan descommunautés ? Pour Dominique Maingueneau, si ce versant « sociologique  » n'estpas frontalement abordé par Patrick Charaudeau, il figure en arrière-fond de saréflexion. Et de citer Jean-Marie Berthelot (1996  : 99-100) pour qui « espacesocial de légitimation de savoirs, une discipline est, indissociablement, unespace de construction d'argumentations  ». Versants épistémologique etsociologique sont en interrelations constantes, avec toutefois des variationsselon les cas. De ce point de vue, Dominique Maingueneau note que PatrickCharaudeau n'a pas traité de la dimension institutionnelle de la constructiondes disciplines, probablement parce qu'il s'exprime depuis le domaine del'analyse du discours qui, de fait, connaît un versant scientifique mais nedépend que faiblement d'un versant institutionnel. Et pourtant… Une disciplineest indéniablement formatée par un cadre organisationnel. Ce qui fait dire àEdgar Morin (1990) que les idées y font corps avec l'organisation qui lesconstitue  : « La discipline est une catégorie organisationnelle au sein dela connaissance scientifique; elle y institue la division et la spécialisationdu travail et elle répond à la diversité des domaines que recouvrent lessciences. Bien qu'englobée dans un ensemble scientifique plus vaste, unediscipline tend naturellement à l'autonomie, par la délimitation de sesfrontières, le langage qu'elle se constitue, les techniques qu'elle est amenée àélaborer ou à utiliser, et éventuellement par les théories qui lui sont propres .L'organisation disciplinaire s'est instituée au XIX e siècle, notamment avec la formation des universités modernes, puis s'estdéveloppée au XX e siècle avec l'essor de la recherchescientifique; c'est-à-dire que les disciplines ont une histoire  : naissance ,institutionnalisation, évolution, dépérissement etc.; cette histoire s'inscritdans celle de l'université, qui, elle -même, s'inscrit dans l'histoire de lasociété; de ce fait les disciplines relèvent de la sociologie des sciences etde la sociologie de la connaissance et d'une réflexion interne sur elle même ,mais aussi d'une connaissance externe. Il ne suffit donc pas d' être àl'intérieur d'une discipline pour connaître tous les problèmes afférents àcelle -ci  ». C'est d'ailleurs cette histoire, nourrie des pensées et actions de chercheurs ausein des organisations qu'ils ont contribué à façonner et transformer, queRobert Boure (2006, 2007, 2008) a étudiée à propos des sciences de l'informationet de la communication. Investir de la sorte cette discipline lui a permis demettre notamment à l'épreuve l'idée selon laquelle l'origine de celle -ci seraitlittéraire et de montrer, exemples à l'appui – thèses soutenues, premiers lieuxd'enseignement et de recherche en France, revues du champ – qu'elle estplurielle. Et si, à partir d'une focale à large portée – l'université française– Robert Boure est parvenu à retracer des expériences particulières, StéphaneOlivesi (2007  : 205) est quant à lui parti d'une perspective inversée pourmontrer comment une histoire « localisée  » peut elle aussi – voire surtout –être riche d'enseignements en bousculant la vision mythifiée qu'une histoiregénérale peut façonner  : « Cette thèse […] se propose de déplacer les points de vue ,d'opposer à une connaissance générale, élaborée à partir de sources nationaleset officielles, des éléments de savoir locaux, éclatés, irréductibles à unevérité exclusive, bref d'opposer à une histoire froide (ou refroidie) desmémoires encore vivantes et souvent discordantes, potentiellement en lute dansla définition de la vérité historique. Cette histoire que l'on qualifieravolontiers de matérialiste suggère que la discipline n'existe pas par ses œuvresde l'esprit, par le subtil dessein de quelques visionnaires « Pèresfondateurs  », par la force du groupe institutionnel qui l'a fait émerger et laporte, mais par le développement local de lieux d'enseignement (plus que derecherche )  ». Que retenir de ceci ? Avant tout  : l'hétérogénéité. Pas seulement celle quidistingue les disciplines les unes des autres, mais celle qui est constitutivede leur existence et qui fait qu'elles sont composées d'histoires diverses etcontrastées selon les lieux et spécialités. Et si l'existence même desdisciplines est envisagée comme pouvant être une force car donnant un cadre etdes repères aux chercheurs, elle peut aussi être un frein à l'ouverture dechacun à d'autres façons de penser. C'est d'ailleurs plutôt cet aspect qu'abordeRoselyne Koren pour qui l'interdisciplinarité représente un facteur de richesse ,tandis que Sylvie Leleu-Merviel explique pourquoi ce mouvement ne relèveaucunement de l'évidence. Patrick Charaudeau (2010  : 205) définit ainsi l'interdisciplinarité  : « C'est l'effort d'articuler entre eux les concepts, les outilset les résultats d'analyse de différentes disciplines. Cela ne peut se faireavec plusieurs disciplines à la fois car, pour pouvoir procéder à uneinterrogation ou un empreint entre plusieurs concepts, il faut pouvoir lesconsidérer dans leur cadre théorique afin de ne pas les déformer, les interrogerà la lumière d'une autre discipline et expliquer dans quelle mesure et à quellesfins d'analyse ils peuvent être empruntés et intégrés dans l'autrediscipline  ». Pour lui, la notion d'interdisciplinarité caractérise donc autant la démarcheconsistant à croiser des concepts que celle relative à l'empreint d'outilsd'analyse et d'interprétation à d'autres disciplines. Il ne peut donc seulements'agir de la juxtaposition d'approches (pluridisciplinarité), mais del'association pleine et entière entre plusieurs disciplines. Pour exemplifierson propos, il liste un certain nombre de cas. Relèvent donc del'interdisciplinarité « le fait que certains courants des sciences du langageintègrent des données sociologiques, socio-communicatives ousocio-psychologiques dans leur modèle théorique ou dans leur méthodologie; lefait que des psychosociologues du langage intègrent, les uns des éléments depragmatique [… ], les autres d'énonciation […]; que des chercheurs des sciencesde l'information et de la communication s'interrogent sur leur discipline ens'appuyant sur les travaux de sociologues, de sémioticiens et d'analystes dudiscours […] à propos de l'analyse des médias, ou que des sociologues se situentà un carrefour entre la science économique et la philosophie politique, etd'autres encore au carrefour de la sociologie, l'histoire ou l'anthropologie  »( Charaudeau, 2010  : 215). Roselyne Koren prend résolument parti pour le point de vue défendu par PatrickCharaudeau, précisant qu'elle le fait « contrairement aux lois du genre de lacontroverse scientifique, […] et cela non par esprit de corps [… ], mais parréelle conviction  ». D'ailleurs, son raisonnement atteste de cette convictionpuisqu'elle montre, à partir d'une étude de cas, les conséquences préjudiciablesde l'enfermement monodisciplinaire. Le domaine qui lui sert de laboratoire estcelui de la « conversationalisation  », un concept commun à des chercheurs enanalyse critique du discours, en sciences politiques et en communicationnumérique. Précisons avant d'aller plus avant que, comme le précise RoselyneKoren, ce « phénomène réfère à ce qui est perçu comme de l '  “écrit oralisé” ,genre que Norman Fairclough […] qualifie d '  “hybride” et qui est apte àintroduire directement tout locuteur dans la sphère égalitariste desinteractions verbales de la Toile  ». Si ce sujet intéresse différentesdisciplines, c'est qu'il est à la croisée de plusieurs préoccupations  :évidemment discursives, avec une attention portée à l'énonciation du sujet ;politiques, d'autant que le sujet qui s'exprime sur la Toile voit son statut etson mode d'adresse se transformer; techniciste, par les lieux et moyenssollicités pour s'exprimer… Mais ce que constate Roselyne Koren, c'est que cetintérêt partagé ne converge pas vers une analyse profitant pleinement desapports de chacune. En effet, « si elles soulignent toutes les trois les conséquencespolitiques, culturelles et sociales du phénomène, l'interprétation diverge dansle cas de la détermination des enjeux, qui reste descriptive dans le cas del'analyse critique du discours et de la communication numérique, mais prendposition en termes éthiques dans celui des sciences politiques  ». En cela, elle retrouve ce qu'Edgar Morin (1990) redoutait et qui en appelait ,pour y répondre, à une « perestroïka scientifique  », c'est-à-dire une démarcheosant l'interdisciplinarité, la « multi - ou polydisciplinarité  » et la« trans-disciplinarité  »  : « L'institution disciplinaire entraîne à la fois un risqued'hyperspécialisation du chercheur et un risque de « chosification  » del'objet étudié dont on risque d'oublier qu'il est extrait ou construit. L'objetde la discipline sera alors perçu comme une chose en soi; les liaisons etsolidarité de cet objet avec d'autres objets, traités par d'autres disciplines ,seront négligées ainsi que les liaisons et solidarités avec l'univers dontl'objet fait partie. La frontière disciplinaire, son langage et ses conceptspropres vont isoler la discipline par rapport aux autres et par rapport auxproblèmes qui chevauchent les disciplines. L'esprit hyperdisciplinaire vadevenir un esprit de propriétaire qui interdit toute incursion étrangère dans saparcelle de savoir  ». Si ces chercheurs défendent le principe d'interdisciplinarité, Patrick Charaudeau( 2010  : 220) précise quant à lui quelles peuvent être les conditions deréalisation de celle -ci. Il le fait en recourant à la notiond'interdisciplinarité focalisée qu'il définit comme étant « un état d'espritengendrant une démarche qui cherche à tenir à la fois la multi-appartenancedisciplinaire des phénomènes sociaux (interdisciplinarité) et la rigueur d'unediscipline (focalisée )  ». Roselyne Koren approuve cette option et la peaufineen la rapprochant d'une autre, défendue par Josiane Boutet et DominiqueMaingueneau (2005) sous le terme d' « air de famille  ». Pourquoi faire appel àcette notion ? Pour montrer que l'interdisciplinarité ne doit pas seulementrelever d'un rapprochement évident et rationnel, mais d'une forme deressemblance. Et c'est cette approximation qui, selon Roselyne Koren, estopérante car elle permet d'explorer la complexité des objets. La filiation estici clairement posée avec Ludwig Wittgenstein (1958) qui, dans le cadre de sonétude sur les jeux de langage, rapprochait les mots au vu de leur ressemblancefamiliale avec d'autres, leur « air de famille  », c'est-à-dire des traitspartagés sans qu'on puisse précisément dire desquels il s'agit. Et de féliciteren conclusion ceux qui, de ses collègues – Josiane Boutet, DominiqueMaingueneau, Patrick Charaudeau et Catherine Kerbrat-Orechioni – vont « jusqu' àreconnaître le caractère subjectif du choix des disciplines et des notions quiles inspirent  ». Au-delà de ce jugement qu'elle prononce et revendique, Roselyne Koren considèreque l'interdisciplinarité focalisée consiste en une ouverture au sein del'orthodoxie disciplinaire, à même d'investir des impensés tel, en sciences dulangage, celui relatif à ces « actes de parole qui ont l'argumentation de prisesde position pour enjeu  ». Pourquoi l'analyse des jugements de valeur est-elleun impensé dans cette discipline ? « On peut formuler l'hypothèse que cela estdû à un problème scientifique majeur  : la rigueur de la construction de l'objetd'une discipline exigerait que les questions d'éthique soient traitéesuniquement par ceux qui disposent du cadre théorique et méthodologique adéquat ,soient les philosophes  ». À cette hypothèse, Roselyne Koren ajoute que « si levrai et le juste, les jugements de réalité et les jugements de valeur sontégalement soumis à l'énonciataire par le biais du langage, pourquoi seule lamise en mots du vrai est-elle intégrée dans l'épistémologie des sciences dulangage ?  » Pour pouvoir conduire des travaux sur ces questions, Roselyne Korena donc transgressé les règles en usage dans sa propre discipline et pratiquél'interdisciplinarité focalisée, en allant chercher du côté de la rhétoriqueperelmanienne matière à penser « la prise de position, la décision etl'aspiration à obtenir l'adhésion de l'autre  ». Une incursion réussie etprofitable dans un ailleurs théorique et méthodologique où deux disciplines sontparvenues à se comprendre pour le bien de l'analyse… Mais… Qu'est -ce qui fait que des disciplines ne se comprennent pas ? Telle est laquestion que pose Sylvie Leleu-Merviel dans un propos qui prend totalement àrebours celui des autres débatteurs. Pour en comprendre le raisonnement, partonsde la conclusion de cette spécialiste des technologies d'information et decommunication  : « De ce qui précède, on déduit qu'il existe de nombreusesmanières de ne pas se comprendre entre disciplines  : extraire desfragments différents d'une même réalité sans s'apercevoir que ce ne sont pas lesmêmes fragments; les examiner sur la base d'aspects qualifiantsdifférents, en ignorant qu'ils sont différents; procéder à laqualification par des méthodologiques ou via des outils qui n'ont strictementrien à voir les uns avec les autres; prendre pour argent comptant lesdonnées des autres alors qu'elles résultent d'un canon descriptionnel totalementinadapté à sa propre approche; dissimuler sous un même “étiquetageverbal ”, un même vocable de “concept ”, des horizons de pertinence ne partageantrien  ». Pour en arriver à cette mise en garde, Sylvie Leleu-Merviel est partie d'unesituation qui ne pouvait être qualifiée d' « acte de communication  », les sujetsen interaction se retrouvant dans un cadre médical (un examen à effectuer) où ilpas nécessaire d'échanger des paroles. Mais s'il n'y a pas eu à proprementparler de communication, des informations, en revanche, ont été transmises, lecas de patient ayant fait l'objet d'une interrogation en vue d'un diagnostic àétablir. Pour la chercheuse, cette « historiette  » pour le moins ordinairemettrait à mal le postulat selon lequel, « lorsqu'il s'agit d'une communication collective qui se déploiedans un espace public à l'aide de divers supports de transmission, on dira quela communication se réalise entre une instance de production du langage, et uneinstance de réception-interprétation (qui peut devenir à son tour instance deproduction mais de façon asymétrique), entre lesquels transite un certainproduit porteur de sens ayant diverses formes selon le système de signes( verbal, iconique, gestuel) qui le configure  » (Charaudeau, 2010  : 217). En effet, dans cette petite histoire, qui est l'instance de production ? Est -cele corps défaillant ? Le malade lui -même ? La machine qui photographie le corpset transmet des informations ? Le médecin qui reçoit le patient ? Le collectifde spécialistes qui tente de poser un diagnostic ? Une interrogation qui conduitSylvie Leleu-Merviel à constater que Patrick Charaudeau possède son proprehorizon de pertinence – une notion réunissant le concept d'horizon d'attente deHans R. Jauss (1972) et la théorie de la pertinence de Deirdre Wilson et DanSperber (1986) –, « celui d'une communication mesurée à l'aune des actes dulangage et recourant à l'analyse du discours comme point de vue prioritaire  » .Et cet horizon de pertinence a une incidence sur la conception del'interdisciplinarité qu'il défend. Et de développer, en s'appuyant sur lestravaux d'une physicienne, Miora Mugur-Schächter (2009), ce qu'il en est de cethorizon de pertinence quand on change de « lieu géométrique  ». On en vient, parexemple, à invalider l'hypothèse d'un « modèle d'analyse de la communication àpartir de trois lieux de pertinence séparés  : le lieu des conditions de laproduction, le lieu des conditions de la réception, le lieu des conditions deréalisation de l'acte de communication comme produit fini  ». Plus largement, cela signifie que « le réel en soi  » n'existe pas et qu'il fautreplacer les phénomènes à observer dans « la relativité de leur perçu  », doncdans un cadre où l'expérience occupe une place importante. Montrant quel'expérience est également présente dans le règne animal, Sylvie Leleu-Mervielfait de la créativité une caractéristique humaine. Transposée dans le cadrescientifique et associée à l'expérience, cette compétence signifie quel'activité scientifique qui s'élabore dans un groupe réfère à une dimensionintersubjective qui suppose, pour qu'un consensus se manifeste, de trouver uneforme de stabilisation à travers des procédures de légalisation. Ce sont ellesqui permettront aux membres du groupe d'adhérer à des valeurs communes à même defaire consensus pour qu'elles puissent être communiquées. On voit combien lapart des construits est importante, des construits dont il est dit qu'ils sont« façonnés par la méthode de construction, laquelle relève d'un choix cognitif –volontaire et totalement assumé dans la démarche scientifique, souvent réflexedans la vie courante  ». Au vu de cette démonstration, il apparaît qu'un partagede savoir et de connaissances ne peut faire l'impasse sur ces spécificitésconstruites au fil du temps. Ainsi, dans le titre de sa contribution, SylvieLeleu-Merviel remplace -t-elle la notion d'interdisciplinarité par celled'horizon de pertinence focalisé. Une manière de réintégrer dans les échangesentre chercheurs la complexité de leurs expériences respectives. Pour exemplifier l'ensemble des propositions de cette première livraison des« Échanges  » sur le thème de l'interdisciplinarité, permettons -nous un détourpar un programme interdisciplinaire de recherche dont nous sommes àl'initiative  : Qualifier, disqualifier, requalifier des lieuxde détention, de concentration et d'extermination. Réunissant une cinquantaine de chercheurs dedifférentes nationalités (Allemagne, Argentine, Belgique, France, Canada ,Espagne, Pologne, Sénégal, Ukraine), il a pour visée une étude contrastive deslieux ci-dessus cités selon la problématique de laqualification/disqualification/requalification. Dans un premier temps, celle -ciconsiste à repérer le geste fondateur – et le sens de celui -ci – par lesquelsdes acteurs de la mémoire – qu'ils représentent les pouvoirs publics, descitoyens (regroupés ou non en collectifs) ou encore des victimes – font d'unlieu le site emblématique d'une histoire dont ils décident de commémorer unaspect. Dans un deuxième, c'est-à-dire la disqualification, les chercheurss'attachent à décrire et comprendre les ressorts de la disgrâce au cours delaquelle le lieu peut tomber dans l'oubli, les valeurs qu'il représente pouvantne pas correspondre aux attentes du moment. Pour la troisième phase, larequalification, il s'agit de prendre en compte les infléchissements de sens dulieu en question, ou bien l'exhumation de lieux oubliés, à la faveur de causesou situations « nouvelles  » qui peuvent, à un moment ou à un autre, surgir dansl'espace public. Les supports servant de terrain aux chercheurs sont évidemmentles lieux eux -mêmes, mais pas seulement. Il peut s'agir aussi des édificescommémoratifs, des musées, des écrits de victimes… On est donc confronté à un objet complexe ou dimensions matérielles etimmatérielles s'associent, aspects factuel ou imaginaire également. Pour traiterau mieux de cette complexité, les chercheurs viennent donc de cinqdisciplines  : ethnologie, études littéraires, géographie, histoire, sciences del'information et de la communication. Sans difficulté, on peut imaginer quePatrick Charaudeau (2010  : 199) examinerait ce programme et ses intentions à lalumière de ce qu'il écrit, « mais en même temps le doute s'installe sur ladéfinition de cette notion lorsque le terme d'interdisciplinarité apparaît enéquivalence, parfois en complément avec d'autres termes […]; à quoi on peutajouter la concurrence avec d'autres termes comme multidisciplinarité ettransdisciplinarité  ». Comment lui répondre ? Effectivement, si déjà dans lademande de financement (février 2007), ce programme affichait une intentioninterdisciplinaire, ce n'est qu'au moment de son lancement que cette intentionest devenue réalité. En effet, le premier colloque s'est déroulé en novembre2007, sans que les membres du programme, à quelques exceptions près, ne sesoient rencontrés auparavant. Or, c'est en présentant oralement leurscontributions devant des chercheurs d'autres disciplines qu'une expériencecommune de recherche a commencé à se constituer et qu'une démarcheinterdisciplinaire s'est réellement mise en place. Comment ? Sur les quatreannées d'existence de ce programme, on constate une évolution des façons defaire de chacun qui se manifeste autant dans la construction des objets et lemode d'exploitation les concernant, que dans l'agenda de la recherche. Ainsisont – évidemment en partie – subsumés certains tropismes disciplinaires. Parexemple, les historiens sont plus attentifs à la question des représentationsqu'ils ne l'étaient auparavant, ce qui les conduit à puiser dans la littérature ,les revues et/ou la presse matière à penser leurs objets. Les autres chercheurscomplètent leurs corpus (ouvrages, presse) d'une investigation plus systématiquedans des lieux d'archives. Et si l'on revient sur un point évoqué par SylvieLeleu-Merviel et qui constituait un frein à l'interdisciplinarité, à savoirl'existence de construits disciplinaires façonnés dans un cadre particulier ,nous pensons qu'avoir travaillé ensemble pendant quatre ans a permis à deschercheurs de disciplines différentes de se comprendre et de construire desquestionnements et pratiques mêlant des savoirs disciplinaires et d'autres ,propres à ce groupe pour ce terrain particulier. Pour autant, probablement devrions -nous nous méfier des discours enchantés surl'interdisciplinarité. Et pour méditer jusqu' à la livraison précédente – où deuxanthropologues, un philosophe et un historien prendront le relai – voici à lirece que l'on trouve sur le site du cnrs, à la rubrique« Les programmes interdisciplinaires du cnrs » : « Le CNRS est le seul organisme français qui puisse mettre enœuvre des opérations interdisciplinaires innovantes entre ses équipes sur unelarge palette de disciplines de recherche. Ainsi, les programmesinterdisciplinaires du CNRS trouvent leur place dans la structuration desactions de recherche, la définition et l'animation de la politique scientifiqueet de la stratégie de l'Organisme dans le but d'accompagner les équipes les plusen pointe et les projets les plus porteurs d'avenir, d'assurer lacomplémentarité entre disciplines voisines et de la pluridisciplinaritéd'objectifs. Les programmes interdisciplinaires du CNRS arrivent encomplémentarité avec les programmes de l'ANR et financent des projets à risqueaux interfaces couvrant des sujets amont de recherche fondamentale. Ils ouvrentla possibilité de faire émerger des voies nouvelles pouvant présenter une prisede risque. En outre, les programmes interdisciplinaires se démarquent enpermettant de promouvoir des démarches nouvelles innovantes et originales. Les objectifs majeurs des Programmes Interdisciplinaires se déclinent dansdiverses actions  : Susciter l'émergence de nouvelles thématiques à lafrontière des différentes structures traditionnelles; Répondre à desdéfis scientifiques et technologiques ainsi qu' à des enjeux socio-économiques ouà des problèmes de société; Structurer la communauté scientifique enfavorisant les échanges entre chercheurs de disciplines différentes ou enfacilitant la mise en place de structures d'accueil et d'équipements mutualisésdans les laboratoires; Favoriser la construction de dossiers solides etd'organisations structurées qui seront proposés ensuite à l'ANR, ou aux appelsd'offres européens.. .  » .
Patrick Charaudeau se définit sémiologue et chercheur en analyse du discours. C'est donc à ce titre qu'il intervient ici. En effet, sur un ton non polémique mais avec conviction, il définit ce qu'est une discipline pour penser dans quels cadre et conditions l'interdisciplinarité peut s'accomplir. Deux linguistes - Dominique Maingueneau et Roselyne Koren ― et une chercheuse en sciences de l'information et de la communication - Sylvie Leleu-Merviel ― lui répondent, chacun précisant ce que recouvre les notions de discipline et d'interdiscipline, les deux premiers en abondant ― à quelques nuances près ― dans le sens des propositions de Patrick Charaudeau, la dernière en les mettant à l'épreuve de la construction scientifique.
sciencesInfo_11-0402693_tei_1054.xml
termith-361-communication
S'il existe de nombreux travaux ou de réflexions sur la diffusion des sciences ,notamment sur la « vulgarisation » (par exemple Roqueplo, 1974; Jacobi, Schiele ,1988; Hilgartner, 1990), le discours médiatique à propos des sciences (Fouquier ,Veron, 1985; Chervin, 2001; Babou, Le Marec, 2003, 2006; Babou, 2004) ou, pluslargement, les relations entre « sciences et médias » (Hermès, 1997; Communication et langages, 2001) ,rares sont ceux qui abordent l'information scientifique en étudiant l'histoirecollective de ses producteurs et de leurs conditions de production (Boltanski ,Maldidier, 1969; Nelkin, 1987; Tristani-Potteaux, 1997). Loin de pouvoir traiterun tel objet dans son ensemble, cet article vise à esquisser une analyse duprocessus de construction des rubriques scientifiques, entre le début des années 50et le début des années 80, dans les médias généralistes français. À partir du cas plusspécifique de la médecine, il s'agit de montrer comment et pourquoi l'informationdiffusée sur cette discipline occupait une place « à part », au sens où elle étaitrelativement bien contrôlée par les autorités médicales en collaboration avec unpetit groupe de journalistes spécialisés. L'histoire de cette période charnière del'après-guerre s'inscrit donc en opposition à la fois avec la deuxième moitié du xix e siècle, qui est souvent décritecomme un « âge d'or » de la diffusion publique de la science (Bensaude-Vincent ,Rasmussen, 1997), et avec la période contemporaine (depuis les années 80), au coursde laquelle les relations entre les champs journalistique et médical (et pluslargement scientifique) sont de plus en plus médiatisées par des enjeux politiques ,économiques ou moraux, voire par les attentes réelles ou supposées de l' « opinionpublique ». C'est à partir des années 50 qu'un journalisme spécialisé dans les sciences( notamment la médecine) et techniques commence véritablement à se constituer enFrance sous une nouvelle rubrique. L'histoire de l'information scientifique etmédicale participe d'un large mouvement de spécialisation du journalisme quitend alors à se renforcer, comme le montre le développement de nombreux espacesspécifiques dans les quotidiens nationaux et régionaux entre le début desdécennies 50 et 70, l'économie étant un des exemples les plus visibles (Duval ,2004; Riutort, 2000). Faire la genèse de la production de l'information scientifique et médicaleconsiste essentiellement à restituer l'histoire de la lutte pour le contrôle desa publicité. En effet, le problème de la diffusion dans le grand public se poseen effet très fortement au lendemain du second conflit mondial en raison del'essor des médias, des progrès des sciences, tout particulièrement de lamédecine, et de la mise en place de politiques de santé (Boy, 1999). C'est aussià ce moment -là que le champ scientifique français se restructure autourd'organismes de recherche étatiques, d'établissements universitaires et que lesrevues se multiplient. Cette période est également marquée par l'arrivée massivede nouvelles technologies et une spécialisation croissante des métiers de lascience. Le leitmotiv des journalistes pour justifier un droit deregard sur les activités scientifiques est alors d'invoquer les « demandes dupublic », dans la mesure où le progrès affecte ses conditions d'existence. Unautre argument consiste à dire qu'il n'y a pas de raisons que « les hommes descience » continuent à « vivre enfermés dans un domaine réservé » (in : Roqueplo, 1974 : 45), qu'ils doivent rendre descomptes parce qu'ils sont « payés par le public » (Bourget, 1985 : 51). Enfin ,les journalistes en voie de spécialisation dans le domaine scientifiquedéfendent l'idée qu'ils sont jugés à l'exactitude de leurs informations et qu'illeur faut donc « une reconnaissance et une aide des responsables, tantchercheurs que décideurs de la politique scientifique » (Skrotzky, 1989 :66). Le champ journalistique apparaît comme un univers très peu autonome au regard del'univers médical qui possède un ordre professionnel et est très largementdominé par les « grands patrons », ceux -ci contrôlant d'ailleurs toutparticulièrement l'accès aux médias. Seuls les chercheurs les plus confirméss'expriment en effet publiquement. Les logiques defonctionnement de ces deux espaces sociaux divergent également sous beaucoup derapports (Dunwoody, Ryan, 1985; Labasse, 1999 : 23-31). Pour les scientifiques ,les médias ne sont pas un lieu de discussion approprié à l'inverse des revuessavantes, contrôlées par des comités de lecture qui décident du choix de ladiffusion des articles scientifiques et, par là même, consacrent les pairs. Faceaux « doutes » des chercheurs, les journalistes sont au contraire en quête de« certitudes », comme le note un journaliste médical (Flaysakier, 1997 : 137) .Par ailleurs, la représentation dominante du « bon scientifique » correspond àcelui qui travaille discrètement dans son laboratoire et dont les interventionspubliques sont rares, voire inexistantes, surtout sur ses recherches en cours .Les chercheurs français, alors financés en grande partie par l' État, n'ont pasd'intérêt stratégique à recourir éventuellement aux médias, par exemple pourobtenir des financements. Enfin, les autorités scientifiques françaises, maisplus généralement une bonne part de la profession, regardent alors leursinterlocuteurs journalistes non sans condescendance et méfiance, comme le résumeavec humour un journaliste scientifique qui s'est spécialisé dans ce domainedans les années 50 : « Qu'est -ce ce que ces gars viennent foutre ? Ils n'yconnaissent rien [. .. ]. Ils n'ont pas à dire, si j'ose dire, nos secrets defabrication ! ». En fait, jusque -là, les médias n'étaient souvent utilisésque pour faire passer des messages d'éducation sanitaire (Pinell, 1992 :270-271) très contrôlés, certains pensant que le reste du travail scientifiquene pouvait être compris par les journalistes, et encore moins par un largepublic. Outre ces oppositions entre les logiques scientifiques et journalistiques, ledéveloppement des médias – notamment de la presse populaire et de la radio, puisde la télévision dès les années 60 – accentue ces antagonismes. En France, commedans d'autres pays tels que les États-Unis, ils se manifestent particulièrementdans le secteur médical. Le problème de l'information dans ce domaine suscite ,surtout à partir des années 50, de nombreux débats dans les instancesprofessionnelles représentatives (Ordre des médecins, Chambre syndicale ,associations de journalistes, etc.). L'une des principales raisons avancées parles professionnels de la médecine pour contrôler (voire interdire dans certainscas) la diffusion de l'information médicale à un large public est la crainte, enfait ancienne, que des médecins n'interviennent dans la presse pour en tirer unprofit publicitaire. D'autres inquiétudes tiennent à la production même desarticles de presse ou des reportages et aux « effets pervers » qu'ils seraientcensés exercer sur le public, notamment sur les malades. La diffusiond'informations dans ce domaine est jugée dangereuse : elle peut, par exemple ,laisser penser que telle maladie est vaincue ou, à l'inverse, incurable ,suscitant ainsi des espoirs ou des déceptions dommageables (Marchetti, 1997 :75-108). D'autres informations trop précises sont également jugées susceptiblesde favoriser l'automédication ou le recours à des « médecins » non reconnus parl'ordre professionnel. Bref, l'enjeu de ces luttes à propos de l'informationmédicale consiste, en fait, pour les représentants des médecins, à préserver, àtravers la défense du monopole de la diffusion de l'information médicale, leurcapacité socialement reconnue de parler et d'agir dans ce domaine (Bourdieu ,1976; Boltanski, Maldidier, 1969 : 51). C'est ainsi que la publicité donnée àune greffe de rein prélevée chez une mère pour sauver son enfant (l' « affaireMarius Renard ») provoque, en 1953, des controverses portant sur le rôle desmédias dans la diffusion d'informations médicales. Dès lors, les représentants du corps médical tentent de s'organiser face audéveloppement de l'information médicale « grand public » qu'ils ne peuventignorer complètement. Plusieurs initiatives expriment ces tentatives derégulation. En 1952, la récente Association des écrivains scientifiques français( aesf) (Skrotzky, 1989 : 43-44) fonde, encollaboration avec la Chambre syndicale de la presse médicale française, unservice de consultations scientifiques téléphoniques à destination des« journaux quotidiens et hebdomadaires de grande diffusion » qui permet dejoindre des spécialistes de chaque discipline, mais cette expérience estde courte durée. En 1953, une proposition de loi qui entend subordonner « à unvisa du ministère de la Santé publique la publication des articles médicaux » ,reçoit un avis défavorable de la Commission de la presse de l'Assembléenationale. L'Ordre desmédecins décide, toujours en 1953, d'adresser des communiqués de presse rédigéspar des spécialistes sur des questions médicales. Mais cette initiative est, làencore, rapidement abandonnée parce que les journalistes jugent ces textes« trop longs » et « sans actualité » (Fiessinger, 1954 : 153). Les autorités médicales – et plus largement scientifiques – qui sont à l'originede ces tentatives de régulation, dans la première moitié des années 50 ,rencontrent un milieu de producteurs d'information scientifique grand public àla fois très restreint et relativement homogène. Durant cette période – il n'yavait alors pas encore vraiment de spécialisation, notamment médicale, àl'intérieur de cette catégorie –, émerge en effet une nouvelle catégorisationindigène, celle du « journaliste scientifique ». Ce sous-espace journalistiqueen voie de constitution comprend un pôle numériquement minoritaire, formé parquelques médecins journalistes proches des prises de positions dominantes dansles grandes institutions médicales. Celui -ci est essentiellement incarné par ledocteur Henriette Fiessinger (1954 : 154), première responsable de l'informationmédicale au Monde, qui estime que cette information est« à part » au sens où elle doit être couverte par des spécialistes : « Leproblème [de l'information médicale] serait en grande partie résolu si lesjournaux acceptaient de confier à des médecins la rédaction des rubriquesmédicales ». Les professeurs de médecine réputés, comme Paul Milliez, ont uneposition relativement proche, jugeant, comme le résume une journalistespécialisée, que la « vulgarisation médicale » doit être « mise en forme par unjournaliste professionnel avec la collaboration et le contrôle du médecin »( Bayon, 1967 : 1217). Ce n'est effectivement pas un hasard si l'expression de« vulgarisation scientifique » semble alors plus utilisée que celled' « information scientifique » ou de « communication scientifique » (Jeanneret ,1994 : 17); elle montre qu'il s'agit avant tout de rendre accessible au publicuniquement des connaissances scientifiques strictement contrôlées. Un autre pôle, numériquement majoritaire, composé des journalistes professionnelsspécialisés (ou en voie de l' être) dans le domaine scientifique, se constitue àcette époque comme un interlocuteur des autorités médicales compétentes. Ilrecouvre la plupart des journalistes spécialisés. À l'inverse d'HenrietteFiessinger, ceux -ci défendent une plus large autonomie professionnelle desjournalistes, considérant que l'information médicale doit être traitée au mêmetitre que les autres. Dans une période où les critères professionnels serenforcent chez les journalistes, les plus virulents expliquent que « lesmédecins exerçants qui apportent leur collaboration régulière à la pressed'information sans être titulaire de la carte d'identité du journalisteprofessionnel font de l'exercice illégal du journalisme » (Bayon, 1967 :1224). Ce groupe des journalistes scientifiques se compose essentiellement de jeunesjournalistes hommes qui, pour la plupart, ont commencé comme reportersgénéralistes dans les quotidiens nationaux (Le Figaro ,L'Aurore, Le Parisien Libéré, France Soir, etc.) ,se sont formés « sur le tas » avant de se spécialiser dans le domaine. Comme auxÉtats-Unis à la même époque (Fraley, 1963), la majeure partie d'entre eux n'adonc pas suivi de formation scientifique mais, semble -t-il, plutôt historique oulittéraire. Le quotidien Le Monde fait quasimentexception : l'information médicale y est traitée par des médecins et, plusponctuellement, au travers d'articles de professeurs de renom. Ce petit groupede journalistes spécialisés s'organise alors progressivement dans la premièremoitié des années 50 pour tenter de faire valoir une information scientifique( et particulièrement médicale), se démarquant du Monde etdu feuilleton scientifique de l' « académicien de service » (Clarke, 1975 : 150 )d'avant-guerre. Pour la plupart d'entre eux, la nécessité de « banaliser »l'information scientifique s'impose : « Le jour où on la considérera comme unfait divers dans les organes d'information, on aura fait un grand pas. .. » (in : Roqueplo, 1974 : 34) explique l'un d'entre eux. Àl'initiative notamment d'André Labarthe, physicien et alors directeur de larevue de vulgarisation scientifique Constellation, quiétait l'équivalent en France du Reader's digest, estcréée, dès mars 1955, l'Association des journalistes scientifiques de la pressed'information (ajspi). Celle -ci donne une existenceformelle à ce qui était perçu jusque -là par les intéressés eux -mêmes comme une« bande de copains ». Comme dans d'autres spécialités journalistiques ,l'organisation de ce groupe de journalistes est en grande partie liée à lasatisfaction des objectifs professionnels pour améliorer leur travailquotidien. En fait, les journalistes spécialisés sont à la recherche d'une doublelégitimité, externe et interne. Se démarquer d'un journalisme jugé« sensationnaliste », en affichant une volonté de « favoriser une collaborationactive avec les chercheurs de tous les domaines en vue d'assurer une informationresponsable et objective du public », a été une des manières d' être crédible auprèsdes autorités scientifiques. La quête d'une légitimité externe est d'abord unecondition nécessaire pour conquérir une relative autonomie professionnelle .Cette question est primordiale pour ces journalistes, par crainte que les« scientifiques, les ingénieurs, les médecins [ne] viennent traiter » cesrubriques et les concurrencer sur le marché du travail. Ces derniers sont eneffet très présents dans la presse professionnelle ou spécialisée de haut niveauet regroupés pour la plupart dans l'Association des écrivains scientifiquesfrançais (aesf). La question de la formation de ceux qui sontchargés de ce traitement fait l'objet de nombreux débats (Roqueplo, 1974 : 78) .La recherche d'une légitimité auprès des autorités scientifiques est, ensuite ,destinée à nouer de meilleures relations avec ceux qui exercent dans ce secteurd'activités (particulièrement les médecins), souvent réticents vis-à-vis desmédias. Par exemple, les membres de l ' ajspi ontsuscité dans les années 50, et surtout 60, en s'inspirant du modèle américain ,des visites de laboratoires, la création de formations (Nelkin, 1987 : 136), etmême celle des premiers postes de chargés de relation avec la presse dans lesinstitutions scientifiques. Ce groupe de journalistes spécialisés cherche aussi ,dans le même temps, à acquérir ou à affirmer une légitimité interne ,c'est-à-dire auprès des principaux dirigeants des titres auxquels ilsappartiennent, notamment pour accroître la place de l'informationscientifique. Là encore comme son homologue états-unienne (Lewenstein, 1997), l ' ajspi va chercher à satisfaire ces objectifsprofessionnels dans le domaine de l'information scientifique en général, et enparticulier dans celui de l'information médicale, en collaborant avec lesinstitutions savantes. Elle se constitue comme l'interlocutrice des autoritésmédicales à une période où, comme dans la première moitié des années 50 ,celles -ci tentent de maintenir ou de consolider leur contrôle. Ainsiquelques-uns de ses membres participent-ils, à partir du 9 mars 1956 et duranttrois ans environ, avec des médecins – particulièrement le président de laChambre syndicale de la presse médicale française et un représentant du Conseilnational de l'Ordre – à une « commission mixte permanente entre la pressed'information et la presse médicale », chargée d'étudier les problèmes posés parl'information médicale à destination du public. En 1958, les dirigeants de laChambre syndicale de la presse médicale française, associés à des praticiens derenom, au Conseil national de l'Ordre des médecins, à l'Ordre national despharmaciens et à la Confédération des syndicats médicaux français (Coupin ,1974 : 26), mettent en place une association, l ' afimec (Association française pour l'information médicale et chirurgicale), chargée defournir de l'information aux journalistes, notamment aux journalistes nonspécialisés. Cependant, à la faveur de l'engagement décisif de « grands patrons » comme leProfesseur Paul Milliez (Skrotzky, 1989 : 72-73), spécialiste réputé desmaladies des reins, les journalistes spécialisés dans l'information scientifiqueparviennent progressivement à nouer des relations régulières et à se constituerun carnet d'adresses. Par exemple, ce petit groupe bénéficie d'informationsprivilégiées grâce aux relations personnelles établies avec quelques médecins .Cette situation, qui n'exclut pas quelques conflits, a pour effet de placer, àpartir de la fin de la décennie 50, l'information scientifique et médicale dansles médias généralistes nationaux sous un double contrôle relatif. Elle est à lafois contrôlée par un petit groupe de journalistes spécialisés et par lesprincipales autorités scientifiques. Ceux -ci se retrouvent dans les mêmeslieux : les congrès comme les « Entretiens de Bichat », qui ont alors un grossuccès de presse, mais aussi les séances régulières des académies (Académie demédecine, Académie des sciences). À la fin des années 50 et dans les années 60 ,l ' ajspi, dont les effectifs sont en augmentation, estreconnue par les principales autorités scientifiques. Par exemple, elle organiserégulièrement des réunions avec des chercheurs. L'information scientifique et médicale « grand public » est alors une informationinstitutionnelle et largement positive en ce sens qu'elle rend essentiellementcompte des progrès de la science. C'est ainsi que la bombe atomique, mais pluslargement l'énergie nucléaire, en pleine Guerre froide, les nouvelles techniques( l'ordinateur, etc.), les vols spatiaux et les progrès de la médecine (lachirurgie à cœur ouvert, le vaccin anti-polio, etc.) donnent régulièrement lieuà des reportages. La rubrique « sciences et techniques » se développe et sembleattirer les rédacteurs en chef et chefs de service des principaux journaux carelle apporte des « sujets neufs ». À l'instar du Monde ,un quotidien populaire à grand tirage, tel que Le ParisienLibéré, publie des séries d'articles rédigés par des journalistes quiont, pour certains, enquêté plusieurs semaines. Les journalistes scientifiquesregroupés dans l ' ajspi produisent une informationcontrôlée, car les journalistes sont très dépendants de leurs sources. Ilsperçoivent leur rôle comme celui d'un « médiateur », d'un « informateur », voired'un « intermédiaire » entre les profanes et les scientifiques, mais ne veulentpas être considérés comme des « auxiliaires médicaux » ou des « éducateurssanitaires ». Leur rapport « positif » à la science, à ceux qui la représententet/ou qui les ont adoubés, doit beaucoup à leurs trajectoires scolaire etprofessionnelle et à la fréquentation des grands scientifiques français. Eneffet, comme on l'a vu, la grande majorité n'a pas suivi d'étudesscientifiques. « J'ai fait HEC [. ..] J'avais envie d' être journaliste et matendance était plutôt littéraire, j'ai toujours été plutôt porté vers leslettres que vers les sciences. Les sciences, ça m'ennuyait plutôt. Et là, j'aidécouvert un monde passionnant. J'ai eu la chance d'obtenir la confiance du PrO. qui était à l'époque [. ..] à Gustave Roussy, à Villejuif, le directeur [. .. ]du grand Centre national de recherche sur le cancer. Qui m'a fait confiance, quia accepté en quelque sorte de me patronner » (entretien avec un journalistescientifique, oct. 1995). Les journalistes, notamment à la télévision, contribuent à promouvoir desreprésentations parfois quasi hagiographiques de la science, décrites parDorothy Nelkin (1987) à propos des États-Unis. Les chercheurs sont souventprésentés comme des personnalités hors du commun qui se livrent à des travaux àla fois mystérieux et incompréhensibles. Les récompenses des prix Nobel attirentl'attention des journalistes spécialisés. Les rares affaires de fraudes quideviennent publiques n'entachent pas l'image d' Épinal que le milieu scientifiquecherche à produire de lui -même même si, déjà à l'époque, la science tend àprendre une dimension politique dans la compétition économique et surtoutmilitaire qui marque les relations internationales des années d'après-guerre .L'information scientifique devient progressivement, au moins dans les titres dela presse dite « de qualité » comme Le Monde, un enjeu politique national etinternational. C'est ainsi qu'apparaissent des enquêtes ou des reportages pluscritiques à l'égard des pouvoirs politiques (c'est le cas notamment des articlesde Nicolas Vichney au Monde, licencié en sciencesphysiques et ancien élève de l'IEP de Paris). Parallèlement, à partir des années 70, la presse, tant en France qu'auxÉtats-Unis, se fait de plus en plus l'écho de certaines implications négativesdes progrès scientifiques comme on le voit, entre autres éléments, dans la largemédiatisation des risques environnementaux (Rothman, 1990). La particularité de ce sous-espace de l'information scientifique tient à sarelative autonomie au sein de l'univers journalistique. Les journalistesscientifiques forment en effet un groupe un peu à part dans le journalisme ,comparable dans son fonctionnement à son homologue américain décrit comme un « Inner Club » (Dunwoody, 1980). Ainsi sont-ils prêts ,à l'occasion, à se mobiliser pour protester contre les sanctions prises àl'encontre de deux d'entre eux, Nicolas Vichney du Monde et Nicolas Skrotzky de l'Agence France Presse, qui n'avaient plus accès àcertaines informations, en organisant un black out surdes informations diffusées par des ministères ou des agences publiques. L'information scientifique produite à la télévision occupe une place singulièredans la mesure où il n'existe, au début des années 50, qu'une chaîne publiquedont la diffusion est très restreinte. Mais les programmateurs accordentd'emblée un espace aux émissions scientifiques, répondant à la « vocation » decet instrument destiné, selon ses dirigeants de l'époque, à faire découvrir la« culture » au « peuple ». La chaîne existante n'est bien évidemment pas soumiseaux contraintes d'audience. Dans la grille des programmes, l'informationscientifique est incarnée, notamment, à partir de 1954, par une émissionspécialisée, Les Médicales, qui a connu une longévitéexceptionnelle puisqu'elle s'est prolongée jusqu'au début des années 80. Lestrajectoires de deux responsables de ce magazine, Igor Barrère – un réalisateurtitulaire d'un doctorat de médecine – et Étienne Lalou – fils d'un professeuragrégé, devenu journaliste après la guerre – sont en affinité avec les objectifsde la télévision de service public de l'époque. C'est ce qui explique une miseen scène très pédagogique, le présentateur se faisant finalement le porte-microde « mandarins », qui, revêtus de leur blouse blanche, sont interviewés avecrespect. Avant d'entrer à la télévision en 1954 à 23 ans, Igor Barrère aété stagiaire, puis assistant auprès de cinéastes réputés comme Orson Welles ouRené Clair. Il est décrit comme un homme « qui bouillonnait d'idées et rêvait desortir de l'anonymat », selon l'écrivain journaliste Yves Courrière (1995 :660). Diplômé en lettres (licence), puis en médecine (doctorat), il a réalisé denombreuses émissions politiques; il a participé notamment à la création en 1966du magazine politique Face à face, de reportagesd'informations comme Cinq colonnes à la une et desémissions spécialisées portant particulièrement sur la science et la médecine .Igor Barrère collaborait avec un jeune journaliste Étienne Lalou, auteur deromans, plusieurs fois décoré pour ses actions résistantes, qui a intégré latélévision quatre ans avant, alors qu'il était âgé de 32 ans, après avoir étéresponsable des émissions littéraires à la radiodiffusion française et rédacteuren chef du service français de la BBC à Londres. Ils produisaient tous les deuxdivers programmes (En direct de. .., Lajustice des hommes, Faire face, etc.). La représentation que le magazine donne de la médecine est très idéalisée. Lestechniques, toujours novatrices, qui sont mises en œuvre par des grands médecinsdu secteur hospitalo-universitaire, sont présentées comme parfaitementmaîtrisées. L'émission se déroule, non pas dans les studios de la télévisionmais à l'hôpital même, la télévision étant « leur » invitée. Elle se dérouleessentiellement dans des services de grands hôpitaux parisiens (Broussais ,Saint-Louis, Necker, Cochin, Saint-Antoine, etc.), parfois dans d'autres régions( Saint-Luc à Lyon, l'Hôtel-Dieu à Marseille, etc.). Le contrôle s'exerce aussilargement dans la sélection des thèmes abordés. Ainsi une recherchedocumentaire, réalisée par l'Institut national de l'audiovisuel, portant sur unesélection d'émissions diffusées entre 1956 et 1967, montre -t-elle combien lesresponsables des Médicales suivent les spécialités etclassements traditionnels de la médecine, autrement dit, ce qui est conforme àla vision que le milieu médical a de lui -même et qu'il faut montrer au public :la chirurgie, la traumatologie osseuse, la rhinologie, la stomatologie, laradiologie, l'obstétrique, la rhumatologie, la pédiatrie, etc. Ces sujetsapparaissent aussi dans une étude, produite par une équipe d'universitaires( Recoules, 1973 : 16-17), sur la « vulgarisation » de l'information médicale àla télévision auprès de téléspectateurs. Les propos tenus par Igor Barrère (2000 : 66) à l'occasion d'une« journée d'étude internationale sociosémiotique science et média », en juin1989, illustrent à la fois son rapport à la médecine mais aussi lareprésentation de son travail de vulgarisateur : « Les émissions médicales sontdevenues une institution qui est entrée dans les mœurs, et qui a même contribuéparfois à leur évolution ! [. ..] Il faut se rappeler que nous avons commencé cesémissions alors que la médecine était encore au niveau de la sorcellerie auprèsde l'opinion publique. Et les médecins en jouaient ! [. ..] Nous avons pénétrédans le monde des médecins, un monde assez fermé, aux mœurs parfois étranges quidemeure à la fois terrifiant et fascinant pour beaucoup de Français aujourd'hui .Ce monde, nous en avons respecté le mythe, car il s'agit d'un mythe réel [. ..] .Et en même temps, nous avons contribué à le démystifier, à faire redescendre surterre avec leur grandeur et leur faiblesse humaine ces demi-dieux de lamythologie contemporaine. Enfin, nous avons été mêlés à une extraordinaireaccélération de l'histoire de l'humanité depuis 1954, aux progrès prodigieux dela science en général et de la médecine en particulier ». Plus qu'un savoir scientifique visant à la connaissance des mécanismes du corpshumain, c'est un savoir essentiellement technique qui est dispensé (Leblanc ,1991-1992). Dans les disciplines médicales, c'est la chirurgie (notamment cardiaque), spécialité particulièrementprestigieuse et spectaculaire de la médecine, qui est alors favorisée (Peneff ,1997 : 273-274). Au-delà de leur caractère noble, les actes chirurgicaux seprêtaient, en raison de leurs propriétés, à une médiatisation plus visuellequ'écrite. Dans ce cas, il ne s'agissait pas de « premières », qui ont faitl'objet d'un grand intérêt de la part de journalistes de télévision comme desgreffes célèbres, mais d'opérations souvent ordinaires que l'on donnait à voir .Par ailleurs, la diffusion, en noir et blanc à l'époque, donnait certainement unaspect moins « sanglant » à ces retransmissions parfois difficiles à supporterpour les cameramen et les téléspectateurs. En dernier lieu, le contrôle etl'orientation de l'information médicale à la télévision étaient facilités par lemonopole de l' État qui excluait toute concurrence. La radiodiffusion françaisecomprenait un Comité des sciences qui donnait son avis sur le contenud'émissions médicales. Non seulement Paul Milliez conseillait les deuxresponsables des Médicales, mais il leur permettaitégalement de pouvoir filmer dans des lieux peu fréquentés par les journalistes :« Ce grand médecin nous a beaucoup aidé par son savoir bien sûr, mais aussi parsa connaissance du milieu médical. Il lui est même arrivé de contacter un patronqui s'opposait à ce que l'on filme dans son service en lui disant que sil'émission ne se faisait pas chez lui, la télévision irait chez un confrère etennemi juré », explique Étienne Lalou. Au milieu des années50 et au début des années 60, d'autres programmes scientifiques sont égalementmis en place (Sciences d'aujourd'hui, Curiosités scientifiques, Magazine scientifique) et l'actualité dessciences fait partie des thèmes récurrents d'émissions plus généralistes (Les coulisses de l'exploit, Visa pour l'avenir, Les bâtisseursdu monde, Si vous voulez savoir, Salut à l'aventure). À la radio et à la télévision comme dans la presse écrite, le développement del'information scientifique entraîne, au fil des années, des spécialisations ausein même du groupe des journalistes scientifiques. Dans ce processus qui sedéroule entre la fin des années 40 et les années 70, l'information médicale vaprogressivement s'autonomiser par rapport à la rubrique scientifique. Lacréation des rubriques médicales dans la presse d'information générale en est unpremier indice. Si elles apparaissent de manière très variable selon les titres ,la plupart ont été créées au cours des années 60 et 70.L'Agence France Presse ena ouvert une à la fin des années 50 (Le Quotidien duMédecin, 28/10/85) et au début des années 60, tandis que Le Mondeconstitue une véritable rubrique médicale en 1956. Mais, dans beaucoup de cas ,l'actualité médicale est encore traitée par des médecins qui font des piges etexercent par ailleurs leur métier, ou bien, on l'a vu, par des journalistesscientifiques qui, dans le cadre de leur travail, s'intéressent aux questionsmédicales. Dans la seconde moitié des années 70 et au début des années 80, les rubriques médicales ,tenues par des journalistes à plein temps, se généralisent dans les principauxquotidiens, newsmagazines, radios périphériques et chaînes de télévision( Marchetti, 1997 : 288-323). Un second indice est la création, en 1970, de l'Association nationale desjournalistes d'information médicale (anjim). Sicelle -ci ne regroupe apparemment pas l'intégralité des rédacteurs médicaux( Coupin, 1974 : 25), elle est représentative, dans les années 70, de cemicrocosme des journalistes médicaux car elle rassemble plusieurs dizaines dejournalistes des médias nationaux d'information générale et politique, de lapresse médicale et spécialisée – certains travaillent pour les deux – ainsi quedes médecins, qui tiennent des rubriques dans cette dernière. Autrement dit, laplupart des rubricards de l ' Aurore, du Figaro, de France Soir, du Monde (sauf Claudine Escoffier-Lambiotte), des chaînes de télévisionet des stations de radio font partie de l'association. Les principes des fondateurs s'inspirent largement de ceux de l ' ajspi, dont certains font ou ont fait partie, et d'uneassociation de journalistes scientifiques américains. Il s'agit en substance dese démarquer des confrères ou des titres accusés par les autorités médicales de« faire du sensationnalisme » en revendiquant une conception exigeante del'information médicale. L ' anjim et ses activités( organisations de réunion, création d'un prix, etc.) est un des moyens utiliséspour tenter de faire exister le journalisme médical, en tant que journalismespécialisé auprès des pairs, des sources, du public et de conforter la place del'information médicale dans la presse d'information générale. Une des conditionsrendant possible ce développement est un accès plus large au champ médical .C'est pourquoi, les membres de l ' anjim suscitent, àleur tour, la création de postes de chargés de la relation avec la presse etorganisent des réunions régulières avec des médecins spécialisés, lamobilisation de soutiens externes, notamment de grands noms de la médecine ,étant une condition nécessaire au développement de ce type d'information. « Dans une société où le bruit tient lieu de réputation, lemédecin en s'enfermant obstinément dans la dignité et le silence sera de plus enplus dupé et déconsidéré. S'ils refusent de se pénétrer de cette vérité, lesjournalistes médicaux, qui se sont enrichis de son éthique et qui n'ignorentplus ces problèmes professionnels, seront rapidement débordés, leur action seraannihilée par une cohorte de valets de plume qui ont choisi la positionavantageuse de flatter l'ignorance des foules et leur attirance pour lemerveilleux » (Extrait d'un article d'un des fondateurs de l ' anjim - Bayon, 1967). Dans ce microcosme des journalistes médicaux en voie de constitution dans lesannées 60 et 70, la rubrique du Monde occupe une place à part dans la mesure où ,à l'inverse d'autres responsables de médias, son directeur de l'époque, HubertBeuve-Mery, a toujours souhaité confier le traitement de l'information médicaleà des médecins. Le docteur Henriette Fiessinger, femme d'un professeur demédecine et amie du directeur, a, comme on l'a vu, assuré pendant quelquesannées, lors de l'immédiat après-guerre, le suivi de l'information médicale maiselle a été remplacée par Claudine Escoffier-Lambiotte. Recrutée elle aussi parHubert Beuve-Mery, cette dernière a contribué à créer, à partir de 1956, larubrique médecine du Monde qu'elle a dirigée jusqu'en1988. Elle avait cumulé les titres scolaires, obtenant trois doctorats enmédecine. Mariée à un chirurgien réputé, précocement décédé, et mère de quatreenfants, elle a travaillé avec lui pendant quelques années. L'information médicale (et scientifique aussi )n'était pas prioritaire dans un journal donnant une large place à l'actualitépolitique internationale et nationale. La place singulière de la rubrique médicale du Monde tientà la fois à la position du quotidien et aux propriétés sociales de ClaudineEscoffier-Lambiotte, donc à sa manière de concevoir son poste. Bien que trèsrapidement à plein temps sur cette rubrique, elle ne se définissait pas comme« une journaliste » mais plutôt comme un « médecin égaré dans le journalisme » .Sa trajectoire scolaire et ses relations déjà importantes dans le milieu médical– elle connaissait tous les pontes de la médecine française, siégeait au Conseild'administration de l'Institut Pasteur et elle a participé en 1967 à la créationde la Fondation pour la recherche médicale – manifestaient cette positioninédite dans le journalisme médical de l'époque. Elle signait ses articles deson titre de docteur et avait une conception de l'information médicaleimpliquant un niveau élevé d'information et d'analyse, correspondant auxattentes des lecteurs très cultivés du Monde. Ainsi nerédigeait-elle d'article qu'après avoir rassemblé une documentation sur le sujetincluant les articles des revues scientifiques internationales de langueanglaise. Mais Claudine Escoffier-Lambiotte avait aussi les qualités quidéfinissent le « bon journaliste » du Monde : elledisposait d'un carnet d'adresses très fourni, on lui reconnaissait une « plume »et elle était capable de réagir rapidement à l'événement. Elle était attachée àune conception pédagogique de l'information médicale selon laquelle, pourreprendre son expression, « tout homme de bien comme on dit ne pouvait plus sepasser d'une formation scientifico-littéraire ». Enfin, la position du Monde dans le sous-espace desjournalistes médicaux est également à part au sens où cette rubrique est nonseulement ancienne mais aussi mieux dotée en personnel comparativement auxautres titres de la presse quotidienne nationale omnibus. ClaudineEscoffier-Lambiotte a contribué à imposer au Monde lamédecine comme spécialité autonome, obtenant un supplément hebdomadaire intitulé« Le Monde de la médecine » à partir de 1967 etl'embauche, à la fin des années 60, à la fois de Martine Allain-Regnault, unejournaliste, et d'une archiviste, Michèle Evin. Au milieu des années 70, ClaireBrisset, une jeune journaliste titulaire du diplôme de l'IEP de Paris, filled'un psychiatre réputé, est venue renforcer la rubrique. Dès lors, la couverturede l'information médicale s'élargit en raison de changements internes au champmédical, mais aussi de facteurs externes, la médecine devenant un enjeuéconomique et politique important. Martine Allain-Regnault est recrutée ,notamment pour ses articles dans une revue scientifique portant sur la biologiemoléculaire, alors en plein développement, et Claire Brisset, non seulement pours'occuper des problèmes de coût de la santé, mais aussi pour traiter des pays envoie de développement qui constituent un de ses champs de compétence. Enfin, ladernière caractéristique de la rubrique médicale du Monde est sa forte autonomie au sein du quotidien. Bien qu'étant dépendante du service« Informations générales » ou « Société » – la dénomination a varié suivant lesépoques –, la rubrique médicale avait conquis une autonomie relativement fortequi était liée au manque de connaissance spécifique des chefs de service (larubrique était appelée parfois « la noblesse ») – comme c'était le cas dansd'autres spécialités (sciences, défense par exemple) – et aux modes defonctionnement ordinaire du quotidien laissant une grande marge de manœuvre auxresponsables des rubriques et services. Si l'information médicale, on l'a vu avec la création des Médicales, était présente dans les programmes des télévisions, lacréation de rubriques spécifiques a été, semble -t-il, relativement tardive parrapport à ce qu'il s'est passé dans des grands titres de la presse écriteparisienne. Ce décalage doit probablement beaucoup au faible intérêt porté à cesproblèmes par les rédactions en chef des journaux télévisés, et surtout auxmodestes moyens d'information des chaînes de télévision publiques françaisespendant longtemps. Faute de travaux sur les rédactions de radio, il estdifficile d'en faire l'analyse même s'il semble que, pendant longtemps, lesradios périphériques (RTL, France Inter, Europe 1) ont eu recours à deschroniqueurs médecins qui n'étaient pas en poste à plein temps pour traiter del'information médicale. Dans ce sous-espace du journalisme médical comme dans lechamp journalistique plus généralement, les chaînes de télévision occupent alorsune position marginale. Les premiers journalistes spécialisés, qui ne sont pas des journalistes médicaux ,comme François de Closets (sciences) et Emmanuel de la Taille (économie), sontrecrutés en 1965 dans la presse écrite. Il s'agit pour le premier d'unjournaliste devenu spécialiste – il travaillait à l'Agence France Presse etaussi à Science et Avenir en 1964( Tudesq, 1991 : 143) – puisqu'il n'a aucune connaissance scientifiqueparticulière ayant fait des études de science politique et de droit (IEP-Parispuis DES d'histoire du droit et de droit public). Face à la complexitécroissante de certains domaines, les responsables des programmes d'informationveulent donner des gages de crédibilité : « J'avais introduit quelqu'un denouveau : le spécialiste. Car cela n'existait pas, tout le monde savait tout, onracontait n'importe quoi. .. Et nous avons débauché les meilleurs » (Brusini ,James, 1982 : 119), explique rétrospectivement Edouard Sablier, un desresponsables de l'information télévisée. Au début, ces « spécialistes » sont« mal vus » comme le dit l'un d'eux, parce que le journaliste doit savoir« parler de tout ». Les journalistes spécialisés participent progressivement audécoupage et à la diversification des journaux télévisés, encore très largementdominés par la politique. Ils sont suivis par de nombreux autres à la fin desannées 60 et 70, à la faveur des transformations de ce marché en pleinexpansion : autorisation de la publicité de marques à partir de 1968, créationde la troisième chaîne le 31 décembre 1972. C'est aussi dans les années 70 queles journaux télévisés prennent leur forme moderne (présentateur unique ,séquences minutées précisément, incrustations, etc.) et deviennent à la foisconcurrentiels et plus « professionnels ». L'information médicale est présente de façon restreinte dans les JT sur lapremière puis sur la seconde chaîne, mais elle trouve surtout place dans lesannées 70 au sein demagazines spécifiques, comme les Médicales, toujours surla première chaîne, de magazines scientifiques en soirée (L'avenir du futur), ou de programmes destinés àun public féminin dans l'après-midi (Aujourd'hui madame et Le regard des femmes diffusés respectivement sur laseconde et la première chaîne). Plus ponctuellement, elle est traitée dans desémissions généralistes (Les dossiers de l'écran, Fenêtresur qui développe alors une actualité médicale régulière), ou dans delongues séries telles que Les jours de notre vie. C'est dans la deuxième moitié des années 70 que desrubriques à part entière sont créées, c'est-à-dire bien après la constitutiondes rubriques scientifiques, sans pour autant que la coupure science/médecinesoit nette. En effet, avant que ne soient mis en place des services spécialisésdans l'information médicale, à la télévision comme dans la presse écrite, c'estsouvent le journaliste scientifique qui traite des sujets « médecine ». Cette période de l'après-guerre aux années 70 fait donc apparaître undéveloppement progressif du journalisme médical dans les médias d'informationgénérale, qui va s'accélérer nettement et prendre d'autres formes dans lesannées 80 et 90 (Marchetti, 1997). En effet, comparativement à ces deuxdernières décennies marquées par une politisation, une « économicisation » etune moralisation croissante des enjeux médicaux, tout particulièrement sousl'effet du développement du sida et des problèmes de financement de la sécuritésociale, force est de constater que les luttes autour de la médecine en Franceétaient relativement confinées dans des espaces clos (Gaïti, 1999 : 159) entrela fin des années 40 et les années 70. La médecine était encore davantage uneaffaire de spécialistes. Ainsi la comparaison historique montre -elle que lesreprésentations médiatiques étaient plus consensuelles qu'aujourd'hui, dans lamesure où elles étaient en grande partie le produit du travail des grandesinstitutions médicales en collaboration avec les journalistes spécialisés. Laparole des scientifiques dans les médias généralistes était beaucoup plusimportante que celle du public, notamment des malades, comme l'ont montré IgorBabou et Joëlle Le Marec (2003 : 75-79) .
Cet article propose une analyse du processus de construction des rubriques scientifiques, entre le début des années 50 et le début des années 80, dans les médias généralistes français. À partir du cas plus spécifique de la médecine, il montre que l'information diffusée sur cette discipline occupait une place « à part », au sens où elle était relativement bien contrôlée par les autorités médicales en collaboration avec un petit groupe de journalistes spécialisés. La comparaison historique fait voir que les représentations médiatiques de la médecine étaient plus consensuelles qu'aujourd'hui dans la mesure où la parole des scientifiques n'était pas contestée.
sciencesInfo_10-0245720_tei_1095.xml
termith-362-communication
L'usage des technologies de l'information et de la communication (tic) est progressivement apparucomme une question inévitable tant pour les décideurs institutionnels et lespromoteurs des tic que pour les chercheurs. Naturellement, les travaux ontprésupposé le bien-fondé du développement de l'usage et conduisent ainsi, plus oumoins volontairement, à ignorer les non-usagers, considérés alors comme une« non-catégorie  » en soi (Boutet, Trémenbert, 2009  : 70) ou apparaissant « ennégatif  » dans les études statistiques disponibles sur les usagers (ibid .  : 74). En effet, en France comme à l'étranger, l'usagedes tic est implicitement admis comme objectif à atteindre ou gage d'une certainemodernité. L'usage limité, voire le non-usage, constitue une anomalie ou le symptômed'un manque de développement social accompagnant le progrès technologique, ce qui setraduit dans les discours institutionnels, économiques et scientifiques par destermes très connotés comme « exclusion  » ou « fracture numérique  ». Le récentprojet Spatial Literacy, mené en Grande-Bretagne par l ' University College de Londres et les universités de Leicesteret Nottingham, en est un exemple révélateur  : il propose une « classificationgéodémographique  » (Longley, Ashby, Webber, Li, 2006) des usagers des tic quidistingue huit groupes sociaux (des non-usagers aux usagersintensifs) et les localise sur des cartes (celle de Londres par exemple). Les deuxpremières catégories, qui correspondent au corpus de notre recherche, sontqualifiées de « non engagés  » (e-unengaged) et de« marginalisés  » (e-marginalized). Poussant cette logiquede raisonnement jusqu' à la caricature, les photos illustrant ces deux catégories surle site web du projet montrent des profils de personnes défavorisées ou âgées. Lacatégorie suivante s'intitule « sur le point de devenir usagers  » (becoming engaged). À l'extrémité inverse de l'échelleproposée, les usagers intensifs sont qualifiés d' « experts  » (e-experts) et la fiche descriptive publiée sur le site indique qu'ilsconçoivent les tic comme améliorant leur « capital humain  ». La majorité destravaux scientifiques s'est donc portée sur les usagers, reléguant les non-usagersau rang de futurs usagers à convertir. De fait, cette doxa amaintenu les chercheurs dans une perspective normalisante, au risqued'instrumentaliser les études scientifiques en les mettant au service des politiquespubliques ou économiques qui sont parfois les propres financeurs de ces travaux .D'ailleurs, cette tendance est fortement présente dans certaines recherchesinternationales se fixant pour objectif de favoriser l'appropriation destechnologies de l'internet dans les entreprises ou de contribuer à la réduction dela fracture numérique (digital divide) en aidant lesnon-usagers à devenir usagers. Claudia Pelletier et Éliane Moreau (2008) présententune étude exploratoire de ce genre pour identifier les facteurs critiques de succèsde l'appropriation des tic dans les pme  : technologie (fiabilité, sécurité…) ,pratiques de gestion (clarté, communication…), facteurs organisationnels( interlocuteurs, coopération…), conditions facilitantes (utilité, disponibilité…) ,style d'implantation (identification des besoins, gestion des problèmes…) etperception du changement. Dans un contexte davantage politique, l'étude menée parPaul F. Cleary, Glenn Pierce, Eileen M. Trauth (2005) sur les disparités d'usage del'internet aux États-Unis chez les enfants scolarisés souligne l'importance descaractéristiques socio-économiques individuelles et familiales, des ressources etdes compétences en informatique à la maison et à l'école pour expliquer le faibleusage dans certains foyers américains. Le projet anglais cité précédemment en estaussi un exemple, son financement étant assuré par le programme européen E-society qui vise à développer la société del'information. Dans le cas particulier de l'usage des tic en éducation (tice), dès les années 80 ,dans un contexte politique de promotion de l'informatisation en milieu scolaire, ondénombrait de la même façon de nombreuses typologies portant sur l'usage ou surl'usager. Par exemple, Josianne Basque et Karin Lundgren-Cayrol (2003) recensaiententre 1980 et 2001 vingt-quatre typologies très majoritairement proposées en langueanglaise et pour la plupart nord-américaines. Dans cette étude, la préoccupation deschercheurs consistait moins à élaborer un système de classification systématique ethiérarchisé qu' à tenter de rassembler « plusieurs caractéristiques en un ensembleorganisé, une macro-catégorie jugée signifiante  » (ibid .  :5). Or, les caractéristiques qui guidèrent le travail de cesauteures portaient sur l'observation de situations d'usages avérés – ou souhaitéspar les personnes de l'échantillon – et passées au crible de trois macro-catégoriespermettant de différencier les typologies d'usage à partir de trois approchescentrées sur l'acte d'enseignement/apprentissage pour l'une, sur l'école ou surl'apprenant pour les autres. La conclusion soulignait le caractère heuristique de la mise en tension de variété de points devue dans cette typologie de typologies. Malgré leur pluralité, les points de vuesont orientés avec comme présupposé la progression dans l'usage. L'idée de non-usagen'est jamais véritablement abordée en tant que telle. Les travaux répertoriéss'inscrivent dans une vision positiviste de l'usage des tic en éducation consistantà recenser et classifier les utilisations possibles pour favoriser le développementdes usages. La substitution du terme « usages  » par « applications  » dans le titrede la version remaniée de cette étude (Basque, Lundgren-Cayrol, 2002) témoigne decette orientation positiviste des recherches, les deux termes étant considérés commesynonymes. Dans le même ordre d'idée, Jacques Rhéaume (2001) traite le non-usaged'une manière très orientée à l'occasion des cours d'intégration des « ntic  » enmilieu scolaire. En effet, il identifie des enseignants peu enclins à utiliser lestice et qualifie de « réfractaires  » ces « pessimistes  » prompts à argumentercontre toute utilisation de nouveaux médias. Les réticences exprimées verbalementpar ces enseignants sont interprétées comme étant la conséquence de difficultésrencontrées avec la technique. Magistralement, le chercheur conclut que si lesenseignants appartenant à cette catégorie « réussissent à vaincre leurs difficultésd'appropriation technique, ils peuvent facilement sortir de ce groupe  ». Plusrécemment et dans un cadre directement politique, l'étude commanditée par la sdticefin 2006 sur les usages desdispositifs tic dans l'enseignement scolaire identifie, à partir de 202questionnaires, cinq grandes familles de comportements en fonction de la proximitédes opinions et indépendamment de l' âge, de l'activité des répondants. L'étudecartographie les opinions pour préparer la programmation d'actions ciblées. Lereliquat fort important de « non-utilisateurs  » (23 % des personnes interrogées )constitue pour les analystes autant d'usagers potentiels à convaincre, à aider et àaccompagner dans la conquête de l'usage. L'objectif est d'amener tous lesenseignants à utiliser les tice. À ce titre, la frange des non-usagers (personnes« en difficulté  » ou « désengagés  ») ne saurait être pensée autrement qu'en termesde poches résiduelles d'insuccès que les politiques récurrentes s'évertuent àcombattre. La solution consisterait alors à mettre en place des dispositifsd'accompagnement adaptés proposant des formations centrées sur les usages et lamaîtrise des outils. Cette vision positive de l'usage semble également comprise dansles travaux de Serge Proulx (2005  : 10) qui, depuis plus de 25 ans, analyse la« construction sociale  » des usages et de l'innovation sociotechnique. Il énoncequatre conditions essentielles à l'appropriation sociale d'une technique  : lamaîtrise technique et cognitive de l'artefact, l'intégration significative del'objet technique dans la pratique quotidienne de l'usager, l'usage répété de cettetechnologie qui ouvre vers des possibilités de création et la représentationadéquate des usagers dans les politiques publiques et les processus d'innovation .Aborder frontalement la question des non-usages ou des usages limités en tant quetelle nécessite de s'éloigner de ces visions majoritairement positivistes etconcentrer notre étude sur les pratiques dans un contexte professionnel particulier. De précédents travaux concernant l'usage de plateformes collaboratives par desacteurs professionnels de l'éducation et de la santé dans le domaine social( Kellner, Massou, Morelli, 2006, 2007, 2008; Morelli, 2008) ont permisd'identifier un ensemble de résistances irréductibles, de situations derenoncement ou d'inadéquation des tic par rapport aux attentes, aux projets etaux habitudes culturelles et professionnelles. Dans ce contexte particulier, lenon-usage est-il relégué au rang de singularité anecdotique dans la montée enpuissance d'un phénomène d'adoption des tic qui se généralise dans la plupartdes milieux professionnels et sociaux ou relève -t-il d'autres facteurs ? Commentles acteurs eux -mêmes l'expliquent-ils ? En outre, contrairement à d'autressecteurs très investis par les politiques publiques nationales et régionales enfaveur des tic comme la culture, l'éducation, les entreprises oul'administration, le domaine professionnel qui nous intéressent ici apparaîtmoins fortement touché par des mesures d'incitation à l'usage de tic commel'internet. Plusieurs acteurs interrogés ont indiqué que l'introduction del'informatique dans leur établissement, puis de l'internet, datait seulement dudébut, et parfois même du milieu, des années 2000. Elle apermis d'accompagner l'informatisation de la gestion des dossiers d'usagers ,puis les politiques d'évaluation des établissements ou structures travaillantdans le domaine du social (cette évaluation impliquant de produire des bilansstatistiques de l'activité). Cette informatisation a d'abord concerné lespersonnels cadres, puis s'est étendue à l'ensemble des équipes. Pour accompagnerce processus, des cycles de formation interne, propres à chaque structure etdédiés à l'utilisation des outils bureautiques et à l'internet, ont été mis enplace seulement à partir de 2009. Au sein de ce champ du social, le rapport auxtic des professions éducatives (Ion, 1984  : 27-28) et, en particulier, deséducateurs spécialisés et des éducateurs de jeunes enfants est rarementinterrogé par les chercheurs. Dans nos entretiens, nous avons constaté que laculture professionnelle des éducateurs interrogés est marquée par le goût et lanécessité de préserver une liberté organisationnelle. Bien qu'étant plus oumoins sollicités, ces derniers ne se sentent pas forcément obligés d'utiliserles tic. Soucieux de préserver une certaine indépendance, ils se projettent dansl'avenir en se positionnant plus comme « agents ' ' autonomes ' '  » que comme« exécutants  » ou « assistants  » (Walter, 1988  : 15). À travers leurspratiques dans des usages à la fois contraints et non contraints, la nature etles conditions d'exercice de leurs interventions et leur culture professionnelleles engagent donc et dans des situations d'usages faibles, voire denon-usages. Lors de nos observations précédentes, la sociologie des usages nous avait aidés àformuler des facteurs explicatifs aux situations de non-usage rencontrées. Ladimension culturelle due au poids et à l'influence des pratiques antérieures ,mise en lumière à travers l'analyse de la « généalogie des usages  », réduit lenon-usage à une phase de mise à l'épreuve de l'usage qui se traduit parl'existence de « rejets [et d' ]abandons  » (Jouët, 2000  : 501), témoins de« résistances du corps social, [qui, conjuguées] au poids des habitudes et de latradition contrecarrent la diffusion rapide de l'innovation  » (ibid .  : 500). La question de l'appropriation reprise enpartie à Michel de Certeau (1990) témoignait de la non-passivité de l'individuconsommateur qui, à travers des tactiques personnelles, à force de « ruses  » etde « braconnages  », est entraîné dans un rapport singulier aux tic, vers une« construction des usages  » étroitement liée à ses intérêts. Nos résultatsconfirment bien l'importance donnée par Fabien Granjon (2010) dans ce dossieraux significations d'usage projetées et construites par les individus sur ledispositif technique. La construction des usages révèle alors l'existence depositions hétérogènes par rapport aux tic. Nos analyses nous ont permis demettre en lumière un paradoxe que les travaux de Josiane Jouët et Serge Proulxn'identifient pas  : le processus d'appropriation des tic secrèterait en sonsein les ferments d'une limitation d'usage ou du non-usage. Plus précisément ,devenant la règle pour une majorité d'usagers, l'utilisation partielle desfonctionnalités produirait et entretiendrait alors une certaine distance avecl'outil. Cette distance est d'une autre nature que celle réclamée par ladifférenciation pointée par Josiane Jouët entre la sphère privée comme lieuprivilégié de l'individualisation de l'usage et d'épanouissement, et la sphèreprofessionnelle, terrain spécifique d'affirmation, d'accomplissement et deréussite. D'une certaine manière, notre recherche s'inscrit davantage dans lalignée des exigences de la sociologie critique des usages sociaux telles que lesexplique Fabien Granjon (2004  : 3 )  : relier les pratiques des acteurs usagersà des « manières de voir  », à une « co-production de l'objectif et dusubjectif  » qui articule des déterminants sociaux généraux et une diversité desusages développés et du sens imputés à leurs pratiques. En effet, notreparti-pris est d'engager une démarche compréhensive pour identifier le sens queles acteurs sociaux attribuent à leur faible ou non-usage des tic à travers lediscours tenu, faisant apparaître des problématiques liées à l'appropriationpartielle des tic, au lien et au rapport social qu'elles contribuent à créer ouà modifier. Pour aller plus loin, nous avons choisi une approche qualitative fondée sur 13entretiens semi-directifs avec des professionnels exerçant dans des structures publiques ou associatives en Lorraine et auGrand-Duché de Luxembourg. Notre choix s'est orienté vers des professionnels dusocial exerçant une fonction éducative ou de conseil directement auprèsd'enfants ou d'adolescents, mais également en direction des parents. Parmi eux ,on compte dix éducateurs, une chargée de mission en insertion et deuxconseillères conjugales et familiales. Toujours en évolution, ces métiers serévèlent parfois difficiles à classer. Si, dans une perspective historique ,Jacques Ion (1984  : 25-28) distingue les professions de l'assistance, lesprofessions éducatives et les professions de l'animation, il recense égalementde nouveaux métiers encore en mutation, comme les métiers de l'insertion. Dansla description des métiers du social qu'il emprunte au ministère de laSolidarité et de l'Emploi en 2000, ces derniers n'y figurent pas. En revanche ,si des fonctions d'aide à l'insertion sont notées comme des missions possiblesd'un animateur sur le portail des métiers de la santé et du social en 2010, elles n'y apparaissent pas encore commerelevant d'un métier spécifique, contrairement à celui de conseiller conjugal etfamilial. On voit bien ici la complexité de la construction de ce champprofessionnel en perpétuelle transformation. Si l'on s'en tient à laclassification des métiers proposés par ce portail, ils appartiennent à larubrique « accompagner  » et aux catégories des « métiers d'aide et deconseil  » et des « métiers de l'éducation et de l'animation  ». Par le guided'entretien, nous avons voulu vérifier un certain nombre de raisons denon-usages exprimées dans les discours des acteurs interrogés et identifiéesdans nos études précédentes. Pour constituer le corpus, nous avons demandé àplusieurs contacts exerçant dans différentes structures sociales de nousindiquer des non-usagers ou faibles usagers. Certes, ce repérage repose sur lareprésentation que ces sujets se font des usages de leurs collègues. Néanmoins ,les questions posées lors des entretiens ont permis de vérifier la pertinence duprofil par rapport aux critères posés, ce qui nous a d'ailleurs conduits àdéclasser un quatorzième entretien mené avec une personne qui s'est révélée êtreune usagère régulière. Ainsi avons -nous cherché à savoir comment les acteursinterrogés identifiaient leur non-usage dans le temps et dans le rapport auxoutils, quel sens ils lui donnaient (motivations, représentations), quellepouvait être l'influence de leur environnement personnel et professionnel( relations, organisation du travail, injonctions ou contraintes) et de leurconception de la communication interpersonnelle et collective (nature etmodalités des échanges). Les premiers résultats ont montré qu'il n'y avait dansnotre échantillon que deux non-usagers stricts qui n'utilisent jamaisd'ordinateur, que ce soit pour un usage professionnel ou personnel. Celaconcorde avec les résultats de plusieurs études quantitatives auxquelles (voirKellner, Massou, Morelli, 2010), et qui montrent qu'il y a finalement peu denon-usagers absolus. Le reste des entretiens concerne des personnes faiblementou très faiblement usagères qui utilisent épisodiquement la messagerieélectronique, les outils de bureautique standards et recherchent del'information sur l'internet. C'est pourquoi nous préférerons l'expression« usages limités  » à celle de « non-usages  ». Le principe de généalogie des usages énoncé par Josiane Jouët (2000  : 500-502 )qui identifie une filiation et une hybridation interne des moyens decommunication et une certaine inertie du corps social, est en partie vérifiablesur notre corpus. La majorité des personnes interrogées ayant entre 40 et 50 ansa mené sa carrière sans utiliser les tic et continue à travailler sans unrecours fréquent à ces outils. L'analyse des réponses obtenues a permisd'identifier des facteurs que nous avons regroupés en quatre catégories  : lerapport de ces professionnels aux tic, la dialectique introduite par les ticentre communication directe et communication médiatée, l'influence de la cultureprofessionnelle et les modifications des frontières que les tic introduisententre les sphères privées et professionnelles. La technologie inspire à certains craintes et méfiance. Plusieurs personnesinterrogées redoutent d'abîmer le matériel qui leur semble être aussicoûteux que fragile. Prétexte à justifier le non-usage, cette craintes'estompe toutefois avec l'usage. Subsistent alors deux types de méfiance  :la mise en doute de la fiabilité des nouveaux modes de communication – laposte étant jugée davantage digne de confiance que le courrierélectronique – et le danger de se faire posséder par l'outil, l'apparentefacilité d'accès à l'information renvoyant à un risque de dépendance. Loind'imposer les conditions et les modalités d'usage, l'ordinateur resterait unoutil que l'on utilise à son gré. Les discours témoignent d'une volonté dechoisir les moments d'usage et de non-usage. Ces moments dépendent del'organisation du travail, les contingences professionnelles amenant parexemple certains à se déplacer sur plusieurs sites quotidiennement, et àutiliser l'ordinateur de bureau en début ou en fin de journée. Ces momentspeuvent également être circonscrits à la sphère personnelle et résulter dechoix assumés. Quelle que soit la situation rencontrée, l'ordinateur resteavant tout un outil dont la possession ne suffit pas à entraîner l'usage .Pour beaucoup, les besoins doivent préexister à la découverte de l'outil, cequi témoigne d'une vision purement utilitaire et d'un certain détachement ,puisqu'aux dires de certains, le besoin ne saurait naître de l'outil. Laquestion de l'utilité de l'outil serait bel et bien au cœur de l'usage .L'apprentissage des modalités de fonctionnement et la maîtrise, mêmepartielle, du « cadre de fonctionnement  » de l'outil, c'est-à-dire del'ensemble des savoirs et savoir-faire mobilisés ou mobilisables dansl'activité technique (Flichy, 1995  : 208-213), ne suffisent pas, encorefaut-il que ce dernier s'inscrive dans un projet de la part des usagerspotentiels. L'usage des tic par les acteurs sociaux interrogés susciteparadoxalement des représentations tant positives que négatives. Lesavantages trouvés dans l'usage des outils informatiques concernent l'accès àl'information estimé incontestablement plus rapide et plus précis .Communiquer une information par mail en interne est jugé globalementefficace, notamment par l'adressage personnalisé d'informations. La mise enligne de plannings procure également un gain d'autonomie et une traçabilitédes personnels amenés à couvrir un secteur professionnel important. Face àces bénéfices affirmés s'installe et se développe toutefois un ensemble dereprésentations négatives empreintes de déceptions et de frustrationsrévélées par l'expérience. La mise à disposition de tableaux, destatistiques ne doit faire oublier ni la dimension humaine dansl'accompagnement ni la nécessité de prendre le temps de la réflexion. Unsentiment de complexification des procédures de travail émerge d'unedifficulté à renoncer à des habitudes installées (par exemple le besoin d'unrapport au papier pour la production d'un écrit professionnel). Cespratiques établies et stabilisées sont bousculées par les procéduresinformatisées qui sont proposées ou imposées. Ainsi une éducatricespécialisée explique -t-elle  : « Pour reprendre l'exemple du cahier informatisé, ça va plusvite de prendre son bic et de se mettre à écrire… le geste est plus naturel[ …] taper sur le clavier… c'est une question de pratique  : pour moi c'estplus naturel de prendre un bic et d'écrire certaines choses parce que je nesuis pas hyper rapide et dans ma pratique professionnelle il y un ensemblede moments où les tic n'ont pas lieu d' être (quand on est dans lacommunication avec une maman, quand on est en entretien). C'est plus quandon est dans une démarche de recherche administrative, de recherched'informations. Les tic sont utiles à des moments précis etidentifiables  ». L'écart entre les attentes liées à l'usage des tic et la pratique enelle -même, avec son lot de difficultés et de frustrations, participeégalement de ce sentiment  : « La facilité de l'emploi, c'est ce qui me gêne, car pourmoi c'est utile car ça apporte une aide à la réalisation de tas de choses ,mais c'est malheureusement pas toujours d'une facilité d'emploi en gros jedirai comme ça, donc parfois je suis perdue dans une organisation que jetrouve trop complexe, ou je suis parfois lassée d'attendre que les pages sechargent et quelque part ça provoque en moi je sens un peu d'énervement ,c'est pour ça que pour moi, il est hors de question que je reste deux heuresdevant l'ordinateur, bon si c'est pour faire du traitement de texte, ça va ,sinon pour dans la recherche et puis tout  » (éducatrice spécialisée). Dans la sphère personnelle, on retrouve des individus qui sont amenés àutiliser les tic pour d'autres. Les maris ou les enfants, souvent cités ,correspondraient à ce que Neil Selwyn (2006  : 288) appelle des « personnesmédiatrices  ». On entre alors dans une « logique de médiation  » (Caradec ,2001  : 125-126) ou de « médiations d'usage  » (Boutet, Trémenbert, 2009  :88). Ces intermédiaires apparaissent fréquemment dans différentes étudesmenées sur les non-usagers, en particulier chez les seniors (Morris ,Goodman, Brading, 2007; Peacock, Künemund, 2007) mais aussi parfois chezles enfants (Cleary, Pierce, Trauth, 2005). Cet accompagnement crée le lienentre tic et non-usagers, réduisant la fameuse fracture numérique etconduisant les non-usagers à devenir usagers par procuration. Mais cetteaide peut aussi entraver ou décourager l'usage en le transférant sur unepersonne tierce, dans ce que Vincent Caradec (2001  : 125-126) nomme unelogique de médiation de type « porte  ». Nos résultats montrent égalementqu'au niveau professionnel, coopérer peut aussi limiter la relation quechacun entretient aux tic et générer des situations de non-usage. En effet ,les entretiens ont permis d'identifier l'existence de situations régulièresau cours desquelles s'instaure le partage de tâches en fonction du goût, dela disponibilité et de la compétence des collaborateurs en matière derecherche ou de mise en forme d'informations. Plusieurs personnesinterrogées ont affirmé avoir laissé la gestion de leur courrierélectronique à leur secrétariat ou à des collègues (relève des courriers ,impression papier des mails reçus, saisi et envoi des réponses sur la based'un document rédigé à la main. ..). L'entraide consiste alors pour lespersonnels à mutualiser les compétences, à s'adapter tant implicitementqu'explicitement aux disponibilités de leurs collègues et à définir unecertaine répartition des contraintes professionnelles liées à l'usage destic, comme en témoignent ces deux éducatrices  : « Je n'ai pas besoin de chercher beaucoup parce que mescollègues le font et elles font imprimer les textes intéressants … je saisdonc où aller ailleurs pour trouver ce qui a déjà été sélectionné […] moipersonnellement je ne cherche pas beaucoup. On a eu par exemple un casd'enfant atteint d'une forme particulière de leucémie. Pour en savoir plussur cette maladie j'ai dit à [une collègue] de me sortir plusieurs pages… jene travaille jamais seule dans la journée, il y a toujours quelqu'un poureffectuer la recherche pour moi…  ». « Pour letravail administratif, il y a toujours une [collègue] qui fait lerapport, qui tape sur l'ordinateur, le rapport d'activité de fin d'annéeest pris en charge par [X] ou [Y ]  ». S'instaure alors une répartition des tâches entre usagersconfirmés et volontaires, ce qui contribue àengager de véritables situations de contournementd'usage tacitement cooptées par l'ensemble. En définitive, la margede progression est infime pour les néophytes puisque ces derniers peuvents'appuyer sur l'aide de collègues davantage usagers, voire éviter certainessituations d'usage. Nous parlerons ici de communication directe pour qualifier l'échangesynchrone et en présentiel entre au moins deux personnes. La « communicationmédiatée  » sera utilisée dans le sens proposé par Bernard Lamizet (1989  :68 )  : « Ce que l'on entend ici par communication médiatée est lesimple principe d'une communication sociale dont la signification et lesstructures sont mises à distance (médiatées) par la médiation qu'enreprésentent les appareils de diffusion, et les appareils politiques decontrôle et de régulation. En revanche, ce que l'on entend par communicationmédiatique ou communication médiatisée, ce sont les structures decommunication qui, tombées dans le domaine public et appropriées par tous ,ont perdu leur spécificité de signification, et n'ont plus de sens qu'enréférence à leurs modes de diffusion  ». Ici, la communication médiatée correspond aux échanges électroniques ou à laconsultation d'informations qui circulent via l'internet. Dans les discours des acteurs rencontrés, nous avons identifiéun ensemble de freins (ou de réserves) à l'usage des tic que nous attribuonsaux différences perçues entre les caractéristiques de la communicationdirecte et de la communication médiatée. D'abord, les représentations del'internet verbalisées à travers les entretiens semi-directifs sontcontrastées et parfois contradictoires. La messagerie électronique estparfois qualifiée d'intrusive pour la vie privée, même si le messages'échange dans un cadre professionnel. Elle est donc associée à l'idée d'uneintimité (celle de la communication individuelle) que certaines personnesinterrogées souhaitent protéger. La difficulté à identifier un destinataireressenti comme virtuel est également considérée comme un frein  : messagespostés dans les forums professionnels sur l'internet par des personnescachées derrière des surnoms, collègues que l'on ne connaît pas mais quivous envoient malgré tout des messages. .. La communication via l'internet est parfois associée à une communication de masse ,brassant un volume très – voire trop – important de données  : « C'est comme si on devait lire toutes les pub qui arriventdans la boîte aux lettres, on a quand même le choix très vite de voir ce quec'est puis de balancer très vite. Là, c'est plus compliqué par mail. Parcequ'on est bien obligé d'abord de voir à qui ça s'adresse, de voir un peu lecontenu parfois et il y a tellement de déchet que c'est pff…  » (éducateurspécialisé). Parce qu'elle modifie le rapport au temps par la généralisation de l'accès entemps réel à tout type d'informations, la technologie remet en cause desreprésentations jusque -là stabilisées  : « J'ai plus confiance dans la poste que dans le courrierélectronique. [Je ne communique pas avec une famille par courrierélectronique car] « je crains qu'il y ait un problème et qu'elle disequ'elle ne l'a pas reçu. On peut déjà le faire avec la poste mais avec lesbugs informatiques on multiplie les erreurs humaines possibles. En plus, ilpeut y avoir de la mauvaise foi [. .. ]. C'est pareil, je ne fais pasconfiance [aux répondeurs téléphoniques ]. Je rappelle pour vérifier que lemessage a été reçu. Dans la vie privée, je le fais plus volontiers car il ya pas d'enjeu, il peut y avoir des impairs, c'est pas grave. C'est moinsfiable dans la transmission des paroles  » (éducateur spécialisé). Dans les pratiques, le cas du passage du courrier postal au courrierélectronique est très révélateur de la difficulté vécue dans le rapport auxtechnologies. Alors que le risque qu'un courrier ne soit pas ouvert et lupar son destinataire existe aussi tout autant pour un courrier postal, àtort, cela apparaît plus problématique en ce qui concerne le courrierélectronique. Ce sont donc les représentations de la communication via la technologie qui sont empreintes d'une certainedéfiance. Le rapport à la recherche d'information sur l'internet est également évoquépar plusieurs personnes interrogées. L'introduction du hasard dans lanavigation – appelée aussi sérendipité – participe du plaisir desdécouvertes aussi intéressantes qu'inattendues, mais l'immensité des ressources disponibles entraîne inéluctablement une augmentation du tempsd'utilisation. Dès lors, certains professionnelsse déclarent davantage attentifs à limiter le ur s plages d'usage del'ordinateur pour éviter d' être débordés ,de perdre du temps ou d' être victime s de fatigue oculaire. À leurs yeux, il est donc importantde savoir limiter son tempsd'utilisation : « Dans la recherche [… ], je sais pas comment ça s'appelle ,on nous renvoie sur des trucs, machins, parfois toutes les information quime sont données je trouve même qu'il y en a de trop, on zappe pas mal dechose, j'trouve, en ce qui me concerne que je ne regarde pas tout parcequ'après il y a les yeux aussi qui …  » (éducatrice spécialisée). Autre contradiction, l'internet est considéré par de mêmes individus aussibien comme outil magique que dangereux, les bonnes surprises cohabitant avecle risque du piratage et de la malveillance  : « J'ai toujours une petite appréhensionquoi, je fais toujours attention à ce que ce soit sécurisé mais comme jesais qu'il y a des gens très doués, des hacker s ,ça me freine… tout en sachant que si quelqu'un veut tout savoir surnous, quelqu'un de très doué, savoir tout ce qui se passe chez nous ,c'est possible. Je suppose que c'est possible […] c'est pour cela que je ne laisse pas detraces  » (conseillère conjugale et familiale). L'internet aurait aussi pour effet d'éloigner les individus de la lecture deslivres mais est considéré par d'autres comme beaucoup plus riche que lesouvrages imprimés. Le registre des représentations mobilisées est doncambivalent, révélateur à la fois de craintes et de fascination. On retrouveici l'existence des « significations symboliques  » que Josiane Jouët( 2000  : 501) avait attribuées à l'accompagnement des phases d'adoptiond'une technologie, même si les acteurs rencontrés ici ne sont pas inscritsdans une dynamique de développement de leurs usages des tic mais davantagedans une logique de limitation de ces derniers. La communication médiatée est également considérée comme davantage limitéepar rapport à la communication directe  : le registre du non-verbal( intonations, rythme de la voix, mimiques, gestes…) disparaît dans lesmessages électroniques et complique l'exercice du métier de travailleursocial dans lequel le langage est central. Que l'on prenne en compte le faceà face avec les publics (front office) ou letraitement des dossiers (back office), « c'est [eneffet] encore et toujours autour de l'usage de la parole que s'articulentles pratiques quotidiennes (Ion, Ravon, 1984  : 76). Pour Jacques Ion etBertrand Ravon (ibid. : 76), « la pratiqueomniprésente du langage et d'abord du langage oral dans la présence et larelation vécue avec autrui  » est « un commun dénominateur de bien desactivités concrètes du travailleur social  ». Michel Autès (1999  : 242 )rappelle lui aussi que les activités du travail social « sont d'abord duregistre du dire et de la parole. Parler, écouter, répondre, négocier ,communiquer, échanger  : les actes du travail ont non seulement le langagepour outil principal, mais ils sont complètement inscrits dans lelangage  ». Le professionnel a besoin d'interpréter correctement lesinformations transmises ou signifiées par son interlocuteur. Dans unecommunication médiatée, les perceptions étant plus réduites, lacompréhension mutuelle devient parfois problématique et difficile à évaluerpour le professionnel. Plusieurs ont évoqué le manque de souplesse de lacommunication écrite (celle des messages électroniques et de l'internet, quisont d'abord des technologies de l'écrit) par rapport à la spontanéité del'échange oral en face à face qui permet de mieux rebondir ou d'ajuster sonmessage en cas de doute sur la compréhension. Ce manque est considéré commed'autant plus important que les situations de médiation conjugale oufamiliale sont toujours complexes et souvent conflictuelles. Le manque designes para-verbaux et non verbaux est criant, comme le signalent uneéducatrice de jeunes enfants et une conseillère conjugale et familiale( cette dernière réagissant sur un projet de création d'un forum en lignepour adolescents en difficulté )  : « Dans ma tête, la communication elle passe pas par unemachine, moi, j'ai besoin de voir les gens, j'ai besoin j'ai besoin de voirleur réaction [. .. ]. Je ne m'imagine pas rencontrer des parents de manièrevirtuelle. J'ai besoin de les voir, de passer du temps avec eux, de lesentendre, de voir aussi quels signes je vais pouvoir repérer chez eux pourvoir que ce qu'il sont en train de me dire c'est pas n'importe quoi, justepour me faire plaisir et qu'ils sont bien au clair sur ce qu'ils ontl'intention de faire. Si je ne les vois pas, j'en sais rien qui ils sont ,moi. On perd quelque chose  » (éducatrice de jeunes enfants). « J'aila crainte de faire une erreur. Je trouve que c'est très réduit, c'est trèsréducteur de faire questions-réponses… j'avais une prof dans le temps quidisait « pour pouvoir se comprendre, il faut échanger son vocabulaire  » ,donc comment… moi je vais employer tel terme, comment cela va être perçu parl'autre ? […] Pour moi, c'est même limite un peu dangereux. C'est plus parrapport à la personne, ne pas faire de bourdes, de bêtises, d'erreurvis-à-vis de l'autre personne qui est en attente de quelque chose […] Àl'oral, je dis cela, comment vous le percevez, est -ce que c'est bien cela ,est -ce que j'ai compris, et l'autre peut rectifier. Chose qu'on peut pasfaire là, et pour moi c'est très réducteur  » (conseillère conjugale etfamiliale). Dans ce cas, on voit que les échanges électroniques restent dans le tempsdifféré de la communication asynchrone, qui affaiblit la réactivité et lesajustements au cours de l'interaction. Les acteurs que nous avons interrogés ont spontanément évoqué lesreprésentations qu'ils se faisaient de leur métier. Ainsi rejoignent-ils lesdéfinitions que les chercheurs proposent des notions d'identité collective ,de sentiment d'appartenance, de valeurs partagées, etc. Par exemple, s'ilmontre bien toute la complexité de cette notion de culture professionnelleainsi que l'existence de sous-cultures liées au secteur d'exercice et d'un« corporatisme [même s'il] n'est pas des plus affirmés  », Michel Chauvière( 2009) met malgré tout en évidence un certain nombre de représentationscommunes aux éducateurs  : existence d'idéal éducatif élevé, centration surle sujet, engagement de soi et pragmatisme. Les entretiens ont mis enexergue l'impact important de cette conception du métier sur son exercicequotidien. Michel Chauvière (ibid.) synthétise lesdifficultés rencontrées en expliquant que « se posent en effet depuislongtemps aux éducateurs des problèmes récurrents de montée en généralité ,parfois même de passage à l'écriture conceptuelle  ». Dans le discours despersonnes interrogées, on retrouve très nettement cette culture de l'oralitéqui domine fortement et à laquelle elles sont attachées. Le recours àl'écrit, à la fois pour rédiger un rapport d'entretien ou pour communiquerpar messagerie électronique, pose le problème de la retranscription deséchanges, avec les limites évoquées précédemment et le risque des mots maladaptés ou trop réducteurs. Les travailleurs sociaux sont réticents aupassage à l'écrit, « activité [qui] est loin d' être secondaire, même pourceux qui ne se trouvent pas en position de directeur ou de gestionnaire ;mais […] [qui] est souvent perçue comme éloignée du vécu et comme unecontrainte bureaucratique  » (Ion, Ravon, 2007  : 77) et dont ils craignentplusieurs dérives  : remise en cause de la confidentialité des échanges ,production de traces écrites qui pourraient être vues par des personnesexternes au processus de médiation lui -même (institutions, partenaires ,financeurs, public…) et endosser le statut de preuves dans des situations deconflit. Le passage à l'écrit diminue également la marge d'erreur admissiblepour les professionnels du social. Les échanges oraux s'inscrivent dans unflux, qu'il semble assez facile de maîtriser. En fonction du feedback de son interlocuteur, on peut revenir surses propos, les préciser, les nuancer, ce qu'on a plus de mal à faire àl'écrit car cela nécessite un échange d'écrits. L'écrit laissant une trace ,il est important de bien choisir ses mots, comme le rappellent Jean-LucDeshayes, Vincent Meyer et Isabelle Roskam (2009  : 119 )  : « L'écritapporte […] une autre dimension à l'échange. Il permet le recul pour lapensée, il l'objective, l'organise et la structure. En outre, le passage àl'écrit constitue un moyen indispensable de cadrage du suivi effectué. Ilmarque les actes d'un sceau et, dès lors, confère aux écritsprofessionnels un statut officiel (rapports de synthèse, bilans deséjours, courriers adressés aux supérieurs hiérarchiques, rapports auJuge de la jeunesse. .. )  ». Autre explication à cette réserve, le contextedans lequel sont formulés les propos est plus difficilement maîtrisable, ilpeut même échapper au professionnel. Ce sont ces difficultés qui sontsoulignées par une éducatrice de jeunes enfants, responsable d'unservice  : « On ne peut pas se planter dans ce qu'on est en traind'écrire sur un enfant. Quand on est là à bûcher sur la situation d'ungamin, on réfléchit à deux fois aux mots qu'on va utiliser [. .. ]. Leressenti il est important mais il ne doit pas être jugeant. Pour certains ,c'est difficile de ne pas mettre un mot qui serait plus du jugement qu'autrechose  ». Ainsi cette même éducatrice se souvient-elle des difficultés posées par unrapport à l'écrit complexe des éducateurs pour qui la trace laissée par leurproduction constitue un enjeu fort  : « Quand le droit à l'accès aux dossiers a été octroyé auxparents, ici ça a été des discussions fort importantes avec les éducateursqui tout d'un coup devenaient réticents à faire un rapport d'observationalors que c'est leur boulot et c'est leur mission. Il a fallu qu'on reprennetoute l'importance de l'écrit. De dire que ce qu'on écrivait, de toutemanière il y avait tout un travail avec les parents à réaliser. Il fallaitaussi qu'on puisse le dire aux parents, il fallait démystifier cette peur del'écrit. On est passé par plein de thèmes. Aujourd'hui ca pose plus de soucimais au moment T où la loi est sortie sur cet accès au dossier [il y aquelques années] ça a fait peur  ». La tendance politique et institutionnelle que les personnes interrogéesvoient se développer actuellement dans le milieu socio-éducatif et quiinstaure un accès distant aux dossiers électroniques contribue à maintenirdes freins à l'usage, dans un climat d'inquiétude croissant par rapport à« leur propre avenir professionnel  » (Walter, 1988  : 15) et, consolidantla volonté d'autonomie évoquée plus haut. Cependant, la place des tic dansles pratiques professionnelles est jugée plutôt efficace pour échanger desinformations factuelles liées à l'organisation du travail (prise derendez -vous, diffusion de documents…), et ce malgré le poids des habitudes .La numérisation croissante des procédures de gestion (rédaction de rapport ,bilans statistiques…) est globalement acceptée par les personnesrencontrées, mais c'est la place des outils techniques (comme l'ordinateur )qui pose davantage problème dans certains types d'entretien commel'accompagnement à la recherche d'emploi ou la médiation conjugale. Lesprofessionnels interrogés sont ici confrontés à un processus quasi généralisé d'informatisation de la gestion, quel'on peut observer dans la majorité des entreprises depuis les années 70 .Pierre-Jean Benghozi et Patrick Cohendet (1999) ont analysé cette tendanceen soulignant le fait que cette réorganisation interne face au développementdes usages des tic s'exerçait à quatre niveaux en même temps  : l'évolutiondes technologies, l'organisation, les compétences de l'entreprise, et lesacteurs eux -mêmes dans leur manière de concevoir le travail et d'interagirau sein des équipes. Selon eux, la culture des organisations joue égalementun rôle important, en particulier dans les entreprises peu organisées à unniveau collectif ou de manière informelle. C'est dans ce dernier cas que sesituent les institutions qui nous intéressent. L'ordinateur y est perçucomme un outil encombrant qui détourne l'attention de l'accueillant de lapersonne reçue, l'obligeant parfois à déplacer son regard vers l'écran del'ordinateur pour saisir en temps réel les informations nécessaires à laprise en charge de son dossier administratif. Le risque de provoquer unerupture dans un processus de co-construction d'un espace-temps decommunication et de compréhension mutuelle est parfois mal vécu par lesprofessionnels eux -mêmes. On touche là au cœur d'un métier et d'une cultureprofessionnelle fondés sur le temps de la relation, fragile et délicatéquilibre entre distance réflexive et proximité, car « la relationd'accompagnement est paradoxale, puisqu'il s'agit d'abolir la distancepropre à toute relation d'aide (et qui est au principe des distinctionsbienfaiteur/malheureux, bénévole/bénéficiaire, éducateur/éduqué ,assistant/assisté, etc .  » (Ion, 1984  : 83). Les tic y sont donc perçuescomme un média, un objet qui éloigne de la relation directe, comme si ellesne faisaient pas partie de l'environnement matériel de l'espace de travail ,comme un supplément imposé. Elles sont aussi associées à la tentation de lavitesse, voire de la précipitation (urgence et attente) d'une réponse rapideà l'envoi d'un message électronique, à la pression de l'immédiateté desmessages reçus et envoyés. Nous sommes ici à l'opposé du temps relationnelévoqué plus haut, qui exige de ne jamais réagir à chaud. De façon traditionnelle, la sphère privée concède toute liberté d'action àl'individu maître de son temps et affranchit des contraintes extérieures eten particulier professionnelles. Cette liberté d'usage se traduit par lapossibilité d'approfondir tranquillement chez soi des sujets qui peuventaussi concerner des préoccupations professionnelles, ce que l'on n'a pas letemps de faire sur son lieu de travail. Les attentes et les aspirationspersonnelles bénéficient alors de toute la puissance et rapidité d'accès àl'information qu'apporte l'internet. Préparer des vacances, effectuer desachats en ligne, procéder à la recherche d'informations pour assouvir sacuriosité, voire préparer des dossiers de validation des acquisprofessionnels sont des activités citées et pratiquées en privé par lespersonnes interrogées. En revanche, l'univers professionnel est avant toutmarqué par la présence forte et permanente d'un ensemble de contraintes etd'une injonction à faire usage des tic dans la mise en forme d'écrits. Eneffet, dans la sphère professionnelle prévalent la recherche de l'efficacité– donc la distribution des attributions –, la répartition des tâches etl'accomplissement des objectifs. La représentation de l'outil informatiqueest professionnellement connoté. Si les entretiens valident en grande partiece principe de différenciation entre les sphères privée et professionnelle ,il n'en reste pas moins que, avec les tic, la frontière entre les deuxdevient floue et poreuse. De plus en plus, les comportements et les usagesdans les deux sphères se rapprochent ou deviennent interdépendants  : lesactivités en ligne réalisées dans l'une favorisent le changement despratiques dans l'autre. Cependant, lorsqu'il y a projet d'évolution dans lesusages, celui s'inscrit généralement d'abord dans la sphère privée et nondans la sphère professionnelle. Par exemple, certains souhaitent développerl'usage de l'ordinateur pour traiter leurs photos numériques personnelles .Mais on constate que cette limite plus floue entre les deux sphères provoquecertaines réticences  : les personnes interrogées disent assister à unglissement de la sphère du professionnel vers celle du privé et d'aucunessouhaitent s'en protéger. Une éducatrice spécialisée explique  : « Si c'est par rapport à mon travail, je trouve qu'on donnedéjà entre 7 heures et 8 heures par jour au travail, je ne vais pas m'amuserà le faire chez moi, je vais le faire sur mon temps de travail. Et on medonne l'occasion, et je l'ai prise l'occasion de le faire. Je suis quelqu'unqui travaille avec des horaires assez atypiques, en soirée et puis tout…parfois quand je rentre d'une visite j'ai encore une heure, je profite de cetemps là pour faire des recherches. [… ]. Quand j'ai fait ma formationd'éducateur spécialisé j'ai utilisé l'ordinateur du travail sur place, aprèsle travail par exemple 1h pour faire mes recherches et m'aider dans maformation, mais je faisais quelque part kifkif-kifkif car c'est un peu pourle boulot, du temps à moi et du temps professionnel  ». Ce déplacement des tâches professionnelles vers le temps privé n'est pastoujours bien perçu, mais est mieux admis en cas de développement d'unprojet professionnel individuel, mené par exemple dans le cadre d'uneactivité libérale parallèle ou d'un projet d'évolutionde carrière (préparation d'une Validation d'acquis de l'expérience – vae – ,par exemple). L'enjeu est de stabiliser le rapport à l'espace et au tempsentre, d'une part, les pressions imposées sur le lieu de travail quiassujettissent l'individu aux rythmes professionnels – par essence rapideset freinant toute prise de recul – et, d'autre part, le loisir de prendredavantage de temps pour soi, d'engager des réflexions libres et ouvertes .L'analyse des entretiens ayant fait apparaitre des résultats s'inscrivant dans lalignée des études existantes et d'autres plus inédits liés à la conception dumétier et aux valeurs professionnelles, il peut être intéressant d'approfondirla recherche en analysant les entretiens sous un angle différent. Cinq itemsprincipaux émergent du corpus  : les compétences et connaissances techniques ,les représentations des tic, les besoins, l'environnement professionnel etfamilial et les valeurs professionnelles et personnelles (conception du métieret du rapport aux autres). Ces éléments ne sont qu'exceptionnellementindépendants les uns des autres et semblent exercer une influence mutuelle. Or ,si la majorité des travaux existants propose de lister des facteurs explicatifssous la forme d'une typologie, ces facteurs sont rarement analysés dans leurinterdépendance même. Pour aller plus loin dans l'analyse de la complexité deces facteurs et de leurs influences croisées, nous avons reporté nosobservations dans un tableau à double entrée reprenant chacune les cinq itemsénoncés précédemment. À l'interprétation des résultats, nous nous sommes aperçusque, à part un cas où seulement deux de ces items étaient reliés par un rapportd'influence, nous pouvions regrouper les interactions entre facteurs partriades. Cette approche se révèle heuristique car elle offre des clés de lecturede la complexité des situations d'usage au-delà d'une simple juxtaposition defacteurs. L'analyse qui suit montre comment se construisent ces interactions. Compétences et représentations apparaissent comme très liées. En effet, onconstate un lien fort entre les représentations que les gens ont des tic etles compétences qu'ils déclarent avoir dans leur utilisation. Chez lespersonnes faiblement compétentes, les discours sont orientés sur lescraintes d'abîmer l'outil, de perdre le travail d'un autre, que ce soit dansun cadre personnel ou professionnel. Ces acteurs sociaux déclarent aussi queces représentations négatives – et en particulier la peur – bloquent ledéveloppement de leurs compétences. D'ailleurs, certains reconnaissent uneforme de contradiction  : ils ont conscience que leurs représentations nereposent pas sur des connaissances exactes et ne sont donc peut-être pasfondées, mais ils ne cherchent non plus à vérifier leur conformité avec laréalité. En revanche, quand les représentations renvoient à la notion deplaisir, les personnes interrogées disent qu'elles cherchent à développerleurs compétences. Par exemple, la communication avec une famille ou desamis éloignés est souvent évoquée comme une situation qui pourrait êtreaméliorée grâce à la technologie et qui serait une motivation à acquérir desaptitudes nouvelles, en particulier chez les non-usagers ou les très faiblesusagers. Dans la relation avec les représentations et l'environnement intervient unélément incontournable  : les valeurs des professionnels interrogés. Eneffet, ces derniers conçoivent leur métier comme guidé par un ensemble devaleurs fortes, comme en témoignent Monique Besse ,qui se qualifie de militante associative, et JosephRouzel (2010  : 11-13), psychanalyste et ancien éducateurspécialisé  : « Les actes éducatifs ne peuvent se présenter que commeactes de subversion, puisqu'ils mettent en avant non pas la marchandisationgénéralisée, qui petit à petit gagne aussi le travail social, mais lerespect de chaque sujet, c'est-à-dire l'attachement à une éthique qui fitl'essence même de la transmission des Lumières aboutissant aux trois piliersde la République  : Liberté, Égalité, Fraternité  ». Au centre des interactions entre valeurs, représentations et environnement ,se retrouvent les discours sur la relation avec les personnes prises encharge dans laquelle les tic ne prennent jamais une place centrale .Néanmoins, en fonction du type d'accompagnement que les professionnelsinterrogés doivent avoir, deux types de situation se présentent. Pourcertains, notamment les éducateurs jeunes enfants, éducateurs spécialisés ouconseillers conjugaux et familiaux, l'objectif de la prise en charge estd'ordre éducatif ou thérapeutique. C'est par l'échange en tant que tel quedoit être atteint l'objectif. Lors de ces moments particuliers de prise encharge, le lien avec l'environnement extérieur est relativement limité. Cetespace protégé est vécu par les personnes interrogées comme étant encore àl'abri d'une forme d'intrusion des tic. Cela ne signifie pas pour autant queles professionnels concernés par ce type de situation sont totalementnon-usagers  : les moments d'usage ne sont envisagés qu'en dehors de cestemps de prise en charge. Ces usages paraissent moins contraints car nonimposés au moment même de la relation. En outre, on observe un second typede prise en charge, notamment celle pratiquée par une des personnesinterrogées, chargée d'accompagner des usagers en grande difficulté dansleur démarche d'insertion sociale et professionnelle. L'objectif est defaciliter le lien de la personne avec la société. La frontière entrel'espace-temps de prise en charge et l'environnement extérieur se doit doncd' être très perméable. Dans ce cas, les tic peuvent s'imposer au sein mêmede la relation de prise en charge comme, par exemple, lorsqu'une démarched'inscription au Pôle Emploi doit être réalisée et ne peut se faire que via le site internet ad hoc aumoment de l'échange. Les usages des tic sont alors vécus commeincontournables mais contraints, et surtout intrusifs, notamment en raisondu rythme imposé par la saisie des informations en ligne (une saisie troplente entraînant une déconnexion du système). Certains des acteursinterrogés qui ont des responsabilités d'encadrement d'équipe ou de servicesont d'ailleurs très sensibles à ce caractère coercitif que les ticpourraient prendre dans la relation  : ils restent ainsi vigilants dans letype d'usage que feraient des collègues davantage utilisateurs. Les valeursqu'ils attribuent à leur métier les conduisent à freiner des usages estiméstrop intempestifs et à interdire, par exemple, l'utilisation d'un ordinateurportable qui serait posé sur la table entre un travailleur social et unusager. En effet, l'engagement est une valeur très présente dans le métierd'éducateur spécialisé, comme le montrent notamment Michel Chauvière (2009 )ou Laurent Cambon (2009  : 139-152), lequel en trouve les signes langagiersdans les discours d'éducateurs. Cet engagement semble incompatible avec ladistance qu'imposerait une machine dans la prise en charge des usagers. Cette autre triade met en relation les compétences des individus dansl'utilisation des tic, leurs besoins d'utilisation et l'environnement quiles entoure. Par exemple, on constate que certains acteurs mettent en placedes stratégies de contrôle de leur propre acquisition de nouvellescompétences techniques. Contrairement à ce qu'on pourrait penser a priori, ils ne cherchent pas à les développer maisà les limiter. Plusieurs personnes interrogées prétendent que l'augmentationde ces compétences les éloignerait de leur cœur de métier. Elles mettentaussi en évidence un risque de brouillage ou de remise en cause de larépartition des tâches au sein de leur environnement professionnel .Apprendre à gérer sa messagerie électronique ou à maîtriser un traitement detexte revient pour certains à assumer des tâches jusque -là affectées auxsecrétariats. La sauvegarde de ces postes administratifs est également enjeu. Mais cette volonté de ne pas développer ses compétences peut aussi êtreliée à un usage des tic considéré comme inadapté. Ainsi une des personnesinterviewées affirme -t-elle ne pas savoir utiliser la fonction d'envoi decourriels à un groupe de destinataires et ne pas vouloir apprendre, jugeantles envois collectifs inadaptés. En effet, la grande quantité de mails reçusqui ne la concernent pas directement est vécue comme une entrave à saliberté et lui impose un tri chronophage. Un autre lien est signalé entreces trois items : le manque de temps dansl'activité professionnelle pour développer des compétences en réponse à unbesoin déclaré conduit certains à se tourner vers leur environnementprofessionnel ou personnel. On aboutit parfois à un équilibre assezconsensuel qui permet un fonctionnement satisfaisant et stabilisé. Parexemple, l'une des éducatrices de jeunes enfants responsable de servicesollicite son mari pour répondre à ses besoins, mais se déclare prête àdévelopper ses compétences si cette aide faisait défaut. Face à des besoinsqui demeurent prioritaires dans le cas présent, les tic ne sont pas rejetéesmais l'acteur fait d'abord appel à son environnement avant d'envisagerlui -même l'acquisition de compétences nouvelles. Cette absence dedéveloppement des compétences correspond à une forme d'économie ou derationalité d'usage qui trouve donc un équilibre potentiellement évolutif .Dans ce lien triadique, les représentations restent dominantes et sont à lasource d'un paradoxe notoire  : les tic sont associées positivement à unecertaine facilité pour répondre à des besoins de recherche d'information surl'internet, mais, en même temps, les sources auxquelles elles permettentd'accéder sont parfois jugées peu fiables. Sans grande surprise, on retrouveégalement l'influence de la généalogie des usages évoquée au début de notrearticle  : si le métier a été exercé avant l'avènement des tic, cestechnologies n'apparaissent pas comme pouvant répondre à un éventuel besoin ,les acteurs professionnels sachant trouver les réponses à leurs demandesd'information dans des sources plus traditionnelles (comme les livres ourevues spécialisés). La représentation de leurs besoins professionnels n'adonc pas été modifiée par le développement des tic, même s'ils reconnaissentle potentiel de ces outils. Nous nous rapprochons ici de conclusions d'uneétude menée sur les usages des tic chez les seniors anglais par ChrisGilleard et Paul Higgs (2008), qui identifient des habitus générationnelsassociés à une culture de la consommation  : les personnes âgées nées dansles années 20 deviennent ainsi moins fortement usagères des tic que cellesqui sont nées dans les années 40 car ces dernières ont été davantageexposées à l'introduction l'ordinateur personnel et des tic dans les milieuxprofessionnel et familial. Dans notre cas, nous constatons un phénomènesimilaire mais sur des habitus davantage liés à des pratiquesprofessionnelles. Une autre association est mise en évidence. L'un deséducateurs spécialisés interviewés avoue une peur de devenir dépendant destic, craignant d' être pris au piège et de voir ses besoins augmenter malgrélui sans pouvoir en maîtriser les conséquences ni l'ampleur (usageschronophages et intempestifs). Selon lui, il y aurait comme une fatalité àvoir l'homme de plus en plus au service de la machine, ce qui est contraireà ses valeurs. On constate donc chez les faibles usagers un conflit ressentientre des représentations contradictoires des tic, à la fois négatives etpositives, des besoins réels qu'ils réussissent à combler sans recourir àces technologies, et une certaine conception de leurs relations aux autres .La particularité de notre étude par rapport aux travaux existants sur lenon-usage réside à la fois dans le terrain d'observation – qui n'est pas inscritdans le registre de la vie quotidienne mais qui prend comme point de départl'exercice de l'activité professionnelle et qui ne relève pas de problématiquessocio-économique ou technique – et dans notre orientation méthodologiqueconsistant à croiser les facteurs identifiés par nos entretiens et par noslectures. Tout en choisissant une approche empirique, nous avons évité l'écueilsouligné par Josiane Jouët (2000  : 511) de l'absence de problématisation et dela cristallisation sur les objets techniques. En nous situant du point de vuedes acteurs, nous avons pu dégager la signification et le sens social qu'ilsdonnent à leurs usages limités, dans leurs contextes respectifs. Notre rechercheaboutit à plusieurs conclusions. D'abord, nos résultats montrent que lenon-usage ou l'usage limité – dans les pratiques telles qu'elles nous ont étérapportées – découlent d'une attitude raisonnée que les acteurs sont capablesd'expliquer. Contrairement à ce à quoi on aurait pu s'attendre, ce ne n'est pasla crainte d'une surveillance et d'un contrôle social qui justifierait lenon-usage, car ils ne sont jamais invoqués. De même qu'il n'y a pas réellementde non-usagers au sens strict, il n'y a pas non plus de position de principecontre les technologies, mais il se dégage une volonté de garder le contrôle desusages actuels et futurs. La conception du métier nous semble ici un facteurdéterminant, quel que soit l'environnement professionnel et personnel, dans cequi apparaît comme un positionnement à la fois prudent et pragmatique face auxtic. La question de l'appropriation, pensée pour qualifier l'usage, neserait-elle pas à reconfigurer pour examiner les usages limités ? Par exemple ,les notions d'émancipation personnelle, d'accomplissement dans le travail et desociabilité associées à l'appropriation (Jouët, 2000  : 495) ne serait-elle pasaussi présente chez plusieurs personnes interrogées ? Tout en utilisant certainsoutils, elles s'en détachent, pour des raisons volontaires et conscientes, dansleurs vies privée et professionnelle. Cela renforce l'idée que les usageslimités ne sont pas toujours synonyme de défaillance d'usage mais qu'ils sont untype d'usage parmi d'autres qui peut également être une forme d'émancipationpersonnelle. S'il peut être intéressant de considérer, comme Sally Wyatt (1999 ;voir aussi Wyatt, Thomas, Terranova, 2002), les usagers limités ou lesnon-usagers comme « un groupe social en soi  », il ne faut pas non plus ignorerqu'un même usager peut avoir des usages différents selon les contextes, lespériodes et les moments. Notre étude a donc permis d'identifier des variablesd'usage nouvelles qu'il serait intéressant de vérifier par une étudequantitative et longitudinale permettant de dégager des résultats à un niveaumacro-social .
Constatant l'existence d'usages restreints ou de non-usages des TIC chez des travailleurs sociaux lors de travaux précédents, les auteurs ont mené une étude qualitative portant sur des professionnels de l'éducation et du conseil dans le social (éducateurs spécialisés, éducateurs de jeunes enfants, conseillers conjugaux et familiaux) pour comprendre les raisons de la limitation de leurs usages des outils informatiques et en particulier de l'internet. Au-delà d'une simple juxtaposition de causes, l'analyse montre comment se construisent certaines interactions entre différents facteurs: besoins, compétences, représentations, valeurs et environnement. Cette approche croisée se révèle heuristique car elle offre de nouvelles clés de compréhension de la complexité des situations d'usage limité ou de non-usage.
sciencesInfo_11-0402694_tei_1053.xml
termith-363-communication
« Le journalisme, quand on sait trop bien ce qu'il est, on a du mal ,semble -t-il, à penser avec un peu de souffle, de recul, ce qu'il pourrait être - les idéaux qu'il est censé servir les chemins pour lesortir de ses crises » (Muhlmann, 2004a : 9-10) La conception de la responsabilité collective développée dans cet article s'appuiesur les représentations et les pratiques à partir desquelles un individu ou ungroupe prennent en compte les problèmes de la communauté. Accepter de donner à cetteresponsabilité un contenu éthique fondamental, d'inspiration kantienne, implique lanécessité de faire dialoguer des points de vue différents, voire conflictuels, afind'aider à la résolution des problèmes dans un sens utile à la société. Autrementdit, le sentiment de la responsabilité porte certes à se préoccuper de ses intérêts( personnels, catégoriels, de classe, etc.), mais aussi à se décentrer à prendre encompte les intérêts des autres, afin de faire émerger des compromis honorables etacceptables pour l'ensemble du corps social. Car le corps politique gagne àrenouveler à intervalles réguliers sa volonté et son désir - ce n'est pas tout àfait la même chose - de vivre ensemble et de faire société. La recherche d'un pointd'accord passe par une mise en débat argumentée qui gagne àexister sur la place publique; elle ne se limite donc pas à l'affrontement polémique des parties en présence et favorise l'entrée enscène de médiateurs dégageant des compromis positifs. Une telle conception de laresponsabilité collective interroge la fonction des médiateurs éminents des sociétésmodernes que sont les responsables politiques et les journalistes, ce que nousferons ici en analysant la manière dont journalistes et politiques débattent de leurvision de l'avenir du pays, durant la campagne présidentielle de 2007. En réponse à l'appel de Géraldine Muhlmann que nous citons en exergue, nousappréhenderons la question en pensant à ce que le journalisme et l'engagementpolitique pourraient être, aux idéaux qu'ils sont censés servir .Cette approche critique met en relief un déficit global des pratiques, parrapport aux exigences de la responsabilité collective. C'est pourquoi on considéreracomme des variables secondaires la diversité des journalismes - selon la nature desmédias, les titres, les genres, les professionnels -dans la mesure où les déficits interrogent les fondamentaux du métier Toutes choseségales, il en va de même avec les responsables politiques. Comme le but n'est pas dedresser une profession contre une autre, ni d'opposer un peuple sain à ses élitesmalades, comme d'autre part la responsabilité collective n'est la propriété depersonne, d'aucun groupe, on espère que le lecteur comprendra que cette réflexioncritique linguistique, qui relève de l'analyse de discours, mais qui est ouverte àl'analyse sociologique et aux travaux en sciences de la communication, n'entend pass'épuiser dans un normativisme stérile ni verser dans un moralisme naïf. Il s'ensuit qu'après une première partie consacrée aux cadres théoriques deréférence, notre investigation portera autant sur ce qui est dit que sur ce qui nel'est pas, à partir d'un dispositif théorique qui, s'appuyant sur la transcriptiond'un débat télévisé dans des journaux de la pqn et de lapqr, montrera que les déficits de responsabilitéperdurent, tout en se transformant. Un tel angle d'attaque déroutera éventuellementle familier de notre approche traditionnelle, décrivant les processus au plus prèsdes discours. L'analyse linguistique des discours, bien qu'elle soit mise en œuvrelors de l'étude du corpus, à propos de la notion de responsabilitéde (ses discours), dans la deuxième partie, ne peut toutefois occuper seuletout le champ d'une telle réflexion. C'est pourquoi la troisième partie ouvre surdes analyses croisées avec des données sociologiques et débouche sur les notions deresponsabilité pour (c'est la fonction de porte-paroled'un groupe) et de responsabilité devant (c'est la fonctionde témoin, devant la communauté toute entière), notions qui, à l'aune des exigencesde la responsabilité collective, impliquent d'autres pratiques - et donc d'autresdiscours et d'autres comportements. Outre la complexité intrinsèque de la notion de la responsabilité collective, desfreins sociaux compliquent l'émergence d'une conception positive telle que nousl'avons esquissée dans l'introduction (Rabatel, Koren, ici même). Chez les politiques, l'éthique de la responsabilité collective se heurted'abord à l'entrecroisement des niveaux de responsabilité : responsabilitédécisionnelle, responsabilité collective devant ses mandants, responsabilitépolitique d'une institution, responsabilités administrative, juridique ,personnelle peuvent concourir à la dilution de la notion, surtout lorsque ladécision intervient dans des structures complexes. Elle se heurte ensuiteaux conceptions dominantes de la politique comme expression des intérêtsd'une fraction du corps social. L'approche éthique de la responsabilité collective, sans nier lecaractère fondamental des intérêts et des conflits, propose un mode derégulation articulant éthique de conviction et éthique de responsabilité, pour penser les interdépendances et faireémerger de nouvelles solidarités (Ricœur 1986 : 442-444). On n'est plus dansle fantasme d'une classe porteuse à elle seule de l'universel, mais dansl'idée que chaque fraction sociale doit se trouver associée, aussi justementque possible, à la vie commune, à la marche des institutions et de laproduction comme aux fruits de la croissance. Cet objectif se heurte à lapression des électeurs et des militants qui attendent que le(ur )gouvernement agisse dans le sens de leurs intérêts, selon une logiqued'affrontement des camps; d'où l'inanité de la diabolisation des corpspolitiques et de l'idéalisation du peuple. Du côté des professionnels des médias, les difficultés sont légion :influence de la logique économique vs indépendancerédactionnelle, influence de la communication vsinformation, séduction de la technique et de la vitesse vs délais d'investigation, de vérification etd'analyse (Rieffel, 2005 : 135-1 38). C'est pour mieux répondre à ces défisqu'ont été érigés un certain nombre de codes de déontologie, avec laprotection, la vérification des sources, etc. (Pigeat, 1997 : 116 et sq.), les débats sur la question de savoir s'ilfaut « tout dire, tout montrer » (ibid. : 133). Cesquestions, certes importantes, reposent sur l'impensé que toute vérité a unesource, qu'elle est déjà là. Les règles professionnelles renvoient à uneadéquation fantasmatique à un réel qu'il suffirait d'évoquer honnêtement (fairness), abdiquant ainsi une bonne part del'ambition intellectuelle de construire sinon « la » vérité du moins desparcelles de vérité(s). Ces limitations viennent de loin, comme le rappellela prégnance de l'opposition entre informer et former (Pigeat, 1997 : 52) ouentre opinion et information, cruciale dans les pays anglo-saxons et érigéeen norme dans les codes déontologiques. Tout cela doit être interrogé sansabdiquer les exigences de l'implication du journaliste dans la constructionde vérités, qui va au-delà de la simple fonction d'information soumise à larègle des points de vue opposés, à ces trop faciles « rituelsd'objectivité » que sont la règle des both side view ,ou le culte de la vue - « la vérité se voit » - (Muhlmann, 2004b :14-17; Rabatel, 2006). Aussi le fil rouge de notre investigation est-il le suivant : à supposer quele journaliste ait accompli un geste professionnel impeccable, du point devue déontologique (Legavre, 2007), subsiste -t-il dans son travail un restequi puisse être interrogé, à la lumière d'un questionnement éthique ? Lanotion de responsabilité (ou de l'utilité) sociale et collective desjournalistes n'a pas donné lieu à des débats de premier plan, à ladifférence de la déontologie. Il est d'ailleurs significatif que la notion depublic journalism soit souvent évoquéepositivement, sans un effort de conceptualisation critique : « La responsabilité sociale consiste à donner dusens aux événements et à s'interroger sur la manière dont le journalistepeut aider les citoyens à mieux comprendre les problèmes contemporains, às'orienter dans le dédale de l'actualité. L'utilité sociale renvoie à l'idéeque le journaliste peut servir directement des intérêts concrets decitoyens, produire des changements tangibles au sein de la société (ce queles Américains appellent le « public jounalism ») etdonc être un acteur de la société. En définitive, il s'agit de savoircomment renouveler les relations des journalistes avec le public et de mieuxdéfinir leur rôle dans nos démocraties » (Rieffel, 2005 : 138). Car il s'agit moins de trouver une vérité unique, sacralisée par des experts ,que de trouver les médiations pour que les acteurs et actants de la scènesociale, comme les lecteurs et les citoyens, participent à la constructiond'objets de pensée communs pour aider à la prise de décisions utiles aucorps politique. De quoi s'agit-il plus précisément ? L'objectif pour lesmédiateurs que sont les journalistes, est de dépasser la relation des faits ,le récit des évidences partagées, de les resituer dans une réalité sociale ,politique, économique, culturelle, etc., en insistant sur la constructionnécessairement complexe et parfois conflictuelle des diagnostics, ce quiimplique une prise en compte sérieuse de l'avis des divers acteurssociétaux. Ce sont là des préalables à la pesée critique des arguments desuns et des autres, pour éclairer les citoyens sur la nature des enjeux. Endéfinitive, il ne s'agit pas de penser à la place du peuple, mais de l'aiderà et dans l'exerciceconcret et éclairé de la responsabilité politique pour qu'il prenne desdécisions en connaissance de cause, comme on le verra plus en détail dans latroisième partie de cette enquête. Disant cela, nous ne prétendons donc pasà la vérité, ni que les journalistes ou les hommespolitiques seraient sourds à ces problématiques; nous pointons desdysfonctionnements, dans un esprit constructif. Notre corpus porte sur le deuxième débat télévisé entre postulants socialistes àla candidature à l'élection présidentielle (24/10/06). Aborder la questiongénérale de la responsabilité collective à travers une étude de cas mériteexplication. Certes, l'analyse scientifique du fait médiatique doit croiser lesentrées, encourager les études comparatistes, longitudinales, de façon àéchapper aux tyrannies du sens commun ou aux a prioriIdéologiques ou théoriques (Rieffel, 2005 : 213). Est -ce à dire qu'il n'yaurait plus de place pour les études de cas ? Assurément pas, car les étudesglobales sont parfois trop générales. L'étude de cas - à la condition que lasituation soit exemplaire - permet de suivre en détail les linéaments et leslogiques, de mieux cerner des problèmes, sur un plan qualitatif. Tel est dumoins notre pari. C'est l'ensemble du processus de construction de l'événement, tel qu'il a étéconduit/construit par les interviewers des chaînes parlementaires puisrestitué/reconstruit et commenté dans des quotidiens représentatifs de la pqn et de la pqr, qui seraanalysé à l'aune de la responsabilité collective, notamment à travers l'analysede la formulation des questions, qui privilégie l'approche d'un des débatteurs( Ségolène Royal), puis de leur effacement dans le commentaire, comme si LaurentFabius et Dominique Strauss-Kahn avaient d'eux -mêmes reconnu le rôle dominant dela candidate. Par conséquent la logique de la constitution du corpus avec larestitution du débat télévisé dans la Presse quotidienne nationale (pqn) et dans la Presse quotidienne régionale (pqr) ne limite pas le rôle de la presse écrite à unecommode transcription du débat. Le corpus vise à mettre en avant des responsabilités partagées dans la construction del'événement : celle -ci est un processus global, dans lequel entre de plein droitl'analyse des dispositifs (Amey, 2007). Compte tenu de notre problématique, nousrestreignons notre analyse au matériel verbal, et, plus encore, aux questionsdes journalistes, qui contraignent les échanges. Nous mettrons ainsi en lumièrela permanence d'un déficit de la notion de la responsabilité collective, quelque soit le support médiatique - confirmant ainsi notre décision de considérercomme secondaires les variables journalistiques eu égard aux exigences de laresponsabilité collective. En effet, la presse écrite, réputée plus propice à ladistanciation critique, durcit des logiques qui étaient déjà à l' œuvre dans ledébat télévisé, à travers l'anonymisation des journalistespuis à travers l'effacement de leurs questions, ensorte que la presse écrite traite du débat comme un préconstruit qu'elleentérine sans l'interroger. Comme notre objectif est d'interroger des pratiques linguistiques et leursdéficits par rapport à la notion de responsabilité collective, nous nechercherons pas à contextualiser longuement, sur un plan politique, la campagnedes élections présidentielles, et notamment la phase de précampagne qui aopposé, à l'intérieur du parti socialiste, Ségolène Royal à Laurent Fabius et àDominique Strauss-Kahn. Ces données sont certes Importantes pour les politistes( comme dans l'absolu, d'ailleurs), mais elles sont relativement secondaires parrapport à notre objet de recherche. Cela dit, il est important de retenir pournotre propos que l'organisation d'un débat entre candidats à la candidature d'unmême parti est inédite et a présenté aux journalistes comme aux débatteurs, sansdoute, une difficulté importante. Étant donné que ce débat (le deuxième d'unesérie de trois) avait pour fonction d'aider les socialistes à choisir par leurvote leur candidat à l'élection présidentielle, il a privilégié les différencesde personnes et de propositions. Or cette logique d'objectivation desdifférences opère au détriment de l'analyse critique des problèmes et dessolutions, et des éventuelles convergences qu'on serait en droit d'attendre chezdes candidats qui appartiennent à la même famille politique, indépendamment deleurs différences de positionnement et de programmes. Il y a là, du point de vue de la problématiquede la responsabilité collective, sinon une contradiction, du moins une doublecontrainte dont on ne peut pas ne pas tenir compte, mais qui n'empêche malgrétout pas qu'on s'interroge sur la façon dont la notion de responsabilitécollective est traitée. Dans un précédent travail (Rabatel, 2006), nous avions conclu que lesjournalistes n'échappaient pas à une interrogation sur leur responsabilité, d'unpoint de vue linguistique, à cinq niveaux d'analyse différents : responsabilitédu choix des mots; responsabilité de la sélection et de la combinaison desinformations; responsabilité de la gestion de la polyphonie; responsabilitédes grilles ou des cadres notionnels à partir desquels la réalité estappréhendée; responsabilité de la mise en texte ou en discours, par exemple deschoix de dramatisation et d'exacerbation des positions (Rabatel, 2006 : 81 - 83) .Le rôle des questions puis des commentaires des journalistes sera appréhendé enfonction de leur contribution à la construction linguistique des événements eten fonction de leur influence sur la prise en compte large ou au contraireétriquée de la responsabilité collective. Considérées à l'aune de la responsabilité collective, les questions sontréductrices à plus d'un titre. Elles portent sur des mesures partielles ,essentiellement émanant de propositions de Ségolène Royal et ne secontentent pas d'orienter le débat sur ses propositions, elles renvoient àune conception de la politique réduite à des mesures, des coups ponctuels etemblématiques, et moins à des actions complexes étalées dans le temps. Cephénomène est remarquable lorsque les questions ouvrent une séquencethématique, comme dans les questions 2, 3, 7 : (2) Interventions des interviewersreproduites par Le Monde du26-10-06 [l'allocutaire entre crochets] : Question 1 : (du script pages 18-19) « Les Français n'ontplus confiance dans les politiques. Comment retissez -vous le lien avec eux .Est -ce par des jurys de citoyens ? » [à Laurent Fabius] Question 2 : « On sait qu'en moyenne, aujourd'hui. unefamille sur trois contourne la carte scolaire. Voulez -vous. oui ou non, lasupprimer ? » [à Ségolène Royal] Question 3 : « C'est la privatisation des universités ? » [àDominique Strauss-Kahn] Question 4 : « Ça ne va pas faire exploser la dette ? » [àDominique Strauss-Kahn] Question 5 : « Est -ce qu'il faut une grande loi sur lafamille pour qu'on y voie plus clair en 2007 ? » [à Laurent Fabius] Question 6 : « C'est-à-dire aller jusqu' à la légalisation dumariage homosexuel ? Et l'adoption d'enfants également ? » [à LaurentFabius] Question 7 : « L'immigration. On estime aujourd'hui qu'il ya environ 300 000 clandestins en France. Ségolène Royal, si vous êtes élueprésidente de la République, est -ce que vous les régulariserez tous ? » [à Ségolène Royal] Question 8 : « Est -ce que vous avez un plan d'urgence pourles banlieues ? » [à Ségolène Royal] Question 9 : « Vous aviez proposé deux personnes dans uneclasse ? » [à Ségolène Royal] Question 10. « Vous maintenez votre proposition surl'encadrement militaire des jeunes délinquants de plus de 16 ans pour leurpremier délit ? » [à Ségolène Royal] Question 11. « Si vous êtes éluprésident de la République, à quoi ressemblerait votre présidence ? » [àDominique Strauss-Kahn] Question 12 : « Vous aviez dit. à propos d'un problèmeparticulier « Mon opinion est celle du peuple français. » D'une manièregénérale. cela peut-il être votre conception de la présidence de laRépublique » [à Ségolène Royal] Ces questions, plus ou moins reprises par tous les quotidiens, structurent ledébat, comme le confirment les sous-titres du Monde :« Jurys de citoyens; Carte scolaire; Mariage homosexuel; Régularisationdes clandestins; Banlieues; Institutions ». La structure comme le rythmedu débat compliquent l'approche de la complexité, tout comme les injonctionsde faire « vivant ». Par leurs questions, les journalistes entérinent le rôle majeur despropositions de Ségolène Royal : ainsi en est-il des questions 2, 9, 10, 12, qui invitent cette dernière à s'expliquer sur ses propositions, en lesconfirmant ou en les rectifiant. Il n'en va pas de même pour les autrescandidats, dont les questions partent de problèmes généraux. Plus, certainesquestions à Laurent Fabius (question 1) et Dominique Strauss-Kahn (question3) intègrent des positions de Ségolène Royal (question 1) ou des critiquesde la candidate (question 3), conférant à ses positions un rôle depréconstruit interdiscursif qui est censé traduire son rôle central dans ledébat politique. Là encore, la réciproque n'est pas observée. Dans deux cas ,un diagnostic de crise est mis en parallèle avec des positions de MadameRoyal (crise de confiance politique/jurys citoyens, non respect de la cartescolaire/ suppression de la carte scolaire), ce qui confère à ces dernièresune aura de prise de risque en phase avec les attentes des Français. Sur le plan conceptuel, la formulation des questions 1, 2, 10 privilégie uneapproche pointilliste, par l'idéologie « de la mesureconcrète » qui influe sur les réponses des candidats. SégolèneRoyal critiquera d'ailleurs cette façon de faire, dans un entretien du 25-10à 20 minutes, après le 2 e débattélévisé, mais publié le 9 novembre (soit après le 3 e) : « " Sur des enjeux majeurs, il ne fallait pas rentrer dans ledébat par une question secondaire même si elle est légitime ". Elle dénonceun débat qui l'a mise en porte-à-faux : " Aborder l'état de la France par lebiais des jurys citoyens avec une déformation de mes propos, aborder laquestion scolaire par la carte scolaire avec une autre déformation puisqueje n'ai jamais proposé sa suppression comme cela a été dit, ce n'est pas bonpour le débat " » (minutes.fr/print/2006/11/09/article 1 I9609.html). La sincérité de ces réserves ne convainc pas car leur auteur, juste après ledeuxième débat télévisé, s'était félicitée que ses propositions aient été aucentre des débats et avait ironisé contre son prétendu manque d'idées; lacandidate, plus que ses concurrents, avait la stratégie d'occuper le terrainpar des déclarations fracassantes pour mieux se retrouver au centre de labulle politico-médiatique. De fait, la formulation des questions réduit lamarge de manœuvre des autres débatteurs, qui peuvent être fondés à penserque l'éducation ne se réduit pas à la carte scolaire, pas plus que ladistance entre les citoyens et le pouvoir aux jurys citoyens. Ils sont ainsicontraints de se situer par rapport à ces mesures et peuvent difficilementles évacuer rapidement, sauf à donner d'eux -mêmes l'image négative d'unpoliticien professionnel cassant ou verbeux, à l'aise dans les discoursgénéraux. Le cadre des questions réside dans les positions des débatteurs, et, comme onvient de le voir essentiellement dans celles de Ségolène Royal. Le débat nefait guère place, explicitement, aux positions autres, émanant du corpssocial (syndicats, ong, experts, etc.), renforçantainsi la coupure entre des politiques qu'on fait s'affronter entre eux aulieu de les faire dialoguer avec des représentants autorisés du corpssocial. Quelles que soient les limites de la représentativité des corpsintermédiaires, celle -ci vaut mieux que les opinions d'un individusélectionné par les journalistes ou des officines qui vendent des plateauxclé en mains aux journalistes, en fonction de motifs pas toujours avouables( à l'instar du plateau organisé pour TFI par Dominique Ambiel, l'anciendirecteur de cabinet du Premier ministre Raffarin, pour l'émission deNicolas Sarkozy « Face à l'opinion publique »). Bref, il y a là une approche réductrice, pointilliste, spectaculaire ,superficielle et partiellement déséquilibrée de questions relevant de laresponsabilité collective, qui est encore accentuée par : • les contraintes contradictoires auxquelles lesjournalistes (et l'opinion) exposent le responsable politique, dans lesdébats médiatiques, pour faire de l'audience. Il est sommé de donner desréponses globales à des problèmes complexes : ainsi de la question 8 quiprésuppose que les banlieues nécessitent un « plan », qui plus est« d'urgence », ce qui sous-entend qu'il faut « une ou deux mesures », quisont des « signes forts » à envoyer dans « les 100 premiers jours ».. • les reformulations des journalistes privilégient lespectaculaire, la polémique, le clivage comme dans les questions 3 ou 6; • les interruptions fréquentes des discoureurs sous prétexteque les discours généraux seraient vagues, et doivent en conséquence êtresoumis à l'injonction du concret. Si d'aventure le responsable politiqueveut déployer un ensemble de mesures, il lui faut être très vigilant pourgarder le fil du discours, très souvent perturbé par les questions sur lapremière mesure (financement, faisabilité, etc.), qui font perdre de vuel'approche globale. Ainsi, la question 4 sur la dette relève davantage d'uneanalyse primaire et pour tout dire pavlovienne (« combien ça coûte ? »), quiintervient au début de la réponse et enraye de déploiement d'une penséeglobale qui tienne compte de la complexité - car des dépenses peuvent êtrecompensées par des gains ailleurs, selon une approche systémique de laquestion des finances; • la structure du trilogue, qui oblige à ne paslaisser trop longuement la parole à un seul débatteur et qui, commeCatherine Kerbrat-Orecchioni (1999) l'a montré, favorise des coalitions dedeux locuteurs contre le troisième, situation qui ne peut, dès lors ,qu'avantager le locuteur qui avait choisi un mode d'intervention provocateura fortiori si les journalistes amplifient lemouvement. Ce phénomène se produit y compris dans cette scène d'énonciationtrès originale, parce qu'elle renvoie à un débat entre camarades, et non entreadversaires, soumettant le débat à un ensemble complexe de doublescontraintes : il faut faire émerger des différences politiques sans secouper de sa famille politique, manifester par son ethos ses aptitudes àincarner, d'une part, le projet socialiste et à endosser la fonctionprésidentielle, être rassembleur et, d'autre part, à faire preuve de lacombativité propre à prendre le dessus sur un adversaire de droite réputépugnace. Il est lourd de signification de voir que le rôle si prégnant des questionsest totalement omis dans les commentaires des journalistes. La une du Monde (26/10/06) titre « PS : le débat s'organiseautour des propositions de Ségolène Royal », au-dessus d'un dessin de Plantusurenchérissant sur son omniprésence. Pages 18 et 19, la sélection desprincipales déclarations des candidats à l'investiture ne comprend quequelques unes des questions des journalistes. Or, ce sont les journalistesqui mettent au centre des débats les propositions de Ségolène Royal. Il n'ya pas à s'étonner dès lors, que le débat tourne autour de propositions quideviennent le prétexte des questions auxquelles ses challengers ne peuventrefuser de répondre, sauf à perdre la face. L'effacement du rôle des journalistes est plus net dans Libération (ou dans Le Figaro) qui remplaceles questions des journalistes par un montage de citations et dessous-titres (« Les jurys citoyens, l'éducation, la famille, l'immigration ,banlieues et sécurité »). Le commentaire sur le débat met l'accent sur laspectacularisation, titrant sur le conflit entre « frères ennemis », enprécisant dans le sous-titre : « Pour leur deuxième débat télévisé, lestrois concurrents du ps se sont divisés sur lesjurys citoyens, l'éducation et l'immigration ». L'éditorial insiste sur lefait que Dominique Strauss-Kahn et Laurent Fabius n'ont fait que sepositionner par rapport à la pensée de leur concurrente : « Depuis que lacompétition s'est engagée, tout revient à Royal, tout s'organise autour desa parole, tous les débats et invectives tournent autour de sespropositions. Invités à venir les commenter Fabius et dsk se sont transformés en censeurs impitoyables. En vieuxroutiers, l'un comme l'autre ont sauté sur ses hésitations lexicales et sesconfusions théoriques pour la mettre sur la défensive. Intense, parfoisviolente, la charge conjointe des deux éléphants a eu l'intérêt de pousserla gazelle à affiner corriger et amender ses dernières trouvailles. [. ..] Devifs contempteurs, dsk et Fabius se sonttransformés ainsi en involontaires traducteurs d'un « ségolisme » parfoiscaricaturé par le verbe de son auteure elle -même » (Libération, 25/10/06). L'effacement des sources journalistiques est accru dans la pqr. Le Dauphiné Libéré( 25/10/06) titre sur « Un second débat musclé », sans rapporter lesquestions et consacre l'essentiel du compte rendu à l' « affrontement centralsur les « jurys citoyens » » : « D'emblée, tous trois ont affiché leursdivergences à propos d'une idée, lancée par Ségolène Royal, qui a faitcouler beaucoup d'encre : des « jurys citoyens » susceptibles de passer aucrible le travail des élus ». La formulation initiale du paragraphe passe sous silence le rôle desjournalistes dans le questionnement. Le Progrès dumême jour procède de la même façon, même s'il consacre plus de place àl'événement, en titrant « Royal, Strauss-Kahn et Fabius affichent leursdivergences ». Un jour plus tard, Le Dauphiné Libérérevient sur le débat à travers un article d'Hélène Pilichowski :l'article titre « Ségolène mène la danse », selon une expression de sonporte-parole Gilles Savary et conclut que « c'est bien la ' madone dessondages ' qui impose ses thèmes. La journaliste dresse un portrait flatteur( « la " madone des sondages " », celle qui n'a « pas peur du peuple ») ens'appuyant sur les déclarations de Gilles Savary et de François Rebsamen ,directeurs de campagne, qui accréditent la thèse d'une battante capable del'emporter sur Nicolas Sarkozy. Le rôle des journalistes dans la mise enavant de la thématique de Ségolène Royal est totalement estompé dans lesparagraphes consacrés aux challengers : « Désigné pour ouvrir le feu desquestions sur la société française, Laurent Fabius saisit la toute dernièreproposition de la favorite des sondages sur les jurys citoyens pour lamettre en difficulté » (Le Dauphiné Libéré ,26/10/06); « Dominique Strauss-Kahn n'apprécie pas davantage l'idée defaire évaluer les résultats des élus par des groupes de personnes tirées ausort. Se demandant si ces instances auront " ou non " un " pouvoir desanction ", le chantre de la social-démocratie lui reproche de vouloir " bâtirune société sur la suspicion généralisée " » (Le DauphinéLibéré, 26/10/06). Fait notable, ces constats négatifs ne sont pas partagés par les promoteursdu débat. Richard Michel, président directeur général de la Chaîneparlementaire-Assemblée nationale, dresse un bilan positif de l'organisationde ces « confrontations indirectes comparatives » dont le succès « dévoileque les Français ont une véritable fringale de politique, à la condition quecelle -ci échappe aux ressorts du " mauvais spectacle ". Une faim de politiqueoù s'affichent des points de vue, des projets, des visions, des désaccords .Et cela prend d'autant plus de valeur lorsque le comparatif permet auxtéléspectateurs d'apprécier d'analyser de juger ce qui leur paraît le plusattrayant, le plus pertinent » (Libération ,13/11/06). Or le choix des questions comme le mode incisif d'intervention n'ont guèrepermis de penser la complexité. Certes, les journalistes ont montré, d'undébat à l'autre, une grande plasticité pour rendre le débat vivant et pourfaire émerger des différences. Mais reste la question de la pertinence del'angle par lequel les différences sont appréhendées. Reste aussi laquestion, insuffisamment théorisée, du but du débat : non pas seulementmettre en relief des différences entre des candidats, mais faire émerger dessolutions après avoir aidé au diagnostic. Mais ces objectifs sontsous-estimés par les journalistes, dans la mesure où ils pilotent le débaten évacuant un grand nombre de problématiques qui ne correspondent pas à ladoxa. Ce phénomène repose sur le fait que lesmêmes citent les mêmes, à travers le « discours convoqué » (De Proost ,2006 : 414). Il repose aussi sur le fait de convoquer des thèmes convenus ,négociés au préalable entre les chaînes et les représentants de chaquecandidat. Le débat devient un artefact dans lequel la sélection des thèmeset le calcul prévisionnel des propos qui feront mouche relève d'unereprésentation dramaturgique à visée persuasive, plus que d'une conceptionargumentée et rationnelle du véritable débat d'idées. L'autosatisfecit desdirections des médias souligne la nécessité de ne pas cantonner la réflexionaux journalistes, d'autant qu'ils ne sont pas les seuls responsables de cesdysfonctionnements. Les défauts de gestion du débat, voire les limites du genre du débatmédiatique (Lhérault, 2007), interrogent le rapport des médias, desresponsables politiques et plus largement des citoyens à la saisie ducomplexe dans le cadre de l'exercice d'une responsabilité collective lorsd'une campagne électorale : « À coups de statistiques simplifiées et dedéclarations sentencieuses, personnalités politiques, instituts de sondage ,publicitaires, éditorialistes, syndicalistes, polémistes, chercheurs etjournalistes participent, volontairement ou non, par manque d'ambition, d'outils oud'intérêt, à la construction d'une représentation biaisée de la sociétéfrançaise. À force d' être " routinisée " par des catégories ou des conceptstrop lourds ou trop datés, la société semble devenue illisible » (Beau ,Confavreux, Lindgaard, 2006 : 7-8). Les déficits précédents renvoient, en profondeur; aux limites d'un systèmemédiatique (et politique tout autant). Ces limites s'appréhendent en tantque le système entend reposer sur un type de contrat fondationnel quiaffirme avoir à informer concevant l'information en assumant laresponsabilité de clarifier la complexité du monde contemporain (à des finscognitives), ainsi que l'évoque Le Monde dans Le style du Monde, afin de contribuer à construire ceque Patrick Charaudeau appelle « la vérité civile ». C'est cette haute ambition qui n'exonère pas les médias de leurresponsabilité propre pour rendre compréhensibles les évolutions socialessans attirer l'attention sur des phénomènes marginaux ou superficiels, commele montre la différence de traitement entre le concept de working poors et la notion floue de « Bobo ». Quatre ans après sonintroduction dans la presse française en 2000, le concept de working poors continue toujours d' « émerger » etd' être présenté comme une « nouveauté », en 2004 (De la Porte, 2006 : 511) .En dépit de sa solidité scientifique, le concept ne prend pas dans lapresse. En revanche, l'expression Bobo, au contenu approximatif, quiapparaît aux USA en 2000 dans le livre de David Brooks, est la même annéeprésent dans les médias, via un compte rendu del'ouvrage dans le Courrier international, dans unarticle d'Alix Girod de l'Ain dans Elle, puisd'Annick Rivoire dans Libération. La notion profitedu contexte des élections municipales qui se conclut par la victoire deBertrand Delanoë à la mairie de Paris. Mais il y a un monde entre le contenuscientifique du concept géographique de gentrification - transformationsociale des quartiers populaires, conquis par des couches supérieures, àl'instar des évolutions de l'Est parisien analysées par le géographeChristophe Guilly (De la Porte, 2006 : 515) - et la valeur péjorative duterme dans la presse qui réactive l'idée de gauche caviar, en étendant lephénomène aux ex-jeunes de la génération 68, embourgeoisés et installés dansles rouages du pouvoir qui gardent un mode de vie plus bohème que celui desbourgeois traditionnels. Ces exemples interrogent radicalement laresponsabilité des médiateurs que sont journalistes et politiques, dans leurappréhension de la société : « Que les médias aient du mal à appréhender lemonde social est une évidence. Mais, compte tenu de leur importance dans lamise en scène du débat public, ils sont au cœur d'un questionnement surl'invisibilité. À cause d'un paradoxe qui leur est propre. D'un côté, ilsdonnent à voir le monde à leurs lecteurs, aux auditeurs et téléspectateurs .Ils ne se contentent pas de rendre compte de l'actualité, mais sont aussiproducteurs de réalités par l'impact qu'ils donnent aux représentationsdominantes. De l'autre, du fait de leur rythme (" télégraphique ", selonPierre Bourdieu), des contraintes d'audience et de vente, de laspectacularisation de l'information, de sa " folklorisation " - à traversnotamment les faits divers -, des lacunes dans la formation desjournalistes, de leurs contraintes de temps dans leur travail au quotidien ,du " formatage " qui pousse au schématisme et parfois à la caricature, et deleur perméabilité à l'agenda politique, ils sont les premiers producteursd'invisibilité » (De la Porte, 2006 : 509). Face à des pratiques préoccupantes, la réflexion sur la responsabilité ne doitpas se focaliser sur des coupables. D'une part parce que les responsabilitéssont partagées, d'autre part parce qu'il est préférable d'envisager l'avenir enassociant l'ensemble des acteurs autour d'objectifs plus conformes aux attentesd'une responsabilité commune - c'est une autre manière deparler de responsabilité collective, de l'intérieur. Ces dérives ne sont pas imputables aux seuls médias, dont l'influence ne joueque dans certaines limites, et de façon indirecte, tant les études ontmontré que le public était inégalement réceptif aux discours politiques ,davantage aux pressions sociales des groupes - qui poussent à homogénéiserles pratiques et valeurs du groupe. C'est pourquoi d'aucuns, à l'instar deBernard Berelson, ont pu ironiser sur cette influence : « Certains types decommunications sur certains types de sujets, émis à l'intention de certainstypes d'individus, pour certains types de condition, ont certain typesd'effets » (in : Rieffel, 2005 : 20). .. Cette thèse est cependant contestée ,et l'on aurait tort de penser que l'influence des médias est nulle. Auminimum, elle joue à la marge : mais la marge peut s'avérer d'autant plusimportante que le corps social est déboussolé, que les appartenancessociologiques pèsent moins, que les frontières idéologiques sont plusporeuses. Encore convient-il de souligner que les raisonnements précédentsréfèrent à l'idée d'un pouvoir à court terme de l'influence journalistique .Mais il faut aussi envisager les « effets structurants de discours capablesde définir la hiérarchie des enjeux sociaux et les manières de lesformuler » (Neveu, 2001 : 83), sur un plus long terme. Ainsi que le disaitRené Rémond (2004 : 181) : « Les médias ne font pas l'élection, mais ilscontribuent grandement à façonner la vie politique et concourent à laformation des électeurs. Leur action sur les élections n'est pas nulle, maiselle s'exerce de façon diffuse et dans le long terme ». D'une certainemanière, c'est à ce type de préoccupations et d'analyses que notre corpusfait écho, car nous mesurons bien que la complexité de la constructionsociale de la réalité et des identités ne se laisse pas réduire à desinfluences unidirectionnelles. C'est pourquoi il est plus satisfaisant d'évoquer des influences croisées etréciproques des médias sur la politique (et inversement). Celles -ci selisent à partir des modifications des comportements des responsablespolitiques, convertis à un usage formaté : importance de l'image, contrôlede soi et des messages, dramatisation, choix de la petite phrase, discoursaccessible, ethos de proximité, importance de l'émotionnel dans le cadred'une histoire partagée, fût-elle mythique, occupation du terrain médiatique, soumissionà l'urgence et à la nécessité de proposer des mesures immédiates ,collaborateurs fournissant aux médias des informations clés en main, etc .( Rieffel, 2005 : 21-24). Ils imitent les médias dans leur recherche d'idéesà la mode, faisant davantage appel aux experts qu'aux intellectuels (sauf àquelques intellectuels fortement médiatisés), moins aux universitaires, enrecourant ainsi de façon privilégiée à un vivier homogène dans ses façons depenser. La dictature du tempspolitique, l'injonction de répondre vite et par des mesures simples, la« sondageomanie » entraînent des simplifications en sorte que « la plupartd'entre eux [les politiques] ne font guère usage de la sociologie et dessciences consacrées à l'étude du monde social. La conséquence en est queleur représentation de la société est perméable aux analyses des institutsde sondage, aux requêtes de leur clientèle électorale, au formatage induitpar leur formation, aux images véhiculées par les médias » (Lindgaard ,2006 : 484), et rejaillit sur les conceptions, les programmes comme sur lespratiques des uns et des autres. Bref, s'il est une image qui résume lacomplexité de ces interrelations, c'est celle du « réseau ». Cette coresponsabilité des journalistes et des politiques se lit à traversles entrelacs de la pipolisation et du populisme. La pipolisation affecte lavie médiatique et politique, avec, à l'arrière-plan, les dangers dupopulisme. Dans une interview à Libération( 30/07/07), Christian Delporte, revenant sur l'élection présidentielle ,souligne que la pipolisation de la vie politique - qui vient de loin, voirla « politique-spectacle » des années 70 et l' « américanisation de la viepolitique » dans les années 60 - repose sur la désacralisation et lapersonnalisation de la vie politique. Ce phénomène est accentué en Francepar les évolutions institutionnelles liées au quinquennat et à l'inversiondu calendrier entre les élections présidentielles et législatives mais aussipar les évolutions technologiques (médias audio-visuels, sondages) .L'affaiblissement des clivages idéologiques favorise dès lors une « batailled'images ». La suite de la campagne vérifiera les dérives saillantes de notre étude decas, à travers la multiplication des émissions avec panels de citoyens :Marc Abélès (Libération, 20/02/07) fustigera cette« démocratie des petits moi, je », Éric Debarbieux( Le Monde, 1 6/02/07) regrettera l'éviction « stupideet humiliante » des chercheurs des débats électoraux opposant « peuple " d'enbas " contre intellos d'en haut », Jean-Marc Vittori, dans Les Echos (04/05/07), caractérisera le face à face avant ledeuxième tour comme un « débat très médiatisé mais sans médiation » etconstatera que la « désintermédiation » frappe les intellectuels, mais aussiles médias eux -mêmes; enfin, Pierre-André Taguieff (2007 : 51 - 66 )consacrera une analyse hélas convaincante à la compétition populiste entreSégolène Royal et Nicolas Sarkozy dans sa préface à la réédition de L'illusion populiste. Bref, la couverture télévisuelle de la campagne desélections présidentielles a apporté une contribution non négligeable aupopulisme ambiant avec la montée en puissance des panels de citoyens qui sesont substitués aux journalistes comme aux corps intermédiaires et auxspécialistes. Cette dérive n'exonère pas le public, qui est loin d' être unevictime, puisqu'il nourrit, suscite ces involutions, participe aux émissionset les regarde… Il n'est pas sans intérêt de souligner combien les dérives ultérieures de lacampagne sont en congruence avec notre corpus : les questions étroites desjournalistes ne naissent pas de rien, elles renvoient, au-delà desnégociations avec les débatteurs sur le choix des thèmes et des questions, àdes manières de penser communes aux journalistes et aux responsablespolitiques, et, surtout, elles relèvent de déficits dans l'appréhension vivede la notion de responsabilité collective, en montrant que les uns et lesautres prennent peu en compte, en tant que médiateurs sociaux, le faitd' être responsables, à tous les sens du terme, de, pouret devant les autres. De quoi s'agit-il ? La critique du journalisme ne saurait se limiter à l'idée qu'il suffiraitd'échapper au règne du libéralisme et des patrons de presse pour obtenir desjournaux de qualité (voir Le Bon, Chomsky Halimi, Carles) quis'adresseraient enfin à un peuple « sain » (Muhlmann, 2004a : 45 et sq.; 78-79). L'assujettissement économique estcertes négatif, mais il n'évacue pas une réflexion sur les effets négatifsde la « dictature du public » analogue à la dictature du pouvoir; ainsi queMarx, Pierre Bourdieu et Patrick Champagne l'ont montré. On ne peut pas nonplus opposer valablement des journalistes pervertis à une classe politiqueexempte de perversion, puisque les deux professions épousent bien desmanières identiques de penser. La tentation est grande, alors, d'opposer savants et experts auxprofessionnels des médias et de la politique. Alors que d'aucuns critiquentle manque de sérieux académique des journalistes et creusent le fossé entrejournalistes et savants, experts, universitaires (Bourdieu), Michel Foucault( 1976) travaille à combler le fossé, à dresser un pont entre penseur etjournaliste, chacun « échangeur », « diagnosticien du présent » ,« intellectuel spécifique » vs « intellectueluniversel ». Dans cette optique, il ne considère pas comme des défauts la« futilité », la « curiosité », l'aptitude à changer de sujet et de centred'intérêt, la mobilité du regard, le zapping; cesont aussi des occasions pour voir autrement, plus et mieux. Certes, chaqueregard est partiel, mais leur multiplication alimente un cercle vertueux :« Le problème est de multiplier les canaux, les passerelles, les moyensd'information, les réseaux de télévision et de radio, les journaux. Lacuriosité est un vice qui a été stigmatisé tour à tour par le christianisme ,par la philosophie et même par une certaine conception de la science .Curiosité, futilité. Le mot, pourtant, me plait : il me suggère tout autrechose : il évoque le " souci "; il évoque le soin qu'on prend de ce quiexiste et pourrait exister; un sens aiguisé du réel mais qui nes'immobilise jamais devant lui; une promptitude à trouver étrange etsingulier ce qui nous entoure; un certain acharnement à nous défaire de nosfamiliarités et à regarder autrement les mêmes choses; une ardeur à saisirce qui se passe et ce qui passe; une désinvolture à l'égard des hiérarchiestraditionnelles entre l'important et l'essentiel » (Foucault, 1980 :927). C'est dans cette voie que peuvent émerger; en figures de la responsabilitécollective éthique, des pratiques journalistiques qui relèvent du « nous »Ici, nous renvoyons aux idéaux critiques successifs par lesquels s'esthistoriquement manifestée une pratique journalistique qui s'efforce dedonner à voir les complexités du monde social, qu'il s'agisse de l'idéalcritique du journaliste flâneur qui, en appui sur lathéorie kantienne de l'observation, multiplie des points de vue partielspour faire émerger une vérité et un consensus autour de celle -ci, de celuidu journaliste-en-lutte, qui, à l'instar de Karl Marxou Karl Krauss, conçoit son travail comme un lieu d'affrontement del'idéologie sur son propre terrain. Toutefois ces deux idéaux sontsusceptibles d' être critiqués : le journaliste flâneur peut ne pas allerflâner dans les endroits gênants, avoir des œillères (Muhlmann, 2004a :159-1 65); le journaliste-en-lutte peut se faire le porteur messianique etscientiste d'une vérité (ibid. : 264) et désignerl' « autre » sans suffisamment théoriser le « nous ». D'où l'importance dutroisième idéal critique du journalisme, qui dépasse les deux précédents ,celui du journalisme comme « rassemblement conflictuel »de la communauté démocratique. Avec ce dernier idéal critique ,l'accent est mis sur le rôle critique etintégrateur du journalisme (ibid. : 283 ,290-292). Le journaliste décentreur/ rassembleur répond à une doublenécessité, nécessité de constituer du commun, de créer du « nous » et cellede faire vivre le conflit, sans lequel la démocratie se meurt » (Muhlmann ,2004b : 242), pour reconstruire une communauté sur d'autres bases. À cette aune, la responsabilité collective se décline enun certain nombre de fonctions, toujours en tension entre le décentrement etle rassemblement. C'est pourquoi, pour finir nous évoquerons quelques-unes des pistes quimériteraient d' être explorées, pratiquement comme théoriquement, si l'onenvisage de traiter du journalisme (et de toute autre forme de médiationsociale) avec « un peu de souffle », selon la formule de Géraldine Muhlmann enexergue de ce texte. D'abord, il s'agit d ' être responsable de, notamment de lafaçon dont les locuteurs rendent compte des discours des autres ou de leurpropre parole, dont ils taisent certains points de vue, construisent desévénements ou des arguments, interpellent les personnes et reformulent leurspropos. Sans oublier la façon dont ils représentent - fût -ce en l'effaçant -leur rôle interactionnel dans la reconstruction et le commentaire des événementsde parole. Ensuite, il s'agit d' être responsable pour : cela s'entendpour un groupe socio-professionnel, une mouvance idéologique, une formationpolitique, une institution, une nation, etc., selon une conception duporte-parole qui sache défendre des intérêts particuliers en ayant à l'espritles compromis nécessaires pour faire société; ici aussi les journalistes nesauraient s'exonérer de leur responsabilité de médiateur social, de la nécessitéde mieux jouer leur rôle en ne se bornant pas à reproduire ou accentuer lesmouvements de l'opinion. Car la responsabilité professionnelle du journalistec'est de faire entendre tous les points de vue, afin que se construisent, autourd'objets de débat partagés, des raisons communes et des moyens collectifsd'agir. Enfin, il s'agit d' être responsable devant : devant lessiens, ses pairs, ses (é)lecteurs, les citoyens, etc. Cette question interrogela fonction de témoin, au nom de ceux qui ne sont plus (les morts), qui ne sontpas encore (les générations futures) ou qui sont exclus du débat, à l'instar decette France invisible - dont Stéphane Beaud, JosephConfavreux et Jade Lindgaard (2006) se font l'écho, comme, naguère, PierreBourdieu, dans La misère du monde (Rey, 2006; Sicot ,2006). Quelle place, à l'aune de la responsabilité collective, réserver aux unset aux autres, et notamment à ces autres, qui bien qu'ils fassent partie denotre collectivité, n'accèdent pratiquement jamais à la visibilité ? Il y a làun problème qui concerne au premier chef les médiateurs sociaux que sont lesresponsables politiques et les journalistes. À titre d'exemple, rappelons que les membres des classes populaires ou dessyndicats sont quasiment ignorés dans les médias - comme dans les programmespolitiques - : sur 32 émissions du Franc parler (StéphanePaoli) et de Libre cours (Anne Sinclair) entre le 4 et le24 septembre 2006, pas un représentant syndicaliste n'est invité. Dans Entreprise et stratégie, Brigitte Jeanperrin invite unsyndicaliste après 41 pdg, entre le 5 septembre et le19 décembre 2005. Sur 477 invités de La marche du siècleentre 1987 et 1999, Jean-Marie Cavada a invité 0,2 % de représentantssyndicaux. L'étude de Sébastien Rouquette (2002) sur 400 débats télévisés entre1958 et 2000 montre notamment qu'en 1989-1990, les plateaux télévisés comptent10 % d'ouvriers et d'employés alors qu'ils représentent 60 % de la populationactive. Non seulement le peuple est sous-représenté, mais quand il parle, c'estpour dire ses émotions (témoignages, micro-trottoirs), l'analyse étant réservéeà l'expert qui commente la parole populaire (voir Maler Reymond, 2007 : 76-79 ;83-84). Si l'on croit aux vertus de la représentation du conflit, à la nécessité de« réinventer le politique comme objet d'un spectacle collectif, c'est-à-direcomme scène visible depuis une autre scène, celle où le peuple se fait public delui -même » (Muhlmann, 2004a : 351), pour mieux jouer son rôle d'acteur alors ,mieux vaudrait faire entendre toutes les voix - notamment celles de journalistesresponsables et exigeants -, et donc aussi les voix souffrantes entachéesd'inaudibilité et d'invisibilité .
La responsabilité collective - distincte de la culpabilité collective -correspond à la façon dont un individu ou un groupe prend en compte les problèmes d'une communauté qui aspire à « faire société ». Cette notion est interrogée du point de vue des journalistes et des responsables politiques, en tant qu'ils sont des médiateurs censés idéalement donner une forme argumentée aux conflits, sur la scène publique. Cette interrogation sera menée à propos du deuxième débat entre prétendants à la candidature socialiste lors de la pré-campagne des élections présidentielles françaises. Elle mettra en avant l'insuffisance des approches déontologiques journalistiques avec leurs rituels d'objectivité, et montrera que ces médiateurs sont profondément responsables de leurs discours et de leur mise en scène, mais aussi du choix ou du non-choix d'exprimer les points de vue des différentes fractions du corps social, devant le corps social tout entier, bref, dans la façon dont ils portent la parole et témoignent dans le but de faire émerger un « nous » refondé au terme de la représentation des conflits.
sciencesInfo_10-0032248_tei_1109.xml
termith-364-communication
Qu'est -ce qu'un dossier ? Il existe des dossiers sur tous les sujets (dossier juridique, dossier d'urbanisme, dossier médical, dossier de documentation. ..) mais que présuppose ou que sous-entend l'emploi du mot dossier ? Ce mot a -t-il le même sens dans l'environnement numérique que dans l'environnement papier ? Le fait que la revue Document numérique consacre un numéro spécial aux « dossiers numériques » peut surprendre au premier abord, car le monde du numérique est en général plutôt associé à la notion de données, tandis que le mot dossier évoque facilement la pile de chemises sur le bureau, des dossiers suspendus dans une armoire, ou encore des boîtes d'archives remplies au gré des affaires terminées. Dans ces conditions, l'expression « dossiers numériques » se limite -t-elle à désigner le produit de la numérisation de ces dossiers papier, ou peut-elle aussi renvoyer à la création de dossiers numériques natifs ? Si oui, qu'est -ce qu'un dossier numérique natif, puisqu'en tout état de cause il n'alimentera ni une étagère d'armoire ni un carton d'archives ? Les pages qui suivent tentent de circonscrire la notion de dossier, née au XVI e siècle dans un contexte lié à l'usage du papier, répandue au XXe siècle avec le développement de la bureaucratie et utilisée aujourd'hui dans l'environnement électronique : quel est le sens spécifique de ce mot ? A -t-il évolué au cours des siècles et des techniques de production de l'information ? A quoi s'oppose -t-il ? La notion de dossier est-elle vraiment pertinente dans l'environnement numérique ? Qu'est -ce qu'un dossier ? Le mot vient de « dos » et évoque a priori quelque chose qui se trouve à l'arrière d'un corps dont il assure le maintien. Le dos de l'homme ou de l'animal est disposé autour de la colonne vertébrale. L'idée a été transposée aux objets quand, par exemple, on parle du « dos » d'un livre. Le mot dossier, dans son acception purement matérielle désigne également un élément qui permet de maintenir : le dossier du fauteuil. Au sens figuré, le Petit Robert donne comme définition de dossier : « Ensemble des pièces relatives à une affaire et placées dans une chemise ». On voit ressortir deux éléments principaux : la notion d' « affaire » et la notion de « chemise ». Toutefois, on peut se demander si cette définition est suffisamment explicite. Recouvre -t-elle la réalité des appellations du langage courant ? « Dossier » a -t-il par ailleurs un sens plus technique ? Prenons quelques exemples. Un dossier de personnel (gestion des ressources humaines) ou un dossier de patient (dossier médical) ne correspondent pas exactement à la définition : d'une part, il ne s'agit pas d'une affaire, il s'agit d'un individu; d'autre part, les pièces de ce dossier peuvent se trouver dans plusieurs chemises, dans des armoires distinctes (armoires des équipes qui suivent la carrière, les congés, ou la formation), voire dans des bureaux ou des services distincts (service de rhumatologie et service de cardiologie). Dans les siècles passés, une procédure judiciaire importante ou complexe pouvait donner lieu à un gros dossier qui toutefois tenait le plus souvent dans une grosse chemise. L'inflation paperassière et procédurale aidant, il n'est pas exceptionnel de voir aujourd'hui des dossiers judiciaires de plusieurs mètres d'épaisseur, voire plusieurs dizaines de mètres, lesquels ne tiennent évidemment pas dans une seule chemise. On en conclut qu'il convient de modifier et/ou de préciser la définition minimale du dictionnaire pour y faire entrer tous les exemples de dossiers. La définition du dictionnaire énonce deux traits distinctifs du dossier résumées ci-dessus par deux mots : « affaire » et « chemise » qui se révèlent vite trop restrictifs. Ce sont peut-être les deux mots du résumé qui sont trop restrictifs car dans les exemples proposés (et dans bien d'autres), on a bien croisement de deux éléments : un élément de pertinence (« relatif à ») et un élément de localisation (« placé dans »). Toutefois, la pertinence va plus loin qu'une affaire puisqu'il peut s'agir d'une personne, ou d'une activité précise dans le cadre de la conduite d'une affaire (établissement des pièces contractuelles dans une affaire de construction), ou d'une procédure (dont le sens est un peu plus circonscrit que le mot affaire). Par ailleurs, la localisation du dossier n'est pas unique puisque le volume physique du papier oblige à le répartir dans plusieurs chemises facilement manipulables. Si le dossier est vraiment volumineux, c'est souvent que, en raison de l'importance de l'affaire, plusieurs acteurs sont intervenus dans sa production et que, de ce fait, chaque acteur organise sa partie du dossier (chaque équipe ou chaque service). Le nombre des acteurs n'est pas seul en cause; les supports et la forme physique jouent aussi leur rôle pour différencier la localisation puisque que le même document, selon son support et sa forme, sera physiquement placé avec les autres documents, ou éloignés d'eux. Ainsi pour un dossier d'urbanisme où les plans pourront être soit pliés et rangés dans la même chemise que les documents techniques ou contractuels, soit roulés dans des tubes et rangés dans un autre local. Du point de vue logique, il serait aberrant que cet élément factuel suffise à altérer l'entité du dossier auquel ces documents se rattachent. Il en ressort que le dossier, quoi qu'on fasse, s'appréhende nécessairement en deux dimensions indissociables : une dimension intellectuelle ou logique (incluant les dimensions syntaxique et sémantique), et une dimension matérielle ou physique. Pour aller plus loin, on peut se demander ce qui différencie un dossier d'un autre document qui ne serait pas un dossier. Qu'est -ce que n'est pas un dossier ? Ou encore, qu'est -ce qu'un « non-dossier » ? Les autres mots utilisés pour désigner des ensembles d'informations sont notamment les mots « document », « registre », « collection ». Quelles sont les relations de ces notions avec celle de dossier ? Le « document » est un terme très générique défini comme l'association d'une information et d'un support. Les dossiers sont constitués de documents (souvent hétérogènes) et peuvent être considérés eux -mêmes comme des documents. Dans l'environnement papier, le document qui entre dans la composition d'un dossier est volontiers appelé « pièce » (voir la définition du Petit Robert ci-dessus). Toutes les pièces d'un dossier dont des documents mais tous les documents n'entrent pas systématiquement dans la composition logique d'un dossier, même s'ils peuvent être « placé dans une chemise ». Par exemple, un rapport non relié, émis à une date précise et placé dans une chemise en raison du nombre important de ses pages ou pour lui donner une présentation plus agréable, ne pourra être qualifié de « dossier » que sur ce critère matériel. La différence entre document et dossier est que le premier correspond à une date unique, à un acte unique et la chemise où il est rangé regroupe des pages; alors que le second correspond à un laps de temps au cours duquel s'agglomèrent divers documents rangés dans la même chemise. Toutefois, il existe des dossiers qui, en dépit d'une date d'ouverture et d'une date de fermeture distinctes, se réduisent à une seule pièce, comme certains dossiers sans suite, mais la période du dossier est alors porteuse de sens. En d'autres termes, le document se suffit à lui -même; il est considéré comme une entité autonome. Le dossier, lui, documente ce qui s'est produit sur une période donnée d'activité et s'appréhende comme un ensemble. Dans l'environnement papier, le mot « registre » et le « dossier » ne sont pas confondus, en raison de leur présentation physique respective (reliure, chemise). Sur le fond, qui est le critère restant dans le cas d'une informatisation, on a, avec le registre, l'enregistrement de données selon un critère chronologique pour une catégorie d'informations ou d'événements (registre du courrier, registre des mariages); et, avec le dossier, le regroupement de toutes les informations relatives à un objet ou à un individu (dossier de carrière, dossier de projet) 1. La notion de « chrono » (chrono de courrier, chrono de contrats, etc.) se rattache à celle de registre : le regroupement est chronologique, lié à l'activité des bureaux et non au contenu des différents documents. Dans l'environnement papier, on produit d'ailleurs souvent certains documents en deux exemplaires : un pour le chrono, l'autre pour le dossier. Ce facteur temporel est donc fondamental dans cette tentative terminologique : le document renvoie à la notion d'événement daté ou datable; le chrono à une succession chronologique d'événements datés de même nature; le dossier à un ensemble d'information regroupées entre deux bornes chronologiques. L'idée de « collection » est a priori bien distincte de la notion de « dossier », mais elles ne s'opposent pas systématiquement car elles ne se situent pas sur le même plan. « Collection » suggère de regrouper des documents de même nature selon un critère de contenu et/ou de forme (tracts syndicaux, prospectus publicitaires, cartes postales, chansons, etc.). Cette collecte peut éventuellement donner lieu à la constitution d'un dossier (par exemple, la correspondance et les factures relatives à la collection). Par ailleurs, des dossiers peuvent faire l'objet de collections (dossiers judiciaires ou médicaux représentant un corpus intéressant pour la recherche). Pour alimenter cette réflexion, il est curieux de voir comment le mot dossier, ou les expressions françaises comprenant le mot « dossier » sont traduites dans les langues étrangères. L'exemple de l'anglais est à la fois simple et instructif. Le grand dictionnaire terminologique est « un ouvrage de référence unique rassemblant un fonds terminologique d'envergure de 3 millions de termes français et anglais dans 200 domaines d'activité » élaboré au Canada [DIC 01 ]. Nous avons dépouillé l'article « dossier » de ce dictionnaire. Bien évidemment, la traduction n'est pas unique. Trois termes principaux interviennent dans les équivalents anglais des expressions françaises qui comprennent le mot « dossier ». Ce sont : folder, file et records. « Folder » a une connotation plus matérielle et l'origine du mot évoque la pliure de la chemise. Le mot « file » insiste sur le classement et la notion de fichier, non seulement sur le rangement matériel, mais aussi, parce que les deux sont liés, sur la nature du dossier qui le rattache à une série qu'il est nécessaire de classer rigoureusement. Enfin, le mot « records », au pluriel, souligne la notion d'ensemble organique, le rattachement à une procédure, à des règles pour la constitution du dossier. Voici quelques exemples d'expressions et de leur traduction anglaise : dossier suspendu hanging folder dossier de travail working papers, job folder dossier nominatif name file dossier de crédit credit file dossier d'une affaire case file dossier ouvert, dossier clos : active file, closed file dossier d'exploitation (informatique ) program run sheets des enregistrements (transport aérien ) transport check-in record dossier de principe procedural record dossier informatisé computer record dossier commercial business case dossier medical : medical record dossier d'instruction trial record dossier scolaire academic record La terminologie anglo-saxonne reprend les trois acceptions courantes du mot « dossier » : individualisation matérielle de documents (folder), ensemble physico-logique (file) et ensemble d'informations produites et réunies de manière logique sans préjuger de leur forme matérielle (record). La première acception, strictement matérielle, ne se prête guère à des développements mais les deux autres méritent d' être approfondies. On peut donc considérer le dossier comme une enveloppe, matérielle ou virtuelle, qui reçoit des informations (données, documents) liées par une unité de contenu pendant une période donnée. Lorsque cette période n'est pas close, le dossier est réputé « ouvert » et susceptible d' être encore alimenté. Pour aller plus loin et tenter de catégoriser toutes les entités qui répondent à la définition ci-dessus du mot dossier, nous avons retenu trois points à examiner plus à fond : l'événement déclencheur du dossier, sa finalité et son mode d'alimentation, c'est-à-dire les règles, s'il y en a, suivant lesquelles les documents viennent prendre « place » dans le dossier. Qu'est -ce qui fait que l'on ouvre un dossier ? Quel est l'événement qui va déterminer le début de la période au cours de laquelle les informations vont alimenter le dossier ? Si l'on observe différents types de dossiers, dans l'administration ou en entreprise, on remarque deux grands cas de figure : les dossiers que l'on créé dès qu'une personne ou un objet est visé par une procédure dans le cadre d'une activité quelconque, dossiers où l'on « versera » de manière organique toutes les pièces qui documente l'application de la procédure. La procédure peut être externe, réglementaire ou judiciaire (contrôle fiscal, permis de construire, versement du RMI, gestion d'un agent, soins donnés à un malade) ou interne (selon l'organisation des équipes de travail et les étapes de validation établis par la hiérarchie); la procédure peut s'appliquer de manière récurrente (recrutement de personnel) ou occasionnelle (contentieux dans une PME qui n'a pas de service juridique); les dossiers qui sont initiés en dehors d'une procédure définie mais qui documentent une activité d'étude et de documentation, par exemple : analyse de la possibilité d'une nouvelle implantation d'un siège social, prospection d'un nouveau marché, projet de création d'un nouveau produit, dossier de presse thématique. Dans le premier cas, l'événement déclencheur est la lettre de demande de l'intéressé (demande d'une subvention, lettre de plainte) ou le document de l'organisme en charge de la procédure (décision d'une inspection, compte rendu de démarche commerciale, arrêté de recrutement d'un collaborateur). Dans ce cas, on connaît à l'avance la nature des documents qui constitueront le dossier, par exemple : copie de la décision, imprimé n° 112, pièces justificatives, avis de la commission technique, etc. Dans le second cas, l'événement déclencheur est la lettre de mission du chargé d'étude, la décision d'un comité (consignée dans un compte rendu), ou simplement l'initiative d'un chercheur dans le cadre de ses attributions de recherche. Dans ce cas, en revanche, on ne connaît pas à l'avance les pièces du dossier car le déroulement de l'opération n'est pas nécessairement normalisé et reste de la responsabilité de l'auteur du dossier. La réalité n'est pas toujours binaire dans la mesure où l'application d'une procédure peut donner lieu à des initiatives à certaines étapes du dossier, conduisant à l'ajout au dossier de types de documents non prévus au départ. Inversement, un dossier d'étude qui ne relève pas d'une procédure type dans sa globalité peut être soumis à des règles pour certaines phases de sa constitution. Toutefois, la prise en compte de l'événement déclencheur du dossier n'est pas neutre dans les opérations de traitement automatique auquel il pourra être soumis, et dans la gestion du cycle de vie du dossier, c'est-à-dire de son élimination à terme. A quoi servent les dossiers ? S'ils sont constitués, c'est a priori qu'ils ont une utilité. La question est de savoir à qui ils sont utiles et pourquoi. Là encore, en observant un panel de dossiers, il ressort deux grandes finalités à l'existence d'un dossier : la traçabilité de l'activité que documente le dossier, c'est-à-dire, la justification de la façon dont les choses se sont déroulées : qui a fait quoi dans le déroulement de la constitution du dossier; si toutes les étapes de la procédure ont été respectées et si on peut le prouver en cas de contestation. Ces informations sont contenues dans la forme des pièces, dans leurs identifiants, dans les dates de création des documents et des données qui composent le dossier; la connaissance du sujet que vise le dossier, c'est-à-dire la relation des faits ou la description des situations, l'expression de la volonté, l'exposé des idées. Ces informations figurent dans le texte (ou l'image ou le son) de chacune des pièces du dossier. Ces deux finalités sont pratiquement présentes dans tous les types de dossiers, mais dans des proportions et avec des priorités diverses. Là aussi, pour l'amélioration de la production de l'information et pour la gestion des dossiers, il est utile de bien cerner la finalité pour le ou les utilisateurs et de voir à quel moment cette finalité se manifeste. Certains dossiers sont surtout consultés pendant leur phase de constitution et beaucoup moins après leur clôture. C'est le cas des dossiers qui servent à gérer une personne ou un objet : dossier d'agent, dossier de patient, dossier d'entretien d'une machine. A l'inverse, les dossiers qui présentent une forte valeur ajoutée historique pourront être consultés régulièrement après une période de latence pouvant aller jusqu' à plusieurs décennies. D'autres servent à préparer une décision : le dossier est constitué selon les critères définis, pendant une période généralement courte, et n'est vraiment consulté que lorsqu'il est complet car il faut que la constitution du dossier soit achevée pour que la décision puisse être prise valablement; après quoi, la décision constitue la pièce de clôture du dossier (permis de construire, candidature à l'université, préparation du budget) ou donne lieu à la création d'un nouveau dossier (dossier d'entretien d'un immeuble faisant suite au dossier d'acquisition). Dans le cas des dossiers constitués par une démarche documentaire pour éclairer un choix (dossier de veille concurrentielle, dossier d'étude d'implantation d'un établissement, dossier de projet d'exposition ou de stage), la notion de traçabilité est faible par rapport à la valeur de connaissance. En revanche, ce type de dossier peut garder un intérêt de référence après que l'événement déclencheur de sa création est périmé. C'est également le cas des dossiers de travail personnel qui ont une finalité de connaissance pour leur auteur. Dès lors qu'un dossier est constitué d'un nombre conséquent de pièces distinctes (dix, vingt, cent ou plus) se pose le problème de leur agencement dans le dossier et de leur classement, dans le but, toujours le même, de retrouver le plus efficacement possible l'information susceptible d' être recherchée. On peut toujours empiler les documents dans l'ordre d'arrivée réelle dans « l'enveloppe » mais il s'avère vite préférable d'organiser des cases pour y affecter l'information suivant sa pertinence. Il n'existe pas de modèle standard pour l'agencement des documents au sein d'un dossier. Des centaines de modèles sont possibles. La meilleure solution dépend de la prise en compte globale de plusieurs facteurs : ordre d'arrivée des documents, relation organique des documents entre eux, auteurs des documents, forme et support des documents, valeur propre en termes de traçabilité et de connaissance, traitement spécifique qui doit être fait de chaque document. De sorte que le modèle d'organisation n'est pas nécessairement le même pour un dossier papier et un dossier électronique. Le cas le plus simple est celui d'un dossier dont tous les documents sont produits par le même auteur, dans un ordre chronologique qui suit l'ordre logique, avec le même outil, par exemple un dossier de réunion technique comprenant : des notes pour préparer la réunion, un compte rendu de préréunion, copie de la convocation, le compte rendu de la réunion proprement dite et des notes sur ce compte rendu, le tout saisi sur Word et imprimé. Les cas plus complexes cumulent des critères d'organisation tels que : documents créés en interne et documents reçus de l'extérieur; documents papier, film, électroniques (impression ou non des documents générés électroniquement, documents mixtes, etc.) [CHA 00b] [PON 00]; documents texte type A4, A3, et documents figurés (plans, photographies), objets (maquette, modèle) ou multimédia; documents validés et documents non validés (brouillon, version rejetée ou document ne nécessitant pas de validation); question(s) et réponse(s), par exemple une demande d'avis avec sa liste de destinataires et l'ensemble des réponses reçues; documents de travail (textes de référence, plan de classement du dossier, copies de documents extérieurs) et documents entrant stricto sensu dans la composition du dossier (c'est-à-dire relatifs à la personne ou à l'objet du dossier); document principal (document « maître ») et documents annexes (pièces justificatives indissociables du document principal et pièces jointes non obligatoires); documents originaux quant à l'information qu'ils contiennent et documents qui, même s'ils sont authentiques, ne comportent pas d'information de contenu nouvelle (par exemple une facture); documents de base et leur récapitulatif; documents de preuve et documents non probants (distinguo qui ne recouvre pas systématiquement les catégories précédentes); copie de documents probants reçus pour information et documents probants propres au dossier; documents à vocation unique dans l'organisme ou l'entreprise et documents à vocation multiple (c'est-à-dire utilisés ou partagés par d'autres services); et ainsi de suite, selon les cas particuliers. Un dossier a toujours un minimum de colonne vertébrale, constituée des documents « repères » qui correspondent aux étapes principales de la procédure ou à la structure de la démarche documentaire. A ces « repères » peuvent se rattacher plusieurs grappes : documents préparatoires, documents associés, documents complémentaires. Aux documents « repères » comme aux documents qui leurs sont liés, on peut attribuer des indices de valeur, permettant de gérer l'accès à l'information et la durée de conservation du dossier et de ses composantes. L'expérience montre que si on a besoin de coter ou d'indexer les documents d'un dossier, pour mieux le feuilleter ou mieux y naviguer, il est plus efficace de s'appuyer sur cette analyse archivistique du dossier. Son rôle de traçabilité d'un processus et de regroupement d'informations donne à l'unité documentaire qu'est le dossier une valeur informationnelle qui lui est propre et qui en fait une entité supérieure à la somme de ses composants. Le dossier est porteur d'une information particulière qui n'est pas exprimée en clair et qui se déduit de l'observation : c'est d'une part une « méta-information » sur l'événement documenté, d'autre part des indices sur la manière de travailler de l'auteur du dossier. Depuis la date d'ouverture du dossier (par suite de l'événement déclencheur) jusqu' à sa clôture (en raison de la fin de la procédure, de la décision de clôture, de la disparition de la personne ou d'un transfert de l'activité à une autre instance), le dossier est sensé recevoir systématiquement toute l'information liée au traitement de l'affaire (au sens large du terme). La présence ou l'absence d'une lettre dans un dossier constitue un élément d'information qui peut se révéler capital pour la compréhension des événements ou de l'activité qui a produit ledit dossier [CHA 95] : présence d'un document qui, de par sa nature, n'aurait pas dû se trouver là (par exemple un courrier préparé mais jamais envoyé, un mot d'une personne qui n'est pas sensée être intervenue dans le dossier, etc.); absence d'une pièce qu'on s'attendrait pourtant à trouver là, soit qu'elle n'ait jamais existé, soit qu'elle ait été supprimée ou déplacée; présence d'un accusé de réception; absence d'un document externe que son auteur soutien pourtant avoir reçu, etc. Que le dossier soit physiquement éclaté, pour des raisons de volume ou de format, ne change rien à la réalité de cette méta-information. En revanche, si l'on vient à démembrer la conservation physique d'un dossier en perdant le lien qui unit organiquement et logiquement l'ensemble de ses pièces, on risque de perdre du même coup l'information qui naît de leur cohérence. Il arrive que des informations de traçabilité (qui participent de cette méta-information) soient inscrites sur la chemise, ainsi que divers commentaires de l'auteur du dossier; il arrive aussi que ces informations soient perdues lors d'une réfection du conditionnement des liasses, lors de leur microfilmage ou lors de leur numérisation. Le besoin de connaissance de l'utilisateur porte quelquefois sur les habitudes de travail des producteurs de dossiers, au-delà de l'examen des faits et du contenu de telle ou telle affaire. C'est bien l'apparence et le mode de constitution du dossier qui peut témoigner de cette réalité. Ce n'est pas seulement la présence ou l'absence des documents qui sont porteuses de sens, mais leur agencement, leur classement, leur organisation. Il existe deux catégories d'utilisateurs qui s'intéressent davantage au fonctionnement des bureaux qu' à la nature des affaires traitées : ce sont, en interne de l'entreprise ou de l'administration, les responsables de la qualité et les auditeurs des processus de travail; ce sont ensuite les utilisateurs externes que sont les sociologues ou historiens du monde du travail. Il est en effet intéressant de constater qu'une même activité, conduite avec les mêmes procédures par X entités parallèles, donne lieu à des dossiers sensiblement voire carrément différents. Par exemple : la création d'un dossier client dans les neuf agences d'une même entreprise produit des dossiers étonnamment différents, non seulement au niveau de l'apparence ou du conditionnement, mais surtout au plan des critères de classement des informations, de l'attributions des identifiants, de la nature des pièces requises dans le dossier. Autre exemple : la gestion d'un dossier d'étranger dans les cent préfectures de France, avec la même réglementation, donne lieu à des profils de dossiers très nuancés quant à l'organisation des pièces dans le dossier. Le dossier, documentation résultant du croisement d'une activité (procédure, démarche documentaire) et d'un objet (personne, immeuble, machine, etc.), est d'abord physiquement organisé par la personne qui le constitue, qu'il fasse ou non par la suite l'objet d'un autre classement, d'un autre conditionnement ou d'un changement de support. Le dossier peut être subdivisé, rattaché à une entité plus large ou liés à d'autres documents ou d'autres dossiers. Lorsqu'un dossier s'épaissit par l'accumulation de documents au fur et à mesure de la poursuite de l'activité, le bon sens suggère qu'on le subdivise en sous-ensembles fonctionnels, soit par un tri et classement du dossier a posteriori (opération ressentie à juste titre comme fastidieuse), soit par une ventilation des documents dans des sous-dossiers au moment de leur versement au dossier. La composition et l'intitulé des sous-dossiers sont parfois élaborés au plus haut niveau, par exemple cette circulaire du ministère de la Culture des années 1970 prescrivant l'organisation interne des dossiers de personnels des Directions régionales des affaires culturelles (DRAC) en sous-chemises de couleur, portant les lettres A, B, C, etc. pour les différents aspects de la gestion des agents (carrière, congés, distinctions honorifiques, etc.). Plus souvent, même dans l'administration ou les grandes entreprises, l'organisation du dossier est laissée à l'initiative des services, et plus souvent encore à l'initiative des équipes de terrain, d'où la grande disparité que l'on peut constater. Tout le monde s'en accommode, jusqu'au jour de l'informatisation ou les difficultés de partage et d'accès à l'information en l'absence de normalisation du dossier se font jour. Dans le cas d'un dossier de personnel, l'organisation du dossier reflète la décomposition de l'activité elle -même et produit des sous-dossiers parallèles, alimentés par des agents différents (gestion de la carrière, suivi de la formation, accidents du travail…) puis, le cas échéant, par des services différents, au point que, matériellement, on n'a plus un dossier avec ses sous-dossiers mais plusieurs dossiers, pouvant eux -mêmes se subdiviser à leur tour, de manière si compartimentée qu'on en vient à regretter le temps du dossier commun. Pour d'autres activités, l'organisation interne du dossier est plus chronologique, chaque étape de la conduite de l'affaire donnant lieu à des catégories de documents différentes. Par exemple, les dossiers d'un bureau d'études peuvent atteindre facilement atteindre un mètre linéaire en regroupant : les pièces contractuelles (juridiques), les documents techniques attachés au contrat, les documents de chantier et la correspondance pour chaque phase d'exécution de l'affaire. Pour une personne qui « subit » une procédure (adhésion à telle association, demande de subvention pour tel projet, contrôle fiscal), le dossier qui en résulte reste atypique ou entre dans une catégorie plus large (suivi des relations avec les partenaires, demandes de subventions en général, relations avec l'administration). Pour la personne qui gère la procédure en revanche, les dossiers sont aussi nombreux que les affaires, les objets ou la population concernée par cette procédure : allocataires, clients, agences, établissements, bâtiments, sites, cours d'eau, colloques, stages, projets, etc. Chaque « population » génère un classement particulier. On constate que dans la plupart des entreprises ou organismes, au moins 80 % des dossiers appartiennent à une série ou aux ramifications logiques d'une série liée à une activité identifiée, même si ce lien est quelquefois masqué par la place prépondérante donnée dans l'intitulé du dossier au thème ou à l'objet traité au détriment l'activité générique qui le produit, par exemple des dossiers de précontentieux dispersés et signalés simplement par le nom de l'affaire et qui donne l'impression d' être autant de dossiers isolés. La valeur d'une série de dossiers, c'est-à-dire la responsabilité qui s'y attache et les exigences de sa gestion archivistique (accès, stockage, élimination) ne peut-être déterminée qu'au travers de l'activité précise qui produit ces dossiers. Quel est le rôle exact de tel agent ou de telle équipe vis-à-vis de telle affaire ou de telle personne par le biais de tel dossier ? Gérer entièrement, gérer une partie, servir de courroie de transmission vers un autre service qui sera le véritable « producteur » du dossier ? L'environnement papier et l'éloignement géographique entre deux services conduisent à dupliquer de nombreux documents pour information et à constituer des séries parallèles de dossiers qui sont de faux doubles. Par exemple, la filiale d'une entreprise a un service du personnel chargé de gérer directement les congés et de transmettre toutes les autres pièces à la DRH du siège, laquelle lui adresse copie des documents centraux intéressant ses agents. L'information existe de manière à peu près identique dans les deux cas, mais il ne s'agit pas du tout des mêmes dossiers sur le plan de la responsabilité et de la conservation. C'est par exemple ce type d'analyse qu'induit une démarche de Records management [ISO 01 ]. Au cours de sa constitution ou de son exploitation, le dossier doit être mis en relation avec d'autres sources d'information, d'autres entités documentaires qui comportent des données voisines et/ou qui procèdent d'une activité très proche. On peut en citer au moins quatre catégories : le dossier générique de la procédure ou de la définition du projet, ainsi que le dossier de synthèse ou les statistiques; les registres ou bases de données d'enregistrement qui comportent une sorte de fiche d'identité de chaque dossier (élaborée en amont, au cours ou en aval de la constitution du dossier proprement dit) et qui pointe sur le dossier correspondant; les séries de dossiers parallèles visant la même « population » pour une autre activité ou une autre étape de la même activité confiée à une équipe distincte (équipe chargée de la sécurité des bâtiments distincte de l'équipe chargée de l'entretien; équipe chargée de la communication des expositions distinctes de l'équipe chargée de l'organisation, etc.); des séries d'actes, tels que chronos de décisions, de contrats, de comptes rendus, de jugements qui, pour des raisons diverses, sont classés à part, sans qu'une copie soit nécessairement jointe au dossier. Ces séries présentent, sous cette forme de collection, une valeur ajoutée d'information, un intérêt pratique de consultation, voire une facilité pour la gestion de la conservation. Mais ceci ne doit pas faire oublier que chaque élément du chrono est également partie constituante d'un dossier. Dans l'environnement électronique, les technologies XML offrent aujourd'hui des possibilités sans précédents pour maîtriser ces liens et donc pour organiser l'exploitation documentaire des documents liés. Il est dès lors intéressant, à la lumière des possibilités technologiques, de repenser et de préciser l'architecture du dossier. Le dossier apparaît comme une entité mouvante, dans son fond comme dans sa forme. Ce qui permet de l'appréhender comme unité documentaire et archivistique (comme support d'information et comme « record »), c'est la définition de l'activité qui le génère. Il est impossible de caractériser un dossier sans prendre en compte son auteur et le but qu'il poursuit au travers de ce dossier. Une fois le contour du dossier délimité, il faut gérer conjointement les contraintes de structuration et les contraintes d'identification de l'unité en cause. Avec l'inflation du dossier, le volume d'information et de documents est maîtrisé soit par une organisation stricte des pièces dans le dossier selon un schéma type avec des codes convenus, soit par une démultiplication de l'activité et la ramification du dossier en plusieurs dossiers. L'accès rapide à l'information recherchée requiert davantage qu'une organisation logique des pièces dans le dossier. Deux voies se complètent pour la maîtrise de l'information dans un dossier : d'une part l'indexation des contenus à l'aide de mots-clés et de thésaurus dont les exemples sont nombreux; d'autre part, la structuration des informations par rapport au contexte de création de l'information. Pour des archivistes, cette structuration se réfère largement à la forme diplomatique des documents, c'est-à-dire à la portée du document (document de décision, lettre confidentielle, note interne, notification) ou à la zone du document dans lequel se situe l'information (en-tête, référence, corps du texte, citation, mention marginale, post-scriptum, annexes, etc.) [CHA 00a ]. La modélisation de la structure du dossier est indispensable dans un environnement électronique mais elle n'est pas toujours possible a priori dans le détail. La difficulté est de modéliser le maximum de ce qui peut l' être sans interdire, par excès de structuration, la création d'une information qui n'entrerait pas systématiquement dans une case prédéfinie [CHA 99 ]. Il apparaît indispensable de fournir à l'auteur un « espace semi-privatif » où il puisse noter les informations marginales qui l'aident à travailler sans rien enlever à la rigueur de la constitution du dossier ni à l'accès à l'information. La forme et la présentation matérielle sont insuffisantes pour définir le dossier dans sa dimension de « record », c'est-à-dire de trace d'une activité qui implique une responsabilité de son auteur vis-à-vis de l'action accomplie et vis-à-vis des documents qui supportent cette activité. Dès que sa forme n'est plus tangible et simple, c'est-à-dire dès que l'on sort du cas de la chemise de carton qui regroupe la totalité des documents relatifs à l'affaire sans ambiguïté possible avec d'autres documents existants par ailleurs, il devient urgent de donner à l'ensemble des informations qui constituent le dossier un identifiant unique et stable. Cet identifiant sera, pour l'utilisateur à la recherche de traçabilité ou de connaissance, le garant de l'exhaustivité des informations recueillies lors d'une requête sur le contenu d'un dossier ou, du moins, il permettra de relativiser ces informations par rapport à son contexte de création. Le lien créé par cet identifiant unique entre toutes les données qui procèdent de la même activité correspond à l'attribution naguère d'une cote à toutes les pièces d'un dossier papier (par exemple une liasse de procédure judiciaire). La nécessité d'un identifiant unique pour la gestion des responsabilités et du cycle de vie des documents est soulignée dans la norme ISO 15489 sur le Records management [ISO 01 ]. En autorisant le partage des documents et l'accès à distance, l'environnement électronique rend possible le concept de dossier unique partagé entre tous les intervenants, auteurs et utilisateurs des documents relatifs à un même objet, à une même affaire ou à une même personne, quelle que soit la nature des activités ou des opérations vis-à-vis de cette affaire, cet objet ou cette personne. L'avantage en termes d'accès à l'information est évident, mais il ne faudrait pas prendre le risque de perdre la traçabilité des opérations effectuées par les différents responsables impliqués. La gestion d'un bâtiment communal implique plusieurs services de la mairie comme un dossier de patient à l'hôpital peut impliquer plusieurs services si le malade a été traité pour plusieurs pathologies. Chaque service a besoin de gérer « son dossier », avec les critères de classement et d'élimination qui sont liés à son activité; ce même service a besoin, de temps en temps ou souvent selon les situations, d'accéder à l'information contenue dans le « dossier des autres » services. Au niveau de l'institution toute entière, le dossier unique serait donc une sorte d' « association de dossiers », avec des droits et des devoirs quant à la création, à la gestion et à l'accès (ou à la restriction d'accès); les métadonnées ad hoc permettraient de singulariser la part de chaque producteur (chaque responsable) dans la constitution de ce « super-dossier ». Pour l'utilisateur qui s'intéresse à telle affaire, tel objet ou telle personne, l ‘ idéal serait de disposer à l'aide d'une seule requête de l'ensemble des informations relatives à sa recherche, non seulement au sein d'une institution, mais aussi dans tous les organismes que leur activité a conduit à constituer un dossier sur l'affaire, l'objet ou la personne en cause. Ce serait une seule « enveloppe » comportant, par exemple pour un bâtiment communal classé parmi les monuments historiques : les documents des services municipaux, mais aussi ceux de l'administration des Monuments historiques, ceux des collectivités qui subventionnent, etc. Pour un patient, il s'agirait de toutes les données de son suivi médical chez ses médecins, dans tous les hôpitaux ou cliniques où il a séjourné, en France et à l'étranger. Cette « enveloppe » ne répond plus à la définition de dossier telle qu'elle a été exposée plus haut, dans la mesure où la responsabilité de cette entité d'information n'est pas facilement identifiable. On pourrait plutôt parler d'une « fédération de dossiers ». Ou, si on voulait considérer cet ensemble d'information comme un dossier unique, ce serait comme fruit de l'activité de l'organisme en charge de fédérer les données des dossiers d'autres organismes, car il capitaliserait les informations aussi bien qu'il tracerait l'activité de l'organisme fédérateur. Au terme de cette réflexion, il apparaît que le mot dossier, si on veut lui donner une définition qui le distingue des autres entités documentaires, renvoie aujourd'hui essentiellement à un ensemble logique de documents et de données produit au cours d'une activité (caractérisée par un verbe d'action : gérer, accorder, fabriquer, enquêter, étudier, soigner, vendre, etc.) et visant une affaire, un objet ou une personne. Il se trouve que pendant de longues décennies, il y a eu dans la très grande majorité des cas identité entre le dossier logique – organique ou documentaire – et le dossier physique (aspect éponyme). Puis, l'inflation documentaire et la déréglementation des méthodes de travail anciennes ont introduit des distorsions entre les deux facettes du dossier, et rendu la notion plus complexe. Dans l'environnement électronique, l'utilisation du mot dossier s'est inspirée des emplois existants. Outre le nom de la « boîte » proposée par les logiciels pour y ranger ses documents électroniques, l'expression « dossier électronique » recouvre aujourd'hui deux réalités : les dossiers papier numérisés et les dossiers créés électroniquement. Pour les premiers, il s'agit surtout d'un changement de support et d'une facilitation d'accès qui ne remettent pas en cause la structure initiale de l'information. Pour les seconds, la technologie permettant de s'affranchir des contraintes formelles de l'environnement papier, on est amené à repenser le dossier, à recomposer l'agencement des données pour harmoniser au mieux le besoin d'information et les outils qui la produisent, la transmettent et la conservent. Quels que soient sa forme et son support, la notion de dossier s'avère intimement liée aux deux exigences professionnelles que sont la traçabilité de l'activité et la responsabilité de l'information (accès et conservation). On peut dire pour conclure que le dossier est une entité documentaire à géométrie variable mais dont la géométrie initiale et ses variations ne sont pas le fruit du hasard. Elles s'expliquent par trois éléments qui sont : les règles observables préalables à la création du dossier (procédures et responsabilités, objectif, objet, délai), les outils de production de l'information (papier, électronique ou autre), l'organisation du travail (organisation des équipes et habitudes des « rédacteurs »). Ces trois composantes semblent devoir être prises en compte pour la modélisation d'un dossier électronique natif .
Le dossier est souvent définit par son objet (dossier de subvention, dossier de patient, dossier de presse) sans que l'on s'appesantisse davantage sur ce que recouvre la notion de dossier, ce qu'elle sous-entend, à quoi elle fait référence. Ce numéro de Document numérique sur la numérisation de dossiers papier et la production de dossiers électroniques est une occasion d'essayer de définir ce qu'est un dossier et d'observer si le changement de support affecte le contenu du dossier.
sciencesInfo_03-0024667_tei_DN_061_0159.tei.xml
termith-365-communication
Les campagnes d'informations sanitaires que l' État diffuse sur les écrans detélévision ont vocation à transformer le comportement des individus pour les inciterà ne pas fumer (Berlivet, 2004), modérer leur consommation d'alcool, se nourrir defaçon équilibrée (Memmi, 2011) ou encore respecter le code de la route (Grossetête ,2008a). Pour parvenir à leurs fins, elles ne cessent, depuis l'apparition en 1999 dupremier spot « choc » de « sécurité routière » (Brunet, 2007), de recourir auregistre de la peur. Ce dernier consiste généralement à exposer les conséquencesdramatiques sur le corps d'une conduite préjudiciable pour la santé. En agissant surle niveau d'autocontrainte des individus, les messages de prévention ou desensibilisation participeraient du processus de « civilisation des mœurs » (Elias ,1973), car ils auraient, selon les communicateurs, un effet conatif, c'est-à-direune influence qui leur est propre sur les pratiques sociales. Alors que les journalistes, le personnel politico-administratif et leurs concepteurssemblent d'abord préoccupés par le niveau de violence mis en scène dans lescampagnes ou par la mesure de leur influence supposée sur les comportements ,l'objectif (à la place de « enjeu ») est ici de questionner le réalisme affiché parcette communication préventive. À cet égard, les spots de « sécurité routière »constituent un objet de recherche pertinent. En effet, les chances objectives demourir ou se blesser gravement dans un accident corporel de la circulation ne sontpas équivalentes selon la position occupée dans l'espace social (Grossetête, 2010) .En France métropolitaine, 3239 conducteurs ont trouvé la mort en 2007 et 22,1 %d'entre eux étaient ouvriers alors qu'ils ne représentaient, cette même année, que13,28 % dans la population métropolitaine de 15 ans ou plus selon l ' insee. La catégorie sociale la plus épargnée est celle desCadres et professions intellectuelles supérieures (cpis )qui représentait 2,9 % des conducteurs tués en 2007 et 8,4 % dans la population deréférence. Il semble donc rationnel de mesurer laplace faite aux catégories sociales concernées par la mortalité routière au sein descampagnes de prévention, a fortiori lorsqu'elles apparaissentcomme plausibles en exposant des accidents de la circulation. L'intention n'est pasde statuer sur ce que l'identification aux messages pourrait faire aux conducteurs ,mais de mettre en évidence les « versions de la réalité » qui, dans les campagnes deprévention, « ont un plus grand pouvoir que d'autres de définir et de décrire cetteréalité » (Gusfield, 2009 : 14). Quels liens entretiennent les spots de « sécuritéroutière » avec les accidents et les accidentés les plus communs ? Si les campagnes de « sécurité routière » sont documentées tant du point de vue de laproduction – sous l'angle historique (Picard, 2009) ou socio-organisationnel( Brunet, 2007) – que de la « réception » – au prisme des sciences de l'informationet de la communication (Berthelot-Guiet, Ollivier-Yaniv, 2001) ou de lapsychosociologie (Chabrol, Diligeart, 2004) –, aucune enquête ne confronte « lepoids des dispositifs » de communication aux « dispositions » (Darras, 2003 )sociales des individus. En conséquence, cet article tente d'analyser les troisstades du processus communicationnel (production, circulation et interprétation desmessages) : les logiques de production et de circulation des campagnestélévisuelles, leur contenu puis l'influence des dispositions sociales des individussur l'espace des représentations possibles des dangers de la route. Il s'appuie surl'examen statistique de l'ensemble des Bulletins d'analyse des accidents corporelsde la circulation (baacc) dressés en 2007, surl'exploitation secondaire d'un questionnaire destiné aux conducteurs souhaitantrécupérer des points sur leur permis de conduire, sur l'analyse de contenu des spotsdiffusés à la télévision entre 1999 et 2005 ainsi que sur des entretiens avec descommunicateurs et des usagers de la route. La division du travail de production des campagnes différencie les servicesspécialisés de l' État des entreprises privées de communication. La Direction dela sécurité et de la circulation routière (dscr) ,l'Observatoire national interministériel de sécurité routière (onisr) et le Service d'information du gouvernement (sig) sont en charge de fixer la stratégie globale deprévention tandis que les grands groupes de communication, en contrat avecl'administration (une agence, un institut de sondage et une centrale d'achat) ,ont vocation à réaliser, évaluer et placer les films dans l'espace publicitaire .En raison de la gravité particulière du sujet et parce que l'action publique decommunication est sommée de démontrer son efficacité, l'interprétation des spotsest étudiée avant leur réalisation (sur présentation de photographies) dans lecadre d'entretiens collectifs rémunérés (les pré-tests) puis quelques tempsaprès leur diffusion, par questionnaires téléphoniques (les post-tests). Au-delàde ces procédures d'évaluation, les campagnes de prévention des accidents de lacirculation sont rapportées (par leurs concepteurs, le personnel politique etadministratif ou les journalistes) au nombre de tués de la route, ce qui, enretour, renforce la croyance en l'effet propre de la communication (mais ausside certaines mesures bien concrètes comme l'implantation des radarsautomatiques), surtout lorsque la mortalité diminue de plus de moitié, comme cefut le cas en France entre 2002 et 2010. Cette opportunité de bons chiffresrenforce l'influence des routines professionnelles des communicateurs sur lareprésentation des destinataires visés par l' État. En effet, les prestataires del'administration deviennent quasiment les seuls interprètes des « cibles »qu'ils considèrent comme pertinentes, depuis leurs univers professionnels, pourprévenir les accidents de la circulation. Par conséquent, ils appliquent lesthéories du marketing issues de leurs formations universitaires (écolessupérieure de commerce ou de communication, i ep) à la production des campagnes de « sécuritéroutière », ainsi qu' à celles consacrées à d'autres problèmes sociaux comme lechangement climatique (Comby, 2008 : 188), pour adresser les spots en principe àtous, c'est-à-dire, dans la terminologie propre au milieu des communicateurs, au« grand public ». L'individu générique, isolé de son environnement social, estle destinataire volontairement privilégié par les producteurs, comme l'indiqueune salariée de l'agence de communication en contrat avec l'administration. « Ce n'est pas la dscr qui nous demandede faire ça, c'est une conviction qu'on a depuis trois ans et demi qu'ontravaille avec eux, c'est qu'il faut s'adresser à M. et M me tout le monde, des gens qui ne sont pas des fous du volant. Detoute façon, les fous du volant, on ne les convaincra pas d'avoir une conduiteapaisée, ils sont tarés, ils resteront tarés, il y a des gens, il ne faut mêmepas chercher à les convaincre, ni à les toucher par la communication. Nous ons'adresse à toute cette frange de la population qui est un petit peu dans latransgression, mais à peine [… ]. On s'adresse à M. et M me tout le monde. Ce sont ces gens là qu'on veut toucher avec ce typede discours. […] Pour la télévision, ce sont des campagnes grand public »( Entretien avec une salariée de l'agence de communication, février 2005). La logique des professionnels de la communication étant de s'adresser au plusgrand nombre, les populations supposées difficiles à atteindre sont négligées .Les communicateurs ne pourraient pas définir les destinataires des campagnes àpartir de caractéristiques sociales autres que biologiques (le sexe et l' âge )dans la mesure où ils ne bénéficient pas de données plus fines et crédibles queles chiffres officiels, lesquels ne mentionnent pas les catégories socialessur-exposées à la mortalité routière. Dans l'incapacité d'adresser ouvertementles spots aux populations concernées, ils doivent se contenter des donnéesofficielles, toutefois produites selon une éthique en affinité avec la leurlorsqu'ils orientent les messages vers le « grand public ». Mais derrière lediscours de dénégation des différences sociales en vigueur dans leur pratiqueprofessionnelle, ils peuvent partager la certitude inverse, au moins à titrepersonnel : Le rapport au risque est-il le même en fonction de lacatégorie sociale ? « La catégorie socioprofessionnelle joue énormément, les plusdéfavorisés, ce sont ceux qui prennent le plus de risques parce qu'ils n'ont pasforcément les moyens d'avoir une bagnole à eux, ils empruntent des bagnolesqu'ils ne maîtrisent pas trop. Parfois, il y a des vols de bagnole, des traficsde bagnole, ils les bricolent, voilà, ils n'ont pas les moyens d'avoir unevoiture payée par papa confortable, révisée régulièrement, imparabletechniquement. Et puis ils sont dans un rapport à l' État d'opposition à la loi ,à tout ce qui est rigide, réglementaire et qui incarne l'ordre et la répression ,c'est un truc qu'ils rejettent ». Adaptez -vous les messages à ces populations ? « Nous, non, on n'a pas adapté, quand on parle aux jeunes, ons'adresse à l'ensemble des jeunes et l'on essaye de trouver le plus petitdénominateur commun. Parce que déjà l'administration n'a pas les moyens auniveau des budgets de communication d'aller chercher chaque sous-cible et de luiparler avec un langage bien spécifique. En plus de ça, on a un vrai problème ,c'est que, à moins qu'il y ait une super-étude qui soit conduite, on ne peut pasidentifier quels sont les jeunes. C'est très difficile de savoir exactementcombien il y a de jeunes qui sont dans telle catégorie par rapport au risqueroutier. Donc il faut parler à tout le monde et l'on trouve le message quis'adresse universellement à tous les jeunes. […] On s'adresse à des publics ,c'est-à-dire à des gens que l'on peut mettre dans des cases en termes d' âge, desexe, de catégorie d'usager de la route […].Parce que les autres on ne peut passavoir où ils sont, qui ils sont, ni comment on les touche » (Entretien avec unesalariée de l'agence de communication, février 2005). Faute de moyens pour mieux connaître socialement les accidentés, lescommunicateurs décident à distance, dès le stade de l'anticipation des« réceptions », du sort réservé aux « plus défavorisés » dans la communicationde l' État par le simple fait de ne pas en faire des cibles prioritaires, ni mêmesecondaires. En apparence, les campagnes s'adressent à tous les groupes sociauxcar elles ne peuvent servir des intérêts catégoriels ou particuliers( Ollivier-Yanniv, 2000 : 198). Toutefois, durant leur élaboration, elles sontexposées à l'arbitraire du recrutement des enquêtés participants aux pré-tests ,donc aux intérêts spécifiques des individus les plus disposés à prêter del'intérêt à ce genre de protocole mais aussi aux sondages d'opinion et plusgénéralement à « la politique » (Champagne, 1990 : 115). De plus, l'incitationfinancière peut encourager la bonne volonté sociologique ou des réponses decomplaisance. Enfin, ces tests attirent parfois des régulierssemi-professionnels du focus group, à tel point qu'unfichier est tenu par l'institut de sondage pour ne pas recruter les mêmesenquêtés à plusieurs reprises. Par ailleurs, après leur diffusion, les spots deprévention sont évalués sur la seule base de la mémorisation du message, à lamanière des méthodes qui ont cours pour mesurer « l'efficacité » de la publicitécommerciale : Questions posées :Vous personnellement, vous souvenez vous avoir vu ou entendu récemment( c'est-à-dire au cours des quatre dernières semaines) une campagne d'informationde la Sécurité routière ? Ou avez -vous entendu cettecampagne d'information de la Sécurité routière ? Voussouvenez vous avoir vu ou entendu cette campagne d'information de la Sécuritéroutière ? Dites -moi tout ce dont vous vous souvenez àpropos de cette campagne télévisé/radio d'information ? Que voyait-on ? Quedisait-on ? Vous souvenez vous avoir vu cette campagned'information à la télévision/à la radio ? Impact : Souvenir global : Ensemble desindividus se souvenant avoir vu/entendu une campagne d'information de laSécurité routière. Score de reconnaissance :Pourcentage de personnes qui reconnaissent avoir vu/entendu la campagne testéesur présentation du photoboard après écoute des spotsradio. Mémorisation : Score spécifique :Pourcentage de personnes qui citent au moins un élément précis et distinctif dela campagne, c'est-à-dire que l'on peut attribuer à la campagne testée. Score vague : Pourcentage de personnes qui citent aumoins un élément vague de la campagne, c'est-à-dire que l'on peut attribuer à lacampagne testée mais de manière non distinctive. Scorefaux : Pourcentage de personnes qui citent au moins un élément faux de lacampagne, c'est-à-dire que l'on peut attribuer sans conteste à une autrecampagne (ifop, 2005). Parce qu'elle assiste les souvenirs, la méthode « vu/lu » facilite les réponsesde complaisance, donc conforte les communicateurs dans leurs habitudesprofessionnelles. Ces outils, issus du marketing commercial, permettent, à lalimite, d'évaluer la pertinence de la programmation des spots dans l'espacepublicitaire. Mais les capacités de diffusion de l' État ne peuvent rivaliseravec celles des principaux annonceurs privés, au premier rang desquels lesconstructeurs automobiles (Brunet, 2004 : 54) dont les publicités concurrencentou relativisent bien souvent les messages de prévention. Les coûts d'acquisitionprohibitifs des espaces publicitaires limitent la probabilité d'exposition despopulations concernées aux campagnes. Plus l'audience du programme d'hébergementdu spot est importante, plus le temps de passage sera coûteux. L'exemple desrencontres de football est significatif. Bien que l'on puisse anticiper aveccertitude une forte présence d'hommes issus des classes populaires devant cetype de programme, les films de prévention passent rarement durant la mi-tempsdes matchs en raison des coûts de diffusion, comme l'explique une salariée de lacentrale d'achat d'espace publicitaire des campagnes ministérielles françaises : « Par exemple, un match de foot ça peut être 150 000 euros les30 secondes. Moi j'achète un peu de matchs de foot ça dépend des affiches. C'esttrès cher donc j'ai aussi ma problématique de rentabilité. […] Un 13 h sur tf1 ça va faire 35 000 euros les 30 secondes et surFrance 2 un 12 h 55 ça va faire 8 000 euros, ça n'a rien à voir mais j'auraibeaucoup plus d'audience sur tf1 que sur France 2. [… ]Par contre, quand on fait du Paris Première, bien évidemment on va plus toucherles csp+. […] Si la dscr souhaite que je touche un peu plus certaines populations, je le ferai, mais ilsne m'ont jamais spécifié quoi que ce soit. Ils ne m'ont jamais donné lesstatistiques d'accidentologie, ça jamais ». L'accueil que réserve le microcosme des agences de communicationaux campagnes de prévention des accidents de la route constitue un enjeu depremier ordre. Réputé fortement rémunérateur en profit également symbolique, cemarché de communication est prestigieux, donc stratégique, pour lepositionnement de l'agence elle -même dans son environnement économique .L'entreprise privée titulaire du marché de la « sécurité routière » a ainsiremporté trois distinctions internes à l'univers de la communication en 2006 eten 2007 grâce aux campagnes qu'elle a produit pour la dscr. L'obtention de ces distinctions constitue bel et bien unemodalité de consécration interne de l'excellence publicitaire. Leurdénomination, emprunte du vocabulaire managérial, est, à cet égard, sanséquivoque. L'agence a été distinguée en 2006 et en 2007 dans les catégories« Intérêt général » par le « Top com d'or corporate etbusiness » pour un spot consacré au port de laceinture à l'arrière puis pour un autre évoquant le risque de sur-accident etdont la diffusion a été rapidement stoppée en raison d'images trop violentes .Elle a également remporté le grand prix « Stratégie » pour la campagne « 90km/h » en 2007. Les communicateurs sont prioritairement préoccupés par l'audience des campagnesqui est perçue par ce microcosme de plus en plus influent sur la communicationde l' État comme une légitimité quasi totale, car proche du principe« démocratique » de la majorité (Champagne, 2003 : 138). Se construit ainsi unereprésentation des destinataires de la communication préventive socialementconforme aux contraintes de l'administration et de ses prestataires privés, carsimple à mettre en chiffres et à interpréter lors d'évaluations condamnées àplaider la performativité du message ou le bon emploi de l'argent public. La manière dont les cibles des campagnes de prévention sont définies renseignesans doute moins sur le problème des accidents de la route que sur lescommunicateurs et les producteurs d'explications eux -mêmes. Les classificationsqu'ils utilisent durant la production des spots témoignent, en effet, de leurrapport d'indifférence aux milieux populaires, mais aussi universitaires( Georgakakis, 1995 : 174). Les populations visées sont référencées au concept ,en libre circulation dans les formations en marketing, de socio-style( Georgakakis, 1992 : 163) qui substitue à la classification socioprofessionnelledes typologies psychologisantes supposant des individus dépouillés de leursattributs de classe : « les jeunes », « les hédonistes », « les déstabilisés » ,« ceux qui contrôlent » ou encore les « mal dans leur peau », pour reprendre la terminologie à prétention savante d'une enquête du Centre derecherche pour l'étude et l'observation des conditions de vie (Crédoc, 2000 :83) faisant autorité dans l'entre-soi des communicateurs. Ces taxinomies« desociologisées » (Neveu, 1990 : 137) ne semblent valoir que pour appréhenderla conduite des classes supérieures. Elles conduisent les communicateurs –notamment ceux des agences parisiennes – à diriger les spots vers les catégoriesd'usagers auxquelles, bien souvent, ils appartiennent eux -mêmes, c'est-à-dire« les scooters costards », « les voitures bureaux » ou ceux s'adonnant à« l'alcool mondain ». Ils tendent à projeter leur vision géographiquement doncsocialement située du problème dans ces classifications indigènes qui sontinvesties d'une violence symbolique car mandatées par l' État. L'accident modalest, à leurs yeux, celui qui survient à Paris et dans son agglomération proche ,là où ils travaillent et où l'inégalité sociale devant la mortalité routière estla moins spontanément visible en France. À titre d'exemple, 61 % des tués en2004 occupaient une voiture de tourisme (onisr, 2006 :11). Pour autant, à Paris, il n'est pas rare que certaines années quasimentaucun automobiliste ne meure sur les routes, comme ce fut notamment le casen 2007 : un seul tué sur les 37 recensés dans la capitale (Préfecture dePolice, 2008 : 13). Les salariés de l'agence de communication et ceux del'institut de sondage sont liés par des visions proches du monde social, donc duproblème tel qu'il doit être représenté dans les spots. Comme le montrent leurstrajectoires et celles de leurs prédécesseurs, le haut de la hiérarchie desfonctions de communication est, dans le public comme le privé, fréquemmentoccupé par les membres des fractions supérieures de la classe moyenne quisemblent attirées, comme l'indiquait déjà Pierre Bourdieu (1979 : 415) pour lesannées 70, par « les professions de présentation et dereprésentation (représentants de commerce et publicitaires, spécialistes desrelations publiques, de la mode et de la décoration, etc.) et dans toutes lesinstitutions vouées à la vente de biens et de services symboliques ». Lescommunicateurs accordent du crédit aux arguments d'allure sociologique lorsqueceux -ci les aide à cerner le comportement routier de ces catégories aisées ,lesquelles sont bien connues donc l'objet d'une prévention relativement ajustée .À l'inverse, la conduite des classes populaires – plus lointaines socialement etspatialement – reste mal définie, donc privée de représentation dans lescampagnes. Tributaires de logiques sociales dont ils sont symboliquement exclus ,les conducteurs les plus en danger sont désignés par des expressions floues etimprécises, du type le « cow-boy », « le fou duvolant », « le taré », « le biker en Harley Davidson » ouencore « l'alcool, c'est pas pareil chez les ouvriers ». « Ce qu'on appelle des cow-boys ce sontles mecs qui roulent à 200 km/h sur le périphérique, on s'en fiche qu'il soitcsp+ (Catégorie socioprofessionnelle supérieure) oumoins, ce n'est pas ce qui le caractérise en premier [… ]. On avait unecatégorie, c'était le scooter costard, oui, là on était sur des csp+ [… ]. L'alcool mondain c'est pareil c'est connupour être csp+. Maintenant sur les scooters dans Parisou à Marseille, là, la dimension csp+ elle estdominante parce que ce sont des gens qui ont une voiture par ailleurs, quiveulent aller vite d'un point à un autre pour travailler davantage. Là, ladimension csp va être déterminante dans le rapport àl'outil moto, alors que le cow-boy, non, c'est pas uncritère déterminant. Donc moi ce qui va m'importer quand je fais un groupe cow-boy, c'est pas tellement que le mec soit csp+ ou non. C'est qu'est ce qui fait qu'il est danscette recherche, dans ce rapport au risque et comment est -ce que l'on peutarriver à désamorcer cette expression de quelque chose, d'un mal être, d'unmalaise, de se prouver quelque chose à soi -même » (Entretien avec une salariéedu département d'évaluation des campagnes de l'Institut de sondage, février2005). Dans la mesure où les messages sont évalués sur la base d'indicateurs propres aumilieu des publicitaires (notoriété, mémorisation, attribution, agrément), cesderniers ont intérêt en retour à des films violents et culpabilisants mais pasnécessairement efficaces pour refléter « les accidents les plus typiques »( Darras, 2006a : 56). En effet, les accidents et les accidentés visibles dansles spots sur la période 1999-2005 sont paradoxalementles plus exceptionnels. Lors de sa diffusion en 1999, la campagne de RaymondDepardon marque une rupture dans la communication publique en exhibant pour la premièrefois des images réelles d'accidents, qui plus est en rase campagne là où environtrois décès routiers sur quatre ont lieu (onisr ,2006 : 20). Néanmoins, elle peine à représenter les plus fréquents qui frappentles jeunes adultes de moins de 25 ans la nuit dans 55,9 % des cas, voire66,2 % lorsqu'un seul véhicule est impliqué (onisr ,2006 : 151). En retour, la diffusion de cette première campagne « choc » contribue à élargirl'espace du montrable dans les spots. Ainsi le film suivant, qui futgracieusement prêté par le gouvernement anglais et diffusé en France en 2001 ,montre -t-il « ce qui était complètement impensable auparavant : le sang »( Brunet, 2007 : 310). Mais l'apparition de l'hémoglobine dans les campagnes neles rend pas plus crédibles. Alors que le « populaire » est remarquablementabsent de la mie en scène, l'accidentéporte un costume cravate traduisant explicitement son appartenance auxcatégories sociales les moins exposées à la mortalité routière. Les deux autres spots diffusés en 2001 affichent les mêmes difficultés à resituerune image vraisemblable des accidentés. Ainsi donnent-ils à voir des accidentsimpliquant des familles malgré le caractère solitaire de la mortalité routière( Grossetête, 2010 : 56) qui, de surcroît, semble toucher plus fréquemment leshommes en situation de célibat (Grossetête, 2008a :104). Les principaux protagonistes des campagnes appartiennent paradoxalement auxcatégories sociales qui présentent la plus faible probabilité de mourir auvolant, comme le rappelle le titre donné à l'un de ces films, intitulé La maison de campagne. En effet ,on peut raisonnablement penser que peu d'ouvriers sont propriétaires d'unerésidence secondaire. De manière similaire, le premier spot diffusé en 2003 présente l'accident d'uncouple, comme en atteste la présence d'un siège pour bébé à l'arrière de leurvéhicule. Pour quelques secondes d'inattention, ils entrent en collision avecune autre automobile aux abords d'un carrefour, donc en ville alors que 84 % destués en voiture le sont en rase campagne (onisr ,2006 : 66). La tendance des films de prévention à dépeindre des individus trop intégréssocialement pour mourir sur la route vaut également pour ceux qui ne font pasappel aux « discours chocs », comme le montre la deuxième campagne diffusée en2003. Cette dernière renoue avec la figure du père, lequel joue son destin etcelui de sa famille non pas au volant mais sur un plateau de télévision enactionnant une roue comportant différents scenarii d'accidents. Le spot suivant, réalisé par Nils Tavernier et diffusé en 2004, déroge toutefoisau manque de réalisme ambiant dans les campagnes en montrant, sur la based'images d'archives à l'instar de Raymond Depardon en 1999, l'intervention dessecours sur un accident mortel (de jour cependant) en rase campagne et non enville ou en zone résidentielle comme c'est classiquement le cas. Durant l'année 2005, deux spots ont été diffusées. Le premier aborde le thème dela ceinture de sécurité à l'arrière, dont le port ne serait, selon lescommunicateurs, pas systématique chez les trentenaires et plus, car nonobligatoire avant 1990. Le film met donc en scène un accident impliquant deuxcouples âgés d'une trentaine d'années. Ils semblent visiblement heureux etinsouciants jusqu' à ce que l'un des passagers, installé à l'arrière del'automobile, percute violement le pare brise suite à un choc frontal. En 2007 ,les 30 ans et plus, qui sont visés par cette campagne, ne représentaient que34 % des 138 passagers de véhicules légers tués sans avoir utilisé la ceinturede sécurité et 54,8 % de ceux qui étaient dans le cas contraire. De plus, lamortalité routière concerne en premier lieu les conducteurs et en particulierles jeunes ruraux de moins de 30 ans issus des familles ouvrières pour lesquelsla question du port de la ceinture de sécurité à l'arrière se pose rarementpuisqu'ils se tuent seuls dans la majorité des cas. Parmi les 1241 conducteursâgés de 15 à 29 ans qui ont trouvé la mort sur la route en 2007, 28,5 % d'entreeux étaient ouvriers. Un conducteur tué sur deux (49,4 %) avait moins de 30 anschez les ouvriers alors que cette classe d' âge ne représentait que 28,5 % deleurs effectifs d'après les données de l ' insee issuesdu recensement de la population métropolitaine de 15 ans ou plus en 2007. Intitulée Nudité, la seconde campagne diffusée en 2005porte sur la vulnérabilité des conducteurs de deux roues. Celle -ci estmétaphoriquement représentée dans le film par un conducteur de scooterintégralement dévêtu, donc apparemment sans protection (ni statutprofessionnel), jusqu' à la scène finale lorsqu'il gare son véhicule devant deson lieu de travail et retrouve un costume trois pièces de cadre supérieur. Pendant que l' État communique vers les « scooters costards » (pour reprendre laterminologie des communicateurs à l'origine de cette campagne) qui regroupaientmoins de 2 % des conducteurs tués en 2007 (59 morts en scooter de 50 cm 3 et plus, dont 7 cadres supérieurs), aucune campagnen'est destinée aux 708 motards ou aux 187 cyclomotoristes décédés cette mêmeannée sur les routes et parmi lesquels les ouvriers sont surreprésentés. Cesderniers rassemblaient 29,9 % des cyclomotoristes et 24,3 % des motards morts en2007 alors qu'ils représentaient 13,28 % dans la population métropolitaine de 15ans ou plus cette même année. Parmi les 3239 conducteurs tués en 2007, 21,8 %d'entre eux étaient des motards et 5,7 % des cyclomotoristes. En somme, lesspots de prévention, fussent-ils plus violents, rendent méconnaissable lescauses sociales d'accidents et participent d'une même lecture peu probable de lamortalité routière. Lorsqu'ils testent les campagnes de prévention, les communicateurs s'attachentmoins à saisir des schèmes, c'est-à-dire des « prédispositions cognitives »( Joignant, 2004 : 162) durables et transposables, que les réactions spontanées ,« à chaud », aux messages de prévention. Le point de vue des individus à l'égarddu problème des accidents de la circulation dépasse, pourtant, le seul moment dela rencontre (Le Grignou, 2003 : 213; Boullier, 2004 : 61) avec un spot de« sécurité routière ». Avant de substituer l'outillage méthodologique despublicitaires à la démarche sociologique, on peut donc chercher, sinon la« réception » du moins les représentations qui lui préexistent, ailleurs quedans le discours produit quasi spontanément après le visionnage d'un film deprévention : dans le rapport pratique des individus à la conduite. Si laposition occupée par les conducteurs dans l'espace social rend compte de leurprobabilité de mourir sur la route, elle influence aussi grandement leurreprésentation des facteurs d'accidents, donc, in fine ,des campagnes. À cet égard, les questionnaires d'inscription aux stages desensibilisation à la « sécurité routière » fournissent un matériau empiriquepertinent dans la mesure où ils contiennent de nombreuses données pour analyserl'articulation entre les dispositions sociales des conducteurs et leurs prisesde positions sur le sujet. En effet, la répartition des infractions selon la pcs des conducteurs permet, à un premier niveau ,d'identifier les interlocuteurs pertinents de deux des principaux thèmes deprévention des accidents routiers (mais aussi des reportages produits par lesjournalistes et des discours politiques ou associatifs) : l'alcool et lavitesse. Les infractions ou délits qui conduisent à suivre un stage desensibilisation à la « sécurité routière » indiquent que 60 % des cadres sontamenés à les fréquenter après avoir dépassé les vitesses autorisées, pour 18 %des ouvriers. De leur côté ,29 % des ouvriers y participent après avoir été interpellés pour une conduite enétat d'alcoolémie contre 2 % des cadres. Si l'on se risque provisoirement àadmettre l'effet propre de la communication sur les comportements, les messagesde prévention ont alors vraisemblablement peu de chance de toucher l'ensembledes conducteurs, comme le souhaitent leurs concepteurs, dans la mesure où tousne sont pas également concernés par les risques liés à l'alcool et à la vitesse .En effet, la manière dont les dangers de la route sont classés ou hiérarchiséssemble façonnée par les habitudes de conduite des conducteurs, c'est-à-dire parles dispositions qu'ils doivent à leur position sociale. Source : Tableau composé d'après les questionnairesd'inscription aux stages de sensibilisation à la sécurité routière organisés parl ' Automobile club du Midi entre2002 et 2005. Vraisemblablement confortés par la forme du débat public (Grossetête, 2008b : 48), un peu plus de 40 % des conducteurs, sans distinctionde classe, tendent à dénoncer immédiatement les autres usagers parmi lesprincipaux dangers de la route. En revanche, pour les autres conducteurs, lareprésentation du risque routier varie selon leur catégorie socioprofessionnellepuisque les ouvriers et les employés ont presque trois fois plus tendance àdénoncer la vitesse que les cadres qui incriminent plus fréquemment l'alcool .Toutefois, les groupes sociaux sont inégalement disposés à minimiser ladangerosité de leur rapport à la conduite. Pendant que seulement 6,2 % des cpis sont dans l'autodénigrement en dénonçant lavitesse, les classes populaires ont une propension nettement plus forte às'incriminer en accusant l'alcool, qu'ils sont 42,6 % à considérer comme leprincipal danger sur la route. Parce qu'ils n'ont pas les mêmes rapportsordinaires à la conduite ni à l'espace routier (Grossetête, 2010 : 53), lesconducteurs se divisent aussi sur le terrain des représentations symboliques duproblème. C'est l'effet mis en évidence par la théorie du People choice (Berelson, Gaudet, Lazarsfeld, 1944; Katz, Lazarsfeld ,1955), de renforcement des prédispositions (Champagne, 1971 : 406) etd'appropriation sélective des messages. L'interprétation des enjeux (liés à la« sécurité routière ») varie en fonction de ceux à qui ils bénéficient car elleaccompagne une infinité de « réassurances identitaires » (Darras, 2006b : 467) ,de classements et d'autoclassements reposant sur l'accusation des pratiques oudes individus les plus opposés à soi. Ces représentations sociocentrées tendentà neutraliser, nier ou mettre à distance le « risque ». « Tout semble indiquer que la représentation des dangers de laroute engage de nombreuses dispositions sociales qui règlent bien au-delà durapport à la conduite d'un véhicule, la relation aux autres. Si les individustendent à classer les risques en fonction de leurs expériences pratiques, ilspeuvent aussi mobiliser certains éléments de socialisation qui ne sont pas enlien avec la conduite, notamment « les composantes (identitaires) positives del'habitus : hommes vs femmes, homme viril vs « femmelette », jeunes vs vieux, urbains (« scooters-cravates ») vs ruraux( « tunneurs »), blancs vs minorités visibles, riches( 4x4) vs pauvres (106 Peugeot), motards vs automobilistes, « gros rouleurs » (« qui assurent ») vs occasionnels (« rampants »), etc. » (Brunet, Darras ,Grossetête, 2008 : 297). Lorsque l'on demande aux conducteurs ce qu'il y a deplus dangereux sur la route, certaines réponses sont ouvertement misogynes( « femme au volant mort au tournant ! »), voire racistes (« les jeunesimmigrés ») dans les questionnaires à l'attention des conducteurs participantaux stages de sensibilisation à la sécurité routière ou même parfois durant lesentretiens collectifs. Par exemple, cet ancien cadre commercial de 72 ans ,électeur du Front National, se protége du message culpabilisateur en déclarantavec ironie « qu'une conduite à risque, c'est Saint Jean de Vedas » 19, le petit village de la banlieue montpelliéraine où ilvit et où il y aurait, selon lui, une forte proportion de populations issues del'immigration. À l'opposé, cet étudiant marocain de 21 ans en deuxième année àl ' iep de Toulouse, qui n'a jamais bu d'alcool dans savie tout en précisant que « c'est interdit au Maroc », envisage, sans surprise ,la conduite en état d'ivresse comme ce qu'il y a de plus dangereux au volant. Unautre étudiant de l ' iep de Toulouse qui a perdu deuxpoints sur son permis probatoire après s' être fait flasher à 151 km/h surl'autoroute, considère symétriquement que « les conducteurs trop lents » sont laprincipale cause d'accident et qu'il conviendrait de « libérer les vitesses surautoroute ». De manière similaire, chez ce maçon de 58 ans, qui ne boit pasd'alcool et considère la législation trop laxiste en matière de stupéfiants, cesont les jeunes et « les fumeurs de moquette » (pour reprendre son expression )qui sont les plus dangereux sur la route. En revanche, pour ce promoteurimmobilier fortuné de 59 ans qui roule dans un 4X4 haut de gamme, le risquec'est le manque de « savoir-vivre » au volant dont il s'estime propriétaire ,comme le montre sa définition du chauffard diamétralement opposée à sa conduitedéclarée : « un mec agressif », « le type qui klaxonne », « celui qui fait desappels de phare ». Dans la mesure où elles régressent vers le « système de classement » (Bourdieu ,1979 : 190) le plus favorable, ces représentations du danger, tout en s'ignorantsans doute comme telles (car gouvernées par des principes non objectivéspubliquement), sont aussi des lectures politiques, notamment des lectures declasse. L'incrimination de la vitesse dénonce la conduite des cadres, alors quel'accusation de l'alcool stigmatise symétriquement celle des ouvriers et desemployés (sans doute plus souvent interpellés pour ce délit). Ce qui estrefoulé, impensé ou laissé à l'état implicite dans les routines de penséedominantes sur le sujet (saisies à travers les campagnes de prévention et lesreportages diffusés dans les journaux télévisés) refait surface lorsque l'onagrége les représentations individuelles du risque, telles qu'elles peuvent êtresaisies par questionnaires. L'enjeu n'étant pas politiquement codé (ou clivé) ausens partisan du terme, les catégories consacrées par et pour la représentationpolitique, du type « gauche/droite », à l'inverse de l'expérience pratique desindividus, discriminent peu ou pas les « imputations de responsabilité »( Iyengar, 1996) en matière d'accidents de la circulation. Bien que le problèmene soit pas publiquement présenté comme capable d'opposer politiquement lesconducteurs ou leurs représentants, les individus interprètent d'eux -mêmesl'enjeu en fonction de leurs intérêts et appartenances à des communautés réellesou supposées : à des collectifs d'énonciation du « nous » reposant sur ladénonciation des « autres » pour reprendre l'opposition établie par RichardHoggart (1957 : 117) rappelant que « la plupart des groupes sociaux doiventl'essentiel de leur cohésion à leur pouvoir d'exclusion ». Si l'examenqualitatif de ce schème d'imputation croisée des responsabilités reste à fairedans le cadre d'entretiens (notamment collectifs) en lien avec les campagnes surles accidents de la circulation, ces quelques données mettent toutefois enrelief le poids des dispositions sociales des individus sur leursreprésentations des dangers de la route ainsi que les pistes d'une préventionmieux ajustée à ceux qui encourent le plus de risques. Parce que les risques d'incriminer des populations déjà stigmatisées, de remettreen cause les savoirs faire publicitaires ou de montrer l'enjeu sous un jourpolitique sont trop grands, les composantes masculines, jeunes, célibataires etrurales des classes populaires, dont les chances objectives de mourir sur laroute sont les plus grandes, n'apparaissent pas dans les spots de prévention desaccidents de la circulation. À l'inverse, les membres des catégories socialesles plus élevés (les cadres urbains âgés de 30 à 40 ans et vivant en couple) yfigurent largement alors qu'ils sont sous exposés à la mortalité routière. Commel'observe Christian Baudelot (2010 : 50), les inégalités sociales sont « dansl'immense majorité des cas cumulatives ». Ainsi les campagnes contribuent-elles ,parmi de multiples facteurs (la plus grande sévérité des peines prévues pour lesdélits routiers, les radars automatiques, etc.), à ce que les catégoriessociales dont l'espérance de vie est déjà la plus longue soient les premières àprofiter de la réduction continue du nombre de tués enregistrés en France depuis2002; par rapport à la période 1998-2001, la mortalité des conducteursappartenant à la catégorie des cpis a diminué de 50 %entre 2002 et 2005 dans la région Midi-Pyrénées alors que celle des ouvriers adécrû de 27,4 %. Le processus de « civilisation des mœurs » et l'ethos deprévoyance qui lui est lié se répartissent différentiellement dans l'espacesocial, bénéficiant d'abord aux catégories les plus dotées puis aux ménagesmodestes, à l'instar des règles de puériculture au 19éme siècle, comme l'aétabli Luc Boltanski (1969 : 14) : « Dans une société hiérarchisée, la diffusiondes savoirs et des règles se fait toujours de haut en bas mais jamais àl'opposé, de bas en haut de l'échelle sociale, et ne s'opère qu'au prix deréinterprétations en fonction de l'ethos et des savoirs propres à chaqueclasse ». Dans la mesure où ils « accidentalisent » la mortalité routière en netenant pas compte des facteurs collectifs qui contribuent à la déterminer, lesfilms de prévention ne sont pas neutres socialement .
Alors que les campagnes de « sécurité routière » sont ouvertement plus réalistes depuis le tournant des spots « chocs » en 1999, les accidents et les accidentés visibles dans les spots sont paradoxalement les plus rares statistiquement. Les composantes masculines, jeunes, célibataires et rurales des classes populaires, dont les chances objectives de mourir sur la route sont les plus grandes, n'apparaissent pas dans les films de prévention. À l'inverse, les membres des catégories sociales les plus élevés y figurent largement alors que leur probabilité de mourir au volant est la plus faible. L'accueil que réservent les conducteurs aux campagnes est lui aussi sélectif. Ces derniers appréhendent les dangers de la route en fonction de leur rapport pratique à la conduite, lequel diffère sensiblement selon leurs caractéristiques tant sociales que culturelles.
sciencesInfo_13-0090605_tei_998.xml
termith-366-communication
LE PROGRAMME DE CETTE JOURNÉE VISAIT À PROPOSER DES ÉLÉMENTS DE réflexion et de décision quant au(x) rôle(s) des vocabulaires contrôlés au sein des dispositifs d'accès à l'information. Ces rôles sont à repenser – renouveler – rénover, indiquait Sylvie Cabral, du cabinet Ourouk, en fonction de ce qu'il est possible aujourd'hui de savoir des habitudes et des attentes des utilisateurs de ces dispositifs. Que sait-on, justement, des utilisateurs et de leurs pratiques de recherche d'informations ? Majid Ihadjadene, de l'Université Paris-10, a proposé une synthèse très structurée et très informée des différentes études d'usage récentes menées à propos des moteurs de recherche. Au plan socio-économique général, ces études font état d'une utilisation croissante des moteurs qui, pour ce qui est des usages d'Internet, vient juste après celle du courrier électronique. Ces travaux montrent aussi que les utilisateurs restent en principe fidèles à un ou deux moteurs, et ont tendance à faire confiance aux résultats qu'ils fournissent; peu au fait des modèles d'affaires sous-jacents aux moteurs de recherche, ils ne font guère de différence, parmi ces résultats, entre information et publicité. Lorsque l'on se penche sur les différents moments d'une recherche d'informations, que ce soit en analysant les traces laissées par les utilisateurs (journaux ou logs des moteurs de recherche) ou en observant des groupes d'usagers en situation de recherche, les conclusions sont convergentes. En premier lieu, les stratégies de recherche restent très rudimentaires : peu de mots dans les requêtes, pas de recours aux opérateurs booléens, peu de requêtes différentes dans une même session, prise de connaissance uniquement des résultats les mieux classés. Ensuite, parmi les fonctions avancées offertes par les outils de recherche, il apparaît que seule la catégorisation des résultats soit fréquemment utilisée et appréciée; les possibilités de recherche multilingue, par exemple, sont en général délaissées. Enfin, les systèmes qui produisent leurs résultats sous forme (carto)graphique semblent soulever des difficultés cognitives chez la majorité des utilisateurs. La plupart des travaux synthétisés dans cette intervention portent sur des pratiques de recherche sur le World Wide Web. Mais les études consacrées à l'usage des intranets, sensiblement moins nombreuses, produisent des résultats similaires. Autrement dit, on constate un transfert d'usages ou une contamination, diront certains, entre les moteurs de recherche sur Internet et les autres systèmes de recherche d'informations. Ceux -ci ne constituent d'ailleurs pas les seuls substituts à la médiation documentaire, et on observe une nette tendance à la diversification des moyens d'information et à leur mise en complémentarité (navigation, sérendipité, outils de diffusion, alertes par courriel, réseaux sociaux). Après la synthèse de travaux universitaires venaient des synthèses d'expériences de terrain. Les interventions Des moteurs et des usages : la réalité multidimensionnelle des pratiques. Madjid Ihadjadene, Université Paris-10 Nanterre Au-delà du tout automatique, quelles approches pour la recherche et la navigation dans les systèmes d'entreprises ? Jean-Paul Taravella, Atos Origin Le thésaurus à la recherche peut-il se libérer du thésaurus d'indexation ? Sylvie Dalbin, Assistance et Techniques Documentaires Données structurées : exploitation en indexation et en recherche. Dominique Maret, société Lingway Modes d'accès à des ressources en ligne : entre navigation et recherche par formulaire. Françoise Moulin et Hervé le Ruz, Institut national de recherche et de sécurité (INRS) Complémentarité entre outils statistiques et linguistiques pour un accès performant à une information multilingue. Michel Bernardini, BNP Paribas Les supports des intervenants peuvent être consultés sur le site de l'ADBS : (accès réservé aux adhérents). Jean-Paul Taravella, consultant pour ATOS Origin, établit un constat d'émiettement de l'offre logicielle pour l'accès à l'information (plus de cinquante solutions sont en lice), parallèlement à une diversification des types de demandes rencontrées dans les très grandes entreprises et des démarches retenues pour y répondre. Il est par conséquent difficile de repérer des tendances fortes dans ce domaine. Cette extrême diversité semble provenir d'un faisceau de phénomènes qui ont tous potentiellement un effet de fragmentation par rapport à des approches supposant le choix entre un petit nombre de modèles canoniques d'organisation de l'information. Le premier de ces phénomènes est le mouvement de balancier entre la position selon laquelle une auto-organisation de l'information est possible et satisfaisante et la position qui défend le besoin d'ajouter de la méta-information (des métadonnées). Après le tout « indexation et vocabulaire contrôlé » et le tout « moteur de recherche », on arrive aujourd'hui à une situation d'équilibre où toutes les solutions hybrides ou mixtes se rencontrent. D'autres facteurs significatifs sont sans doute la multiplication des acteurs de l'accès à l'information (documentalistes, archivistes, informaticiens et urbanistes de systèmes d'information, consultants internes, experts métiers, etc.) et la multiplication des sources d'information, dont les structures et les usages sont différents et faiblement compatibles. Enfin, les projets qui se mettent en place se distribuent entre des approches « spécialistes » et des approches « grand public » visant au contraire à satisfaire le plus grand nombre, même si ce public est interne à l'entreprise. Logiques hétérogènes, sources hétérogènes, outils hétérogènes et concurrents, y compris au sein d'une même organisation : face à cette hétérogénéité généralisée, il faut bien se rendre à cette évidence qu'il n'existe pas de moteur de recherche pertinent dans l'absolu. Au reste, contrairement à ce que laissent voir les études d'usage sur le Web, il semble que les utilisateurs en entreprise ne soient jamais vraiment satisfaits de leur moteur de recherche. Les positionnements choisis par les éditeurs de logiciels reflètent en partie l'éparpillement des « doctrines » et la difficulté des choix, et s'étagent du tout automatique et/mais opaque au fortement paramétrable, (c'est-à-dire demandant un travail de préparation), ou bien de l'outil simple et robuste dont le modèle est éprouvé sur le Web au système sophistiqué et fonctionnellement très riche. Mais le moteur de recherche ne fait pas tout, et les pratiques de traitement intellectuel de l'information ont leur place dans ce paysage, à condition, plus que jamais, d'apporter la démonstration d'un rapport coût / efficacité favorable et d'un impact réel sur les affaires. Spécialiste des langages documentaires, Sylvie Dalbin, du cabinet ATD, livrait ensuite sa propre analyse, fondée sur les métamorphoses du paysage documentaire qui touchent en particulier les modes, les moyens et les pratiques d'accès à l'information. C'est surtout en étudiant les possibilités d'utilisation des thésaurus dans des contextes non traditionnels que Sylvie Dalbin entendait donner un exemple de ces métamorphoses. Ces contextes sont ceux où le thésaurus est utilisé, lors de la recherche, de manière indépendante ou non symétrique par rapport aux pratiques d'indexation des ressources interrogées. Autrement dit le thésaurus peut aussi être sollicité lors de recherches sur les mots du texte, et non sur les seuls champs d'indexation. Ces usages participent du regain de faveur du thésaurus, après une période où il a été un peu délaissé, tout en prenant acte du fait que le modèle actuel d'accès à l'information n'est plus celui de l'IST (information scientifique et technique) : l'accès est le fait de tout le monde, le moteur de recherche est présent de toute façon. Le vocabulaire contrôlé se positionne donc nécessairement par rapport au moteur de recherche, mais en appui de celui -ci et non en opposition avec lui. Ces usages sont relativement diversifiés et peuvent intervenir à chaque étape de la recherche d'informations. Au moment de la formulation de la requête, le thésaurus peut constituer une aide à la sélection des termes, une sorte de réservoir terminologique dans lequel sont surtout exploitées les relations d'équivalence; cette approche s'avère particulièrement intéressante dans un cadre multilingue. On peut aussi puiser dans le thésaurus, et notamment dans ses listes annexes, des ensembles de termes appartenant à certaines catégories, qui sont présentées sous formes de listes dans lesquelles l'utilisateur choisit ses clés ou filtres de recherche. Lors du traitement de la requête par le système, un thésaurus peut être mis à contribution soit en exploitant automatiquement ses synonymies pour enrichir la requête initiale, soit en utilisant le voisinage sémantique des termes, pour formuler une nouvelle requête. La recherche fédérée est aussi grandement facilitée lorsque l'on dispose d'un méta-thésaurus fournissant des équivalences entre différents langages d'indexation. Enfin, au moment de la présentation des résultats, la structure du thésaurus et/ou celle des métadonnées associées aux éléments du lot résultat peut être mise à profit pour en proposer un affichage enrichi, offrant des choix pour affiner ou étendre la recherche. Il existe des exemples de toutes ces approches, qui ont souvent dépassé le stade expérimental et qui sont parmi les plus prometteuses à l'heure actuelle. Mais les thésaurus ne sortent pas toujours indemnes de ces évolutions : réduits, déstructurés, augmentés, combinés pour être adaptés à ces usages, ils doivent et devront surtout être conçus de manière toujours plus rigoureuse. L'exposé de Dominique Maret, directeur avant-vente de la société Lingway, portait sur les questions du traitement et de la recherche de documents structurés ou semi-structurés. On a l'habitude d'opposer données structurées (dans des tables ou champs de bases de données) et documents textuels, dépourvus de structure. Ajouter des métadonnées (indexer, décrire, annoter, baliser), c'est pourvoir ces documents de la structure manquante. Or le monde, ou plus précisément Internet, fourmille de documents construits selon une structure qui, dans la plupart des cas, n'est pas exploitée. Cette structure est plus ou moins régulière et plus ou moins facile à détecter. On peut citer, par ordre croissant de structuration : les pages web, les articles de journaux ou articles scientifiques, les brevets, les curriculum vitæ, les notices accompagnant les images, les descriptifs de produits d'un catalogue en ligne, etc. La suggestion de Dominique Maret (appuyée sur les travaux de développement menés par Lingway) est de prendre en compte cette structure lors de l'indexation des ressources : il s'agit de repérer dans les documents les éléments de cette structure, et de procéder à une indexation multichamps. Il devient alors possible de proposer des fonctions de recherche différenciées selon la nature du champ interrogé. Des aides linguistiques et sémantiques ciblées peuvent notamment être mises en place, aides dans lesquelles des éléments de thésaurus ou de taxonomies peuvent jouer un rôle important. Tous les points de vue précédemment exposés ont été utilement complétés, et dans l'ensemble confirmés, par les témoignages et retours d'expérience qui ont suivi, en dernière partie de cette journée d'étude. Françoise Moulin et Hervé le Ruz ont présenté la démarche de l'Institut national de recherche et de sécurité (INRS) dans la conception de son site Internet dédié à tous les aspects de la santé et de la sécurité au travail. Cette démarche illustre de manière particulièrement convaincante la nécessité de ne pas concevoir dans tous les cas un système d'accès centralisé et monolithique. Le site offre des informations de natures diverses (techniques, scientifiques, réglementaires, médicales), de sources diverses, sur des thèmes divers et pour des publics et des besoins divers. Si ce corpus n'était pas segmenté, mais traité en masse par un moteur de recherche, il est vraisemblable que la qualité des résultats de recherche serait insatisfaisante. Un découpage par collections, dont chacune réunit des ressources homogènes, permet de proposer des fonctions d'accès différentes et adaptées à la fois à la nature de ces ressources et aux modes de questionnement préférés par leurs utilisateurs habituels. Des modalités de recherche simple, de recherche multicritères, de sélection dans des listes alphabétiques ou de recherche dans un plan de classement thématique sont donc proposées, exclusivement ou en combinaison, une fois que l'utilisateur a choisi sa source d'informations. Le langage documentaire, ici en l'occurrence le plan de classement, n'est pas systématiquement appliqué à l'ensemble des ressources, mais l'est à certaines collections où son emploi se justifie et répond à une demande des publics. Michel Bernardini, dont l'intervention clôturait cette journée, a présenté le système LEOnard, développé aux Études économiques de BNP-Paribas. Conscients que 90 % des utilisateurs cherchent sur Google en première indication, les promoteurs de ce système ont voulu proposer, face à la surabondance de l'information et à la multiplicité des sources, une interface « grand public » qui puisse recueillir une forte adhésion au sein de l'entreprise. Cette interface unifiée offre une recherche fédérée sur des sources diversifiées. Le parti pris est celui de la richesse fonctionnelle, même si d'une certaine façon c'est en anticipation des besoins et des demandes des utilisateurs. Ce projet est également fédérateur de technologies : il en mobilise quatre différentes qui sont vues comme complémentaires et non exclusives. Au centre du dispositif, on trouve PolySpot, dont les technologies statistiques permettent de traiter et de rechercher des documents de formats et de langues hétérogènes. KBCrawl a été retenu pour répondre aux besoins de la veille. Le système intègre aussi un flux de mise à disposition de la presse quotidienne. Enfin, des fonctions de fouille de textes assurées par les technologies de Temis permettent de compléter les propositions du moteur de recherche, d'améliorer l'exploitation des lots résultats et d'apporter un appui à la lecture et à l'analyse des documents. C'est à ce niveau que l'intégration d'un thésaurus pourrait s'avérer bénéfique. Bonne nouvelle : un tel projet ne nécessite pas des investissements ni des travaux titanesques. Si le coût financier n'est pas précisé (« pas des millions d'euros »), la charge de travail annoncée pour cette mise en œuvre est inférieure à cent cinquante jours. À la lumière des différentes contributions qui viennent d' être résumées, on peut avancer une réponse à la question mise en exergue de cette journée d'étude : il est indéniable que les opportunités pour les langages documentaires existent, sous réserve qu'ils soient adaptés (j'ai cru entendre « nettoyés ») et intégrés (j'ai cru entendre « de manière intelligente ») à des dispositifs de recherche forcément flexibles et multimodaux. Il se confirme que « la chimie de l'accès à l'information », selon le mot de Jean-Paul Taravella, est plus complexe que ne le laisserait supposer la prépondérance de certains outils (j'ai cru entendre « googlisation »).. .
La journée d'étude organisée par l'ADBS le 20 septembre 2007 se voulait "un panorama des usages, des pratiques et des outils mis en œuvre dans la recherche d'information". Le programme visait à examiner le rôle que les vocabulaires contrôlés peuvent jouer aujourd'hui au sein des dispositifs d'accès à l'information. Après une synthèse de travaux universitaires récents portant sur les pratiques de recherche sur Internet, plusieurs expériences de terrain ont été présentées. Autant de pistes proposées aux professionnels de l'I-D pour les aider à situer et à enrichir leurs offres d'accès à l'information.
sciencesInfo_08-0148806_tei_DOCSI_idPAS_D_ISBN_pu2007-06s_sa03_art03.tei.xml
termith-367-communication
La crise économique rencontrée par la presse quotidienne au cours des années 80 et 90( et dont elle n'est pas sortie) tend à détourner l'attention des responsables depresse du lecteur-citoyen vers un lecteur-consommateur. Le diagnostic paraitsimple  : avant d'informer, il faut l'inciter à acheter son titre en kiosque. L'acted'achat n'irait plus de soi. Le lecteur « traditionnel  » ne serait plus « lié  » àson titre mais demanderait à être « convaincu  ». Et la « Une  » jouerait un rôlecentral. Ainsi progresse l'idée de devoir réconcilier le lecteur avec « son  » titreen portant l'actualité à la « Une  » dans des formats d'écritures et de formenouveaux, participant à la diffusion d'un « journalisme de communication  » enFrance (Brin, Charron, De Bonville, 2004). À partir des années 80, les journaux fontse succéder les transformations. Libération inaugure cettesérie avec le lancement, le 12 mai 1981, de Libé II. Enchangeant de rotatives, Le Monde lance une nouvelle formule ,en septembre 1989, quelques semaines avant que Le Parisien nemodifie la sienne en octobre. En 1992, L'Alsace procède aussià une rénovation de la forme à l'occasion d'un changement de rotatives. Pour autant ,ces modifications se font encore graphiquement à la marge (à l'exception de Libération) tandis que celles d'après 1995 transforment lesens des « Unes  » et, plus généralement, des maquettes. À ce moment, Libération tente un changement ambitieux, le 26 septembre1994, avec Libé III se voulant un grandquotidien dans tous les domaines mais qu'il doit abandonner quelques mois plus tard( le 30 janvier 1995). Le Monde lance son nouveau quotidienle 9 janvier 1995. Le Figaro a changé de formule pourl'édition du 29 novembre 1999 et L'Alsace pour celle du 1 er janvier 2000. Ce processus est continu  : Le Monde procède à un aménagement de sa formule le 14 janvier 2002; Libération modifie la sienne le 13 octobre 2003. Le Monde, Le Figaro, Le Parisien et la Tribune ont modifié la leur à la rentrée 2005 et début de l'année 2006 .D'autres quotidiens comme Le Progrès, LaCroix et d'autres encore ont suivi ce mouvement. L'adaptation aux« attentes  » supposées du lectorat (sur la forme et le fond) est devenue la norme .Depuis, tout quotidien à la quête de nouveaux lecteurs développe une autre formule( comme récemment Nord Éclair, Métro, L'Humanité, Libérationou Le Figaro à la rentrée 2009 ou celles à venir de France Soir). Ce n'est véritablement que dans cette secondemoitié des années 90 que la première page des quotidiens devient pour l'ensemble dela presse quotidienne la « Une  » (et en particulier pour la presse quotidiennenationale), après la quasi-disparition de la presse populaire et sensationnalistedepuis les années 70 et l'effondrement des ventes de FranceSoir. Devenue « valeur ajoutée  » au contenu des quotidiens, la « Une  »n'est plus conçue comme un espace où l'information se donne à lire mais le lieu oùl'actualité interpelle le lecteur, comme peuvent le faire celles des magazinesdepuis plus longtemps (Guérin, 1991). Se concentrer sur la « Une  » est sans douteimpropre car le changement dépasse cette page. Elle est plutôt le parangon de cettemodification. En effet, c'est l'ensemble de la « formule  » qui est repensé  : leséquençage et le rubricage des informations, la restructuration des services et lamise en place de pages « d'ouverture  » – jouant la fonction de « Une  » deservices. Ces réformes tendent notamment à appréhender la première page d'unquotidien comme la « Une  », véritable vitrine, chargée, par des titres plus courtset des illustrations plus ostensibles, « d'attirer le lecteur  » à l'intérieur dujournal. Suivant un processus initié par la presse populaire, l'ensemble desquotidiens endossent un « référentiel marketing  » fondé sur des logiques de« proximité  » et de court terme  : face à la faiblesse des abonnements, lesrédactions cherchent à s'ajuster aux profils de leurs lecteurs et à les convaincrechaque jour. Par référentiel, « il s'agit à la fois d'un processus cognitifpermettant de comprendre le réel en limitant sa complexité et d'un processusprescriptif permettant d'agir sur le réel  » (Muller, 2003  : 63). Il est nécessairede s'y arrêter car ce changement structurel témoigne d'une transformation durable dujournalisme de la presse quotidienne. L'importation d'un référentiel marketingdépasse le seul cadre graphique, pour participer à la diffusion du « journalisme decommunication  » (Brin, Charron, De Bonville, 2004). Ces changements sont mis enplace par un personnel aux caractéristiques sociales particulières (les hiérarquesdes quotidiens), aidé par un personnel non proprement journaliste (managers, graphistes, directeurs artistiques). La crise de lapresse quotidienne conduit non seulement à un abaissement des clivages politiques etéditoriaux au sein de la presse (Juhem, 2001) mais, en faisant entrer un référentielmarketing, apporte avec celui -ci de nouvelles méthodes de« rationalisation  » des pratiques journalistiques. Contraints de s'adapter auxnouvelles donnes économiques et en prenant la mesure de l'importance des ventes enkiosque et du marché parisien, les journaux en concurrence auront tendance à se« copier  » les uns les autres, et ce d'autant plus facilement que les personnelsjournalistiques comme non journalistiques venus de l'extérieur sont plus mobiles ,passant de titre en titre. Ils importent avec eux, à chaque moment, de nouvellesméthodes, de nouvelles pratiques, enseignées et apprises en école de journalisme ouchez les concurrents (Hubé, 2008). Dit autrement, ce qui change, c'est qu'en plusd'une attention sur la forme, ce référentiel marketing modifie la configuration desrédactions donnant plus nettement à un nouveau personnel non journalistique lescapacités d'intervenir dans les décisions éditoriales et modifie par là le travailde programmation du journal. Dans les articles de presse et dans la communication des entreprises de presse, lesjournalistes n'ont de cesse de répéter que leur journal se veut « plus proche de seslecteurs  » et qu'il « s'agit non pas d'une révolution mais d'une profonde évolutionafin de mieux répondre aux attentes d'un lectorat qui, en cette fin de siècle, sedonne de nouveaux centres d'intérêts  » .Tous insistent sur la congruence des attentes des lecteurs et deséditeurs, présentée comme le fruit de longs mois d'études auprès des lecteurs ,confiées à des experts externes ou à des professionnels internes à la rédaction ,apportant toute leur « expérience  » comme gage de légitimité à pouvoir refaire lamaquette. Or, l'introduction de nouvelles technologies et de nouveaux concepts detravail – comme le graphisme – s'accompagne de changements de personnel et d'unchangement du design organisationnel, c'est-à-dire d'uneredéfinition des rapports de pouvoir et des tâches au sein de l'organisation( Alsène, 1990). À bien des égards, plusieurs éléments pouvaient déjà être présentsdans la pratique journalistique avant les années 90 (l'attention à la « Une  » pourvendre, la programmation de la production en amont en particulier dans la pressequotidienne régionale, le poids de la photographie, etc.). Mais, à l'instar duprocessus décrit par John Nerone et Kevin G. Barnhurst (1995) pour les changementsde design dans la presse américaine des années 20, lechangement vient du fait qu'aux modifications de forme du journal papiercorrespondent des modifications organisationnelles sur fond de transformationséconomiques. Ce processus est d'autant plus efficace au sein des rédactions qu'ilnaît sur une période de perte de recettes importantes pour la pqn jusqu'en 1997 (et ce depuis les années 80) avant de sembler produiredes résultats positifs jusqu'en 2000, légitimant ces réformes (voir graphiqueci-dessous). Lorsque la presse gratuite est lancée en 2001, elle prend appui sur lesstructures rédactionnelles, les formules graphiques et un personnel déjà là. Source : DDM, Info-Medias, 15août 2009, p.12. La décennie 90 est une période charnière de ce processus d'importation d'unréférentiel marketing qui perdure jusqu' à aujourd'hui (les réformes récentes desmaquettes de Libération et du Figaro le montrent) bien que ne permettant plus aux rédactions de gagner de nouveauxlecteurs. Le discours quiprévaut est celui de la « modernisation  » et de la « rationalisation  ». à larationalisation de la forme correspond aussi un processus de « rationalisation  »des modes de production du quotidien. Il faut donc ici aborder successivement lestransformations du sens de la « Une  » et l'arrivée consécutive d'un référentielmarketing avant d'analyser les transformations organisationnelles induites par cettemodification du discours. Vendus « deux fois  » (aux lecteurs et aux annonceurs), les quotidiens essaientde toucher au plus près leurs « cœurs de cible  ». En soi, cette pensée n'estpas nouvelle. Mais portée par de nouveaux acteurs, devenue prégnante du faitd'une situation commerciale difficile, elle est devenue beaucoup plus présentedans les rédactions et, avec elle, la « Une  » a été chargée d'un senscommercial accru. Le discours des acteurs est alors entièrement orienté vers laforme. S'impose l'idée que le graphisme puisse être la solution aux problèmesstratégiques des rédactions. « Vitrine  », « étale  », « fenêtre  », « valeur ajoutée  », la « Une  » faitl'objet d'un investissement particulier de la part des journalistes pourfaire en sorte d'aboutir à un acte d'achat. Le lien énoncé par lesresponsables des quotidiens entre le journaliste et le lecteur est celui duvendeur et de l'acheteur. La règle première à toute nouvelle formule est dene « plus faire comme si la lecture du Monde seméritait. Il nous faut sans cesse donner au lecteur envie de nous lire, etsurtout de nous lire régulièrement – idéalement chaque jour  ». Aussi, pour gagner des lecteurs, lesexpertises internes adoptent-elles toutes une tonalité psychologisante dulecteur, qu'il s'agisse des mots connotés positivement en termes de plaisiret d'envie ou ceux péjoratifs du mérite, du labeur ou, comme ci-dessous, dela pathologie masochiste  : « Être innovant dans notre manière de traiter l'actualité  :le dessin, l'infographie, la " mise en scène " que doit être une mise en pagepeuvent surprendre, intéresser et, pourquoi pas ? Donner duplaisir au lecteur pour qui acheter un journal ne ressortcertainement pas à l'entreprise masochiste  ». L'attraction graphique passe d'abord par le logo du journal permettant àl'acheteur d'identifier sa « marque  ». On passe progressivement d'une« identité sémiotique  » (Souchier, 1982) à une « identité graphique  ». Leréformateur du logo de Libération en mai 1981, ClaudeMaggiori, graphiste professionnel de la presse, impose, avec d'autres ,l'idée qu'il « n'y a pas de problème de forme et de fond, il y a un problèmed'image, au sens d'image de marque. Un journal est un objet de plaisir quel'on consomme  » en réformant au débat des années 80 des titres aussi diversque l ' Écho des Savanes, Libération, Sud-Ouest, La Marseillaise et le Nouvel Observateur. Le titre pensé en tant que « marque  » estassocié à divers éléments graphiques, le démarquant encore plus du reste dela page. Cette fonction de fidélisation par la marque fonctionne à partir deces années par des campagnes de publicité. Le Monde ,par exemple, crée son premier service marketing en 1985 et mène sa premièrecampagne en 1986 pour faire face au succès de Libération et à sa perte de lecteurs (Érignac, 2000  : 44). Lescampagnes se sont multipliées par la suite en 1994, 1995, 1998, 1999 et 2000afin de « redire les grandes fonctions, les valeurs fondamentales duMonde  ». La campagne d'octobre 1998, « Onne sait rien, quand on ne sait pas tout  » est un exemple de communicationautour d'une marque journalistique, cherchant à partir d'images d'actualitésà « exprimer une position très nette, il y a nous et il y a les autres. Il ya ceux qui donnent du sens et les autres  ». Cetteposition de démarquage ancre le quotidien dans le flux de l'actualité touten indiquant sa spécificité, sa plus-value marketing. La publicité n'esttoutefois qu'une part très restreinte du dispositif marketing etn'intervient pas dans la programmation du titre. Ce discours est porté pardes acteurs contribuant à son imposition à l'intérieur de l'organisation( chefs de service, directeurs), et conforté par un personnel externel'imposant dans d'autres sphères de l'activité sociale. L'adoptionprogressive d'un référentiel de marché dans la société française (Muller ,2003  : 67) vient faciliter l'adoption de ce dernier par la presse française( Lebaron, 2000  : 181-253; Duval, 2004). L'exemple le plus éclatant fut lapublication par Libération du supplément « Vive lacrise  » en février 1984 en coopération avec l'émission présentée par YvesMontand sur Antenne 2. Cette conjonction des deuxéléments contribue au succès du discours en « nécessité  » du recours auxmanagers de presse « pour circonscrire desincendies ou sauver des navires en perdition  » (Charon, 1989). C'estd'abord le cas de l'arrivée de Martin Desprez aux éditions Amaury, de Jacques Puymartin aux DernièresNouvelles d'Alsace, de Bernard Roux au CourierPicard, de Bernard Wouts au Monde ou venu dugroupe Carrefour, Yves de Chaisemartin au Figaro et àFrance-Soir après un passage dans l'audiovisuelpour le lancement de La Cinq et de plusieurs projets radio. Cesgestionnaires offrent avec eux une nouvelle conception de la gestion desjournaux autour d'une approche « produit  », comme ont pu le faire ceux dela presse magazine au cours des deux décennies précédentes (Charon, 2004) .Ils y introduisent le marketing, la gestion et les finances, laplanification et la stratégie avec la mise en place de cellules d'études, ledéveloppement et la gestion des ressources humaines (Charon, 1989 ;Toussaint-Desmoulin, 1989). Ces managers ont des profils particuliers. Ilsont fait des grandes écoles (par exemple au Monde aucours des années 1991-1994 de direction du polytechnicien, Jacques Lesourneet de son adjoint centralien, Jacques Guiu) ou sont diplômés d'écoles decommerce (par exemple à Libération avec l'arrivée dugroupe Chargeurs à la direction entre 1996 et 2005 – voir encadré). Ils sontavocats d'affaire ou issus de groupes industriels (Saint-Gobain, Sema ,Manurhin, etc.). Notons qu'on trouve, à la même époque, ces changements dansl'audiovisuel ou dans la presse magazine (en particulier au sein du groupePrisma presse). Les profils détaillés à partir du cas de Libération ne sont pas propres à ce quotidien. Elles nous donnentà voir un profil de plus en plus répandu dans les médias. Évence-CharlesCoppée, proche de la famille Seydoux, a fait une grande partie de sacarrière dans le groupe Chargeurs. Ce dernier rachèteau début de l'année 1996, 70 millions de nouvelles actions, possédant ainsi65 % du capital de Libération. Évence-Charles Coppéeest, dès lors, nommé directeur général du quotidien, et laisse à Serge Julyla définition et la gestion de la ligne éditoriale. Il fait alors son entréedans le monde de la presse après avoir eu une carrière de 26 ans commeconsultant (de 79 à 86 au Boston Consulting Group) ,puis comme responsable du groupe Chargeurs (de 86 à96) en charge de la diversification puis de la branche textile puis dudéveloppement du groupe. Depuis, il a dirigé le groupe producteur delogiciels Infogrammes puis une société spécialisée en biotechnologies lkt Farma. Il s'entoure pour l'occasion destrois autres personnes, toutes trois formées au marketing et à l'économie (dont deux sont diplômés d ' hec et un de la lse àLondres). Le premier, André Gattolin, directeur des études et dudéveloppement du quotidien, a construit sa carrière dans les enquêtesd'opinion comme directeur des études dans les instituts csa et ipsos; il dispose d'unsavoir-faire pour la construction et l'utilisation des études marketing à même de développer des nouveaux produits .Il est depuis passé conseiller politique de Daniel Cohn-Bendit. Sescompétences sont complémentaires aux deux autres personnes (Louis Dreyfus ,directeur financier et du développement, et Bertrand Houlé, directeur desventes et directeur commercial en charge de la promotion et despartenariats), dont les carrières – plus courtes – sont plus directementliées au management de presse et à la gestioncommerciale de ces entreprises (au sein du groupe Lagardère North America etHachette Filipacchi Media États-Unis pour l'un; nmpp puis Le Parisien pour l'autre) .Bertrand Houlé a poursuivi sa carrière au sein des groupes de magazines AxelGanz (ag&j) et Prisma. Source  : Who's who in France, 2008. La présence de ce personnel n'agit pas de manière mécanique sur l'ordre desrédactions, mais introduit une attention aux études de développement desventes qui ne sont pas sans échos auprès d'une autre nouvelle catégorie depersonnel (les directeurs artistiques) plus directement en charge ducontenu. Le succès de Libération au cours des années80 répandra l'idée de la nécessité de prêter attention au graphisme. Lesacteurs historiques de ces projets vont progressivement devenir des« experts  » en graphisme de presse. Dominique Roynette est un bon exemple .Diplômée des Beaux-Arts et enseignante de dessin, elle est arrivée à Libération à ses débuts, par conviction politique et ,après avoir lancé en 1969 un hebdomadaire PolitiqueHebdo et collaboré à d'autres journaux alternatifs. Elle est encharge de la photographie à partir de 1978-79 puis va ainsi être chargée dela production et de l'informatisation de Libération avant de faire du graphisme chez Grasset et de s'occuper du lancement dupremier quotidien polonais, Gazeta Wyborcza, en 1989 .À partir de 1995, elle est appelée au Monde pourmettre en place la nouvelle formule et y développer le servicephotographie. Ce n'est véritablement qu'avec les nouvelles formules des années 90 que leposte de directeur artistique se généralise dans les rédactions. Au Monde, ce poste est créé en 1995; de même qu' à L'Alsace, où la formule de janvier 2000 voit lacréation d'une telle fonction, confiée à un journaliste alors parallèlementresponsable des études au Centre universitaire d'enseignement du journalisme( cuej). De plus, à ces personnels internes estassocié un personnel externe d'agences de communication spécialisées dansles maquettes des journaux. Hormis Claude Maggiori déjà cité, la graphistecanadienne Nathalie Baylaucq a refait la lettrine du Monde en 1995 et 2002 après avoir travaillé sur des suppléments deLibération, sur La Croix ,Marianne, Le Point ou pour le design de Lancaster; plus récemment ,l'agence Rampazzo & Associés a travaillé sur la nouvelle formule de Libération, de Nord Éclair après avoir œuvré à La Croix, Jean Bayle a refait lamaquette du Figaro après celle des Échos. Jusqu'au début des années 90, le terme de « manchette  » servait encore àdésigner le nom du journal – Le Monde, Le Figaro ou L'Humanité( Souchier, 1982) – et l'idée de « nouvelle formule  » n'évoque au fondque des modifications d'une ligne éditoriale. Au cours des années 80, lessolutions proposées par les rédactions ne sont que des aménagements del'existant, l'attention des acteurs se concentre massivement sur le fond. Ilen va ainsi de la maquette lancée par Libération ,pourtant porteur de l'idée de modernité, le 2 septembre 1986. Elle s'inscritdans un processus de « réforme générale  » du quotidien en dotant larédaction d'une « charte professionnelle, d'une organisationfonctionnelle  » dans le but d'achever la réforme de 1981 (Berger, 1992  :317). Celles du Monde en 1989 et de L'Alsace en 1992 correspondent avant tout à un changement derotatives. En d'autres termes, les aspects graphiques sont encore« soumis  » aux modifications organisationnelles. Pourtant, l'idée dugraphisme comme moyen de gagner des lecteurs progresse dans l'esprit desjournalistes. Elle est exprimée par le directeur de Libération, Serge July, observant la démarche des magazines aucours de cette période. « La modernité de la presse en France, c'est lemagazine. Les quotidiens restent trop enfermés dans une conception politiquede l'actualité au sens large du terme  ». Le Parisien modifie sa formule le 16 octobre 1989dans un but explicitement commercial. Sa nouvelle maquette est alors conçueà partir des conseils du service marketing qui a mis « en route un pland'étude (Vu-Lu, tests U&A [usages et attitudes ], et test comparatifs) ,afin d'avoir une connaissance approfondie du lectorat et de ses attentes  »( Taslé d'Hélian, 1990  : 110). Finalement, cette nouvelle formule se traduitpar une introduction plus forte de l'image, des formats expressifs pluscourts, une nouvelle typographie avec pour objectif de « concevoir lejournal des années futures qui ne devra ressembler qu' à lui -même. […] Faireen sorte que le journal soit mieux vu pour être mieux lu  » (ibid .  : 112). Moins de cinq ans plus tard, cediscours est devenu celui tenu par l'ensemble de la profession. « La forme ,c'est le fond  », écrivent les dirigeants du Monde à l'intention de leurs rédacteurs pour justifier la nouvelleformule. Ces arguments restent inchangés depuis et s'imposent à tous  : duMonde en 1995 à Nordéclair en 2009 (Bail, 2009), d'autant plus facilement qu'ils sontportés par les mêmes agences. À partir du moment où il est admis que legraphisme sert le « fond  », les acteurs peuvent décliner les différentesacceptions de ce graphisme. Mais il est régulièrement rappelé auxjournalistes que « notre réforme n'est pas une réforme de maquette, mais defond. Attention aux mesures purement cosmétiques  ». Le titre ou la photo de « Une  » par exemplesont là pour égayer cette page et attirer le lecteur comme le ferait uneaffiche vantant les mérites de n'importe quel produit. Le dessin de Plantuau Monde, bien que présent en « Une  » depuis 1978 ,remplit une fonction claire d'identification et de marque de 1995 à 2005 oùil est systématiquement et obligatoirement associé à la manchette. Le champlexical utilisé par les journalistes (au cours de nos entretiens comme dansles documents diffusés) pour expliquer ce graphisme est toujours celui dumouvement et de la modernité  : il s'agit de notions comme « dynamisme  » ,« punch  », « frappant  », « surprise  », « richesse  » et en opposition àla « monotonie  » ou à des « Unes  » « tristounettes  ». L'image véhiculéeest celle d'une fuite en avant expliquée par la « course à l'information  » .Pour Libération, au cours de cette période, ils'agissait de faire des « Unes télévisuelles  » car « l'écrit doits'inscrire à son tour dans un nouveau monde, un monde d'images  » (July ,1997), en réaction de quoi les journalistes parlent alors de « dictaturegraphique  » (Guisnel, 1999  : 222-250). Dès lors, il appartient aux acteursde se distinguer sur ce marché par le graphisme permettant de produire deseffets de « labels  » distinguant un produit d'un autre. Le discours despatrons de presse devient interchangeable en reproduisant tous cette mêmeidée. La production des « labels  » identifiant la « marque du journal  »implique pour les rédactions d'élaborer un ensemble de styles, de police decaractère, de signes graphiques « facilement identifiables  » pour démarquerchacun des journaux et les rendre « uniques  » sur le marché, soit enlangage professionnel, l ' editing. Dans cetteoptique, Le Monde, au moment de sa nouvelle formulede 1995, a « inventé  » un nouveau caractère typographique, le caractère Le Monde, réforme poursuivie en 2002. Libération a fait de même en 2003 et Le Figaro adopte une nouvelle lettrine en 1999. Ainsila réussite des news magazines est-elle devenuel'horizon concurrentiel majeur. Leur succès est analysé comme la réussited'une politique de vente au numéro offensive, associée aux ventes parabonnement  : ils créent un modèle de « Une  » reposant sur le « marketingrédactionnel  » et où la présentation joue un rôle central (Guérin, 1991) .Mais, dans une volonté de distanciation avec ce modèle, les journalistesn'hésitent pas à critiquer la pratique strictement commerciale de ceux -ci ,rappelant que la politique aussi fait vendre. Projets collectifs et transformations profondes desrédactions, ces réformes impliquent aussi une communication vis-à-vis deslecteurs. Certains médias mettent en place un médiateur (au Monde et à France 2) pourmieux expliquer les transformations subies par leur quotidien (Champagne ,2000; Goulet, 2004). Le Figaro et Le Monde produisent des suppléments publicitaires dans lesquellesils insistent sur le fait que le journal a pour but d' « informer en touteindépendance  » et que, « dans un monde plus complexe, LeMonde est plus clair  » ou « plus complet  ». Par ailleurs, Le Monde produit un document à usage tant internequ'externe  : le Livre de style, publié une premièrefois en 2002 et remis à jour en 2004, devant servir de « précis dedéontologie et [permettant d'exposer] les règles et coutumes qui président àl'élaboration du journal, […] vade-mecum de larédaction, le socle du contrat de lecture passé entre LeMonde et ses lecteurs  ». En plus de son supplément sur sanouvelle formule de 2003, Libération produit deuxmois plus tard un document vantant sa modernité linguistique. L'échec de Libé III en 1994 est d'ailleurs analysé en termesd'une trop grande diversification d'un produit jugé peu accessible. Libé III se voulait un « grand journal qui joue àfond la diversification de l'offre journalistique quotidienne, qui fait feude tout bois, qui utilise tout le spectre de la presse écrite  » (in : Guisnel, 1999  : 310-333). L'échec commercialest vécu comme le produit d'une « incapacité  » des lecteurs à comprendreles enjeux de ces réformes  : « Les lecteurs traditionnels de Libération […] ont été désorientés  » (July, 1995  :40). Il n'est pas anodin non plus que les journaux, au cours de cettepériode, publient des recueils de « Une  » pour montrer leurs évolutionscar, comme le dit Serge July dans la préface de celui sur Libération : « L'avenir de la presse quotidienne est indexé sursa capacité à apporter de la valeur ajoutée à ses lecteurs. Et les " Unes "sont les affiches de la valeur ajoutée  » (ibid.). En tant que référentiel prescriptif, cechangement discursif s'accompagne de modifications des représentationsprofessionnelles, des techniques de production et des logiquesorganisationnelles. Trois éléments sont pensés alors ensemble  :« rationalisation  » de la forme, du contenu et de l'organisation. Chercher à attirer le lecteur dans un contexte de crise économique passe aussipar l'adaptation des techniques de travail au marketing. Cette adaptation reposesur un projet organisationnel pour lequel une implication des collaborateurs dela rédaction est demandée, modifiant les ordres locaux précédemment institués. Saisir le lecteur permet aux journalistes de construire une image de leurquotidien marqué socialement et spatialement tout en gardant une posturegénéraliste. À l'inverse de la presse magazine, la presse d'informationgénérale se veut porteuse d'un discours généraliste et interclassiste –omnibus. Affirmer le rôle de la « Une  » ne signifiepas que les choix sont « seulement  » commerciaux. La synthèse des deuxdiscours est un enjeu de taille pour les dirigeants de journaux, cetteidentité concernant autant les lecteurs que les annonceurs. Pour les organesde presse, la définition des formules successives se veut une réponse auproblème. La rationalité avec laquelle est appréhendé le lecteur estsimilaire à celle de la publicité  : son profil est plus celui d'un individuau fonctionnement standard que celui d'un sujet à la « psychologie  »complexe. Dès lors, l'action du graphisme et des nouvelles formules est« pensée comme le franchissement linéaire [des couches psychologiques] versle lieu où est cachée la clef de nos comportements  » (Utard, 2001  : 101) .L'attention portée à un lecteur ciblé est un moyen d'effectuer des choix« par défaut  », c'est-à-dire d'éliminer des sujets de la « Une  » pour lesgarder dans les pages internes. Les sujets moins « vendeurs  » – concernantmoins directement le vécu d'un lectorat socialement situé – sont délaissésau profit d'autres sujets. Par exemple, l'offre politique d'un journal« populaire  » se construit à partir d'une image d'un lectorat peu intéressépar la politique, confortée par les études scientifiques sur ce sujet, etles données statistiques avec lesquelles les journalistes travaillent. PourLe Parisien, elle repose sur le triptyque« révéler, étonner, raconter  » – ironiquement résumé par le rédacteur enchef comme étant une « mission rer ». À l'inverse, la lecture de la presse dequalité est le fait de lecteurs politisés et de csp + (Charpentier, 2004; Pierru, 2004). L'offreéditoriale peut et doit être majoritairement d'informations politiques, touten mettant plus en avant la pluralité des goûts et des pratiques culturellesdes lecteurs  : les premières se voient attribuer la manchette, les secondesles autres espaces de la « Une  » (Hubé, 2008). Les nouvelles formulescherchent à gagner de nouveaux lecteurs en respectant la tradition dujournal, laquelle est fortement valorisée. L'Alsace ,par exemple,se définit publiquement comme un journal des « quatreproximités  »  : proximité chronologique, proximité géographique, proximitéthématique et proximité affective  : « On a bien un monopole qui est celuide l'information locale pas même de l'information régionale  ». Si le ciblage du lectorat local date des années 60dans la pqr, le changement concerne une cible delecteurs nouveaux, potentiellement réceptifs à cette « modernité  »graphique  : le lecteur des centres urbains dans ces régions (Strasbourg etMulhouse pour L'Alsace) avec des pratiques et desattentes culturelles différentes du lectorat traditionnel, jugé« vieillissant  », de la pqr. De la même façon, Le Parisien communique et revendique le label« journal populaire  » avant de revendiquer celui de journal régional. Commegage de sa qualité, il affiche clairement qu'il « figure dans le quatuor detête  » sur le marché de la presse quotidienne française et que sa« structure de lectorat [est] très proche de la populationd' Île-de-France  ». Chiffres et graphiques àl'appui, le quotidien défend fièrement son succès  : il dispose d'un« lectorat qui se renouvelle  », jeune et populaire, copie quasi parfaite dela population française. Marqueurs sociaux contremarqueurs spatiaux, les quotidiens nationaux se placent, quant à eux, plutôtdans un espace qui, s'il se veut national, reste très centré autour de lacapitale, lieu de diffusion majeur. En résumé, la proximité affichée avecle lectorat est un enjeu dans le choix des sujets ou dans le traitement plusgénéral de l'information (choix des séquences, écriture), mais elle estégalement empreinte d'intentions marketing. Aller chercher un lecteursocialement marqué, c'est le chercher par l'information mais aussi par lapublicité. Le changement des « Unes  » dans le sens d'une vitrine chargéed'attirer le lecteur se traduit par l'éviction des éditoriaux de la premièrepage et plus généralement d'un abaissement des positionnements politiquestrop marqués (Juhem, 2001). De manière plus surprenante, lorsqu'ons'intéresse au contenu des « Unes  », ce qui peut s'apparenter à une « tabloizidation » de la forme ne conduit pas à une « tabloizidation » du choix des sujets (Esser ,1999). En effet, il ressort de nos comptages que l'actualité traitée restemassivement politique (voir tableaux 1 et 2). La part de l'informationinternationale s'est certes très fortement réduite, mais au profit del'information politique nationale et des pages de « société  » quiconsistent pour beaucoup en un traitement des politiques publiques, end'autres termes de la politique par un autre moyen (Hubé, Kaciaf, 2005). Lahiérarchie des informations reste bien celle d'une information politiquepour un lectorat socialement situé  : on constate que la presse régionale en2002 en plus de traiter de politique nationale traite de questions( politiques ou sportives) régionales tandis que LeParisien cible un peu plus les amateurs de sport, et au premierchef les footballeurs. Notons aussi que, à côté du choix des sujets ,l'écriture des titres est effectivement plus orientée vers des logiquesd'audience en traitant plus aisément le jeu politique. Avec l'arrivée d'un discours sur le graphisme et la modernité, l'organisationprécédente des pages est perçue comme complexe à déchiffrer. Lahiérarchisation n'est plus « spontanément  » accessible, alors même que laséduction des lecteurs passe précisément par la « mise en page  » desquotidiens. La « Une  » et sa manchette déterminent l'importance d'un faitet non plus son « colonage  ». La clarification du « contrat de lectureétabli avec les lecteurs  » passe désormais par un découpage plus rigoureux desespaces rédactionnels. Le journalisme français s'est historiquementconstruit en maintenant l'ensemble du « réel  » dans un seul cahier à partird'une « expertise horizontale  » de la politique, de l'économie, desinformations générales et du sport. Progressivement, des « expertisessectorielles  » (des rubriques) apparaissent avec l'industrialisation de laprofession, le « primat du produit sur la signature  » et la« collectivisation du travail  » (Padioleau, 1976  : 269). Or, « lesarticles sont placés les uns à la suite des autres en fonction de la placeet de l'actualité  » (Eveno, 2002  : 117). Toutes ces rubriques sont enconcurrence pour l'espace du journal (et en particulier pour l'accès à la« Une  »). La spécialisation progressive des journalistes politiques estconcomitante de l'apparition de rubriques et/ou de services « Société  » (àLibération dans les années 70 puis au milieu desannées 80, au Monde en 1978, à L'Humanité en 1982, au Figaro en 1983, àFrance Soir en 1988), divisant le politique engrandes catégories de politiques publiques alors que les services politiquesvont avoir tendance à se recentrer sur la politique partisane (Hubé, Kaciaf ,2005; Kaciaf, 2009). Cette institutionnalisation des pages « Société » doit beaucoup au NouvelObservateur (Pinto, 1984) ou à Libération ,journaux de la nouvelle « gauche  » et dans l'esprit d'un new journalism à la française, et à la revendication d'un« nouveau journalisme [de télévision] interrogatif, explicatif ,non-institutionnel, interpellatif, enfin nourri d'enquête et de reportage  »( Brusini, James, 1982  : 37). La forte interdépendance des titres de presseau sein d'un champ journalistique centralisé tend les rédactions à suivreles innovations des unes et des autres à mesure que les innovationsconcurrentes semblent assurées d'une certaine forme de succès. Elles sontaidées par une plus forte circulation des journalistes entre les titres( Marchetti, Ruellan, 2001). Cette recomposition du social et de la politiqueest un des éléments donnant toute sa dimension à la volonté des rédactions –où cohabitent dans les rédactions des rubricards « puissants  », négociantdirectement leurs colonnes avec la direction de la rédaction et des chefs deservice plus faibles – de fournir un produit journalistique « mieuxconstruit  », « plus clair  ». Le « réel  » n'étant pas jusqu'alors diviséen blocs rédactionnels (les cahiers), fournir un produit immédiatementaccessible implique de réduire les possibles divisions. Il faut donner auxlecteurs des divisions ordonnées et typifiées du réel en nombre réduit, neplus concevoir le journal comme une succession de colonnes mais le« chapitrer  ». Il convient désormais d' « éviter la " marqueterie "  », c'est-à-dire l'imbrication desarticles les uns aux autres sans « rationalité  » apparente. Le sens descolonnes est modifié tout comme celui des rubriques. Celles -ci sont fonduesdans des « séquences  » englobantes permettant une construction horizontaledes pages divisées en ensembles rédactionnels signifiant pour le lecteur  :quelques grandes séquences thématiques (international, politique, société ,etc.) plutôt qu'une multitude de rubriques (et donc de colonnes) imbriquéesles unes dans les autres (défense, diplomatie, parti socialiste, justice ,éducation, etc.). Chaque section – et, par là, chaque service – se voitprogressivement chargée de produire des « pages  »  : la hiérarchisation desinformations ne se fait donc plus en aval (une fois le nombre de colonnesattribuées en conférence de rédaction) mais en amont, au sein des servicesqui, chacun, produisent des pages d'ouverture. La colonne ne devient plusune unité de mesure du pouvoir d'un service, mais une unité d'importancehorizontale accordée à un article. La page d'ouverture devient donc uncorrélatif nécessaire à cette conception du journalisme. Comme on peutl'observer dans les manuels de journalisme et les documents d'explicationsindigènes, de « premier article en haut à gauche  » d'une page dépourvue defonctions autres qu'informatives en 1979, l'ouverture devient « les titresde la première page de chacun des cahiers du journal  » en 1991, avant decorrespondre « au sujet le plus important du jour pour ce service  » en 2000. Du coup, cet espace rédactionnelse voit accorder plusieurs fonctions. Tout d'abord, « l'ouverture  » assurepour les quotidiens une fonction de réassurance autour de leur capacité àréagir à l'actualité en montrant une « organisation plus dynamique et plustransversale autour des événements forts  » (ibid .  : 2). En donnant une saillance particulière à un sujetd'actualité, chaque service réduit de fait l'espace des possibles sujets de« Une  »  : le choix de la manchette s'effectue à l'aune de la saillance dessujets déjà hiérarchisés par les services. Les pages d'ouvertures –fonctionnant comme des « Unes  » à la taille des services – donnent tout sonsens à la « Une  » du quotidien, jouant la fonction d'appel vers ces pagesd'actualité. Une plus grande coopération au sein des services en découle .Plusieurs dispositifs sont alors utilisés pour accompagner ce qui est énoncépar les journalistes en entretien comme une « rationalisation  » del'organisation  : d'abord, la multiplication des conférences de rédaction etde services (Clayman, Reisner, 1998; Hubé, 2004), puis l'utilisation d'un« chemin de fer  », les pages d'ouvertures. La page d'ouverture assure unefonction de rationalisation graphique, donnant clairement à voir des césuresvisuelles, aisément repérables dans l'organisation horizontale du chemin defer, fonctionnant comme des locomotives de ces sous-ensembles plus ou moinsgrands. Les divisions verticales du réel (International, France/Politique ,Société, Économie, etc.) fédèrent les divisions précédentes en rubrique. Ensoi, un chemin de fer n'est pas quelque chose de nécessairement« nouveau  », mais ici l'introduction de cet outil de planificationaccompagne le discours de la « rationalisation graphique  » et contribue auchangement de dispositif organisationnel de production du journal .L'ouverture sert d'outil technique de pacification des services et decentralisation du processus autour d'une « chefferie  » plus structurée( Hubé, 2007). L'injonction d'une plus forte hiérarchisation des sujets ausein des services modifie durablement le fonctionnement organisationnel enrenforçant la structure des services autour de leurs responsableshiérarchiques. Même si la démonétisation de la signature de « Une  » devenuerare enlève aux chefs une ressource de pouvoir (Simonnot, 1977  : 110-114) ,la place occupée par les pages d'ouverture, le rôle de la sélection au coursdes conférences de rédaction et l'accroissement de ces réunions donnent auxchefs de service la gestion d'une incertitude de poids. L'attribution d'unvolume plus ou moins permanent de pages réduit les tensions entre servicespour l'obtention de colonnes nouvelles; la composition des pages d'ouverturenécessite par ailleurs une plus grande coopération entre les rubricards d'unmême service. L'accès en « Une  » d'un journaliste passe nécessairement parle relais du chef de service qui centralise les demandes. Les conférences derédaction sont devenues plus nombreuses et plus précoces dans la journée. Defait, le rubricard ne peut plus directement aller « négocier  » sa placedans le journal auprès du directeur de la rédaction. La fonction decoordination revient alors aux responsables hiérarchiques du service. Enfin ,en plus des transformations rédactionnelles, la période est marquée par destransformations techniques affectant des groupes professionnels nonjournalistes. Avec l'informatisation et l'apparition de nouvelles techniquesde fabrication, les frontières entre différents métiers sont devenuesbeaucoup plus labiles. Certains, comme les linotypistes ou les« plombiers  », ont disparu; d'autres se sont transformés avec la pao (production assistée par ordinateur). De fait ,secrétaire de rédaction et monteur ont des fonctions désormais quasisimilaires (Ruellan, Thierry, 1998). Les rédactions ont été contraintes dès1985 de négocier avec le Syndicat du Livre quant à l'évolution de cesmétiers. Au moment de leur nouvelle formule, Le Monde et L'Alsace ont créé des postes nouveaux d'éditeurset de graphistes. Les autres quotidiens (Le Figaroou L'Humanité par exemple) possèdent égalementleur « pôle éditorial  ». L'ordre organisationnel poursuivi par cesentreprises vise une réorganisation des services renforçant un pôle« édition  » au sein des rédactions, suivant un modèle initié par Libération (Blin, 2002). Il s'agit aussi d'adapter larédaction à un modèle existant plus anglo-saxon avec la création de copy-editor en bout de chaîne éditoriale; il estd'ailleurs significatif d'avoir changé le nom de la fonction ancienne de« secrétaire de rédaction  » en une fonction « d'éditeur  », directementemprunté au monde anglophone. La « Une  » est duale  : elle est chargée d'apporter les informations importantesd'une journée au lecteur et elle est, dans le même temps, investie d'unefonction commerciale d'attraction du lecteur. En France, la crise permanente desquotidiens nationaux et régionaux a fini par faire de la modification desmaquettes la méthode d'adaptation par excellence. Une note interne du Monde en 2005 de rappeler qu'en 1995, « il s'agissaitalors de faire entrer Le Monde dans la modernité. Lesuccès de cette relance n'est plus à démontrer  : nous avons gagné de 1995 àaujourd'hui plusieurs dizaines de milliers de lecteurs  » .Mais moyens au service de (autant que résultat de) pratiques sociales, lestransformations organisationnelles concomitantes aux évolutions desreprésentations de la « Une  » ne doivent pas être oubliées à l'analyse car pourêtre effectives, les représentations doivent être portées par des acteurs puismises en œuvre dans les pratiques des acteurs .
Depuis les années 90, la presse quotidienne française multiplie les rénovations graphiques. En soi, pourtant, une nouvelle formule n'est pas quelque chose d'inédit. Mais, ces « adaptations » sont désormais réalisées dans un but stratégique: gagner des nouveaux lecteurs. Ce n'est qu'à partir de ces réformes que la première page d'un quotidien devient, en France, la « Une », véritable vitrine du journal, chargée d'attirer le lecteur par sa diversité, par le choix des photos ou des illustrations, par des titres plus courts. La « Une » apporte désormais une « valeur ajoutée » à la qualité du journal. « La forme, c'est le fond' » explique la direction de la rédaction du Monde en 1996. Pour faire face à la crise, les rédactions font appel à deux groupes de professionnels qui vont amener avec eux ce discours: des managers de presse et des professionnels du graphisme. Mais ces changements de forme ont aussi des effets sur l'organisation du travail de ce journalisme de communication.
sciencesInfo_12-0000962_tei_1044.xml
termith-368-communication
L'innovation, dans les environnements d'hypercompétition caractérisés par la création et la destruction rapide des avantages concurrentiels (D'Aveni, 1994), consiste à réaliser des bonds en avant qui sont basés sur la rapidité (ou time-to-market) et/ou sur la mise en œuvre de savoir-faire inédits. Dans ces contextes, les entreprises doivent pouvoir générer un flux continu de nouvelles idées, les évaluer et les mettre en œuvre, à travers des procédures de management de projet. Compte tenu du caractère collectif de la gestion des processus d'innovation (équipes projet pluridisciplinaires, de plus en plus éloignées physiquement), de nombreux outils collaboratifs ou de gestion des connaissances visent à aider les entreprises à gérer plus efficacement leurs processus. Ce sont principalement des outils de gestion de projet qui s'appliquent à l'ensemble du processus d'innovation. Mais peu analysent en détail les phases cruciales amont, dites phases d'avant-projet. Celles -ci sont caractérisées par le flou et l'ambiguïté et donc plus difficilement modélisables dans un outil. Pour autant, de nombreux auteurs ont depuis de nombreuses années montré l'importance de ces phases amont dans la réussite finale d'un projet (Cooper, 1988; Barclay, 1992). Notre hypothèse est que les connaissances actuelles tant dans le domaine des processus collectifs de construction de sens (Weick, 1995), que de la modélisation de concepts et des ontologies (Roche, 2001) doivent permettre d'envisager aujourd'hui des méthodes et des outils susceptibles de soutenir ces phases de créativité et d'échanges. L'outil et la démarche envisagés visent à confronter et faire évoluer les représentations des acteurs engagés dans un avant-projet, à travers une communication facilitée et contribuer ainsi au processus de structuration d'une idée d'innovation. Dans cet article, nous précisons notre conception des processus d'innovation. Nous définissons notre concept d'idée. Et nous illustrons une partie de notre approche de gestion des idées à travers la mise en œuvre de la méthode Parc-Id que nous présenterons rapidement, dans l'outil que nous proposons, IM Station (Innovation Management Station). Nous considérons ici une idée d'innovation comme l'émergence d'un nouveau concept (produit, procédé, service…), destiné à répondre à un problème plus ou moins défini. Gérer une idée consiste à faire évoluer de manière collective une première intuition vers un projet argumenté et étayé, permettant une prise de décision par une direction générale d'entreprise. La plupart des modèles de processus d'innovation font état d'une phase de « génération des idées » qui se situe en amont des projets. Par exemple, l'Anvar découpe un projet d'innovation en 5 phases (www. anvar. fr) : Idée, Faisabilité, Développement, Prélancement et Cycle de vie. Or la phase de génération d'idées se subdivise en réalité en plusieurs étapes, car une idée a une vie propre de sa naissance (émergence) jusqu' à son passage en phase de projet ou son abandon. (Deschamps et al., 1995) proposent de l'organiser en trois étapes : une étape de fertilisation qui consiste à imaginer les opportunités et à définir les priorités, une étape d'ensemencement pour générer et gérer le flux des idées et enfin une étape d'incubation pour gérer et faire aboutir les projets à potentiel. Les travaux plus récents en management stratégique, en particulier l'école des ressources et des compétences (Grant, 1996), ou encore l'approche socio-technique en sociologie de l'innovation (Flichy, 1995), montrent que les sources externes d'idées doivent être confrontées aux ressources et compétences internes de l'entreprise, en particulier les ressources et compétences technologiques et marketing (Danneels, 2002). Un processus d'innovation visera donc à opérer un rapprochement entre les connaissances sur les évolutions des marchés et des technologies et les ressources et compétences de l'entreprise pour créer de nouveaux produits ou marchés en lien avec le projet stratégique de l'entreprise (Souder, 1987). Le management des processus d'innovation ne consiste pas seulement en un échanges de connaissances entre différents acteurs, mais met en jeu un processus de création de significations (Nonaka, 1990; Flichy, 1995), de délibération et de négociation (Purser et al., 1992; Midler, 1993) permettant la création de nouvelles connaissances organisationnelles (Hatchuel, 1994). Les problèmes rencontrés par les entreprises pour la gestion des idées sont généralement de deux ordres : soit elles considèrent qu'elles n'ont pas suffisamment d'idées (à notre sens ce n'est pas le cas le plus fréquent), soit elles rencontrent des difficultés à transformer les idées en projets inscrits dans la stratégie de développement. Ces difficultés peuvent avoir plusieurs sources : pas de circuit identifié des idées nouvelles, problèmes d'évaluation des idées, éparpillement des sources d'idées nouvelles, pas de réel débat collectif autour des idées de nouveaux produits. Dans cette perspective, notre objectif consiste à soutenir un processus collectif et organisé de formulation des idées et de délibération collective pour gérer ce passage de l'idée au projet. Nous proposons une grille d'organisation des idées, avec une approche de modèles génériques et de catégories d'idées, dans un souci de capitalisation de savoir-faire. En effet, il nous semble nécessaire de capitaliser les éléments du contexte d'émergence d'une idée, dans un souci d'accroître à terme l'efficacité et la rapidité de prise de décision dans cette phase. Il s'agit notamment de créer, par un effet d'apprentissage, des routines de questionnements collectifs autour d'idées de nature similaire. Parmi les éléments du contexte, certaines informations seront facilement formalisables car explicites, mais beaucoup d'autres connaissances sont tacites, du domaine du savoir-faire, donc non formalisables. Nous devons alors mettre en relation les acteurs du projet et faciliter leur communication. On pourra notamment utiliser des techniques de notification automatique après analyse de similitudes avec d'autres projets. Dans le cadre de cet article, l'idée, contrairement au projet, est un élément flou, non structuré et souvent mal énoncé. Il s'agit d'une « étincelle » dont l'origine peut être tout à fait subite et imprévisible. Elle peut aussi survenir comme réponse à un besoin ou un problème particulier ou pour améliorer un produit existant. Notre but est donc de pouvoir prendre en compte une idée, de l'amener à une maturité suffisante pour l'explorer, la développer et l'exploiter au mieux, en apportant tous les éléments constitutifs à l'élaboration d'un projet, gérant une idée de son émergence à sa concrétisation en terme de projet réalisable, en faisant émerger sa structure et ses liens avec d'autres idées. Nous sommes alors confrontés à différents problèmes. Le premier est lié à la nature même de l'idée, floue et contradictoire : comment peut-on définir une idée, la préciser, la caractériser, la structurer, la décomposer… ? D'autres problèmes sont liés aux paradoxes de la gestion de projet : le processus doit être suffisamment rapide, tout en laissant le temps nécessaire à la maturation de l'idée; le porteur de projet est souvent individuel, mais doit s'appuyer assez vite sur une équipe; les directions générales demandent des « business plans » totalement aboutis et fiables, alors que, par définition, une idée d'innovation implique un niveau de risque irréductible. Par ailleurs, les travaux en créativité nous enseignent que les processus de génération d'idées suivent généralement deux phases : une phase de divergence permettant d'enrichir l'idée de départ et de la « questionner » pour la solidifier, et une phase de convergence permettant de réaliser les choix essentiels au bon avancement du projet (Gaillard, 2001). Il s'avère donc intéressant d'apporter une aide tout d'abord pour le recueil des informations et des idées : aller chercher des compétences auprès de différents intervenants, les faire dialoguer autour de cette idée, alors même qu'ils possèdent des vocabulaires spécifiques et des connaissances partielles. Puis proposer une structuration de ces idées. Enfin apporter une aide au travail de synthèse et de rédaction des documents indispensables pour passer dans les procédures classiques de gestion de projet. La gestion d'une idée implique des échanges de compétences et de connaissances importants (Altshuller, 1988). L'informatique peut apporter une aide à différents niveaux, pour faciliter les échanges, gérer l'historique de l'idée de son émergence à sa concrétisation, rechercher efficacement les informations nécessaires… Nous cherchons des outils ayant des caractères de réactivité et de facilité de mise en œuvre, dans une démarche qui doit associer performance, moyens et temps limités, dans un contexte de grande concurrence. De plus, une grande part doit être laissée à l'expression naturelle, sans tentative de formalisation pouvant nuire à la créativité. Cependant, ils doivent présenter une aide à la gestion d'une idée de son émergence à sa mise en forme et une démarche de construction de projet (Perrin, 2001). Une première approche consiste en une adaptation des outils classiques de gestion de projet (Marciniak et al., 1999; Fernez-Walch, 2000) : ils ne prennent pas en compte la gestion, la validation ou la concrétisation des idées en amont des projets et nécessitent au départ une formulation précise du projet. Des outils, comme Tech Optimizer, tiré de la méthode TRIZ, sont orientés vers la génération d'idées pour la résolution de problèmes techniques de toute nature (Cavallucci et al., 1997; Crubleau et al., 2001). Ces outils mettent l'accent sur les utilisations « hors contexte » d'un certain nombre de lois, techniques et méthodes pour permettre l'émergence de solutions originales pour un problème donné (Zinovy, 1996) mais ils ne gèrent pas les idées nouvelles et encore moins leur capitalisation. Les outils de cartographie des connaissances et des compétences, comme les arbres de connaissances (Authier et al., 1992), notamment développés et commercialisés par l'entreprise Trivium 1, permettent une représentation visuelle des liens entre les connaissances des acteurs et aident l'auteur d'une idée à trouver les compétences requises pour faire évoluer son idée (Authier, 2001). Cependant ces outils n'apportent pas d'aide quant à la démarche et à la construction du projet. Enfin, les outils tels que Lotus Notes 2, pour le workflow, sont des outils performants dans leur domaine, mais difficiles à mettre en œuvre dans les PME, car ils nécessitent un temps de formation et de prise en main non négligeable. S'ils favorisent les échanges, ils n'apportent pas d'aide spécifique pour structurer un projet et faire évoluer le concept flou qu'est l'idée. Nous ne pouvons pas utiliser ces outils de manière satisfaisante pour la gestion des idées. D'une part, la notion de cycle de vie d'une idée, de son énoncé à sa concrétisation en projet, ne trouve pas sa place. D'autre part, si certains ont pour ambition de faciliter la communication et les échanges, aucun ne se penche sur le problème de la compréhension réciproque des messages échangés entre interlocuteurs de culture et de métier différents. Notre propos est d'aider un collectif représentant généralement des compétences et des métiers différents à s'approprier une idée d'innovation, à délibérer autour de l'idée ou du problème à résoudre, à l'enrichir et à la faire évoluer pour la rendre « opératoire ». Nous présentons ici trois aspects de notre contribution. Tout d'abord, nous définissons ce qu'est une idée, comment nous la représentons, nous suivons son évolution et nous tentons de la structurer. Nous proposons d'organiser ces idées, à travers une approche de modèles génériques et de catégories d'idées, dans un souci de capitalisation de savoir-faire. Puis nous apportons une aide à la concrétisation des idées avec un outil d'aide à la synthèse et à la rédaction de rapports. Enfin, nous abordons les aspects liés à l'utilisateur, avec les notions de profils utilisateur, de confidentialité et de contrôles d'accès et surtout les terminologies associées à chaque interlocuteur. Dans notre environnement IM Station, nous décrivons l' « idée » comme un concept générique qui se définit de manière récursive : une idée est un réseau de sous-idées, chacune étant elle -même une idée. La complexité d'une idée peut être élevée. Chacune est décrite par un ensemble de propriétés très diverses : un simple énoncé (exemple : développer un moteur silencieux), l'identité de l'auteur, la date de l'énonciation de cette idée… L'idée de départ peut ensuite donner naissance à plusieurs « idées voisines », se décomposer en sous-idées… L'énoncé initial peut évoluer vers un énoncé plus clair, plus précis ou plus détaillé, ou encore vers un énoncé assez différent. Ces différents énoncés, traduisant l'évolution de l'idée, doivent tous être mémorisés. Certains seront peut-être totalement abandonnés, d'autres mis de côté pour une exploitation plus tardive, ou encore leur évolution permettra de trouver idée à développer. La genèse d'un projet étant aussi une connaissance importante, nous associons un « état d'avancement » à chaque idée (ou sous-idée…) permettant de mesurer et de visualiser son état de maturité. Petit à petit, le concept d'idée se décrit au travers d'un nombre croissant de caractéristiques, certaines comme le nom de l'auteur sont données de manière unique tandis que d'autres comme les liens vers les autres idées « voisines » ou le descriptif de l'idée évolueront dans le temps. Nous proposons de les regrouper par nature : celles qui sont en rapport direct avec l'idée et son essence, celles qui décrivent le contexte, celles qui permettent de structurer l'idée… Une idée peut se décrire comme un réseau sémantique où les relations de spécialisation et de composition côtoient des relations spécifiques du domaine d'application. Nous pouvons alors faire plusieurs propositions d'organisation et de visualisation, chacune mettant en avant un point de vue spécifique, permettant lui aussi de faire évoluer l'idée. Enfin, à chaque idée, nous associons des actions possibles comme lister les sous-idées qui la composent, indiquer les idées qui lui sont liées par une relation particulière, voir son état d'avancement, générer un rapport de synthèse sur cette idée ou au contraire demander d'enrichir cette idée. Pour suivre l'évolution des idées et leur gestion, nous ferons des propositions d'organisation et de structuration, et nous leur associons un cycle de vie visuel. Différentes organisations sont possibles, mettant en valeur des points de vue différents. Par exemple, une organisation hiérarchique peut refléter des notions de décompositions successives. Une organisation en réseau de ses idées fera apparaître des liens de nature différente, comme des liens temporels ou des relations de cause à effet. Ces différentes organisations et visualisations possibles enrichiront les notions de point de vue sur l'idée à développer. Elles sont vues par notre système comme des modèles génériques pouvant s'appliquer à plusieurs idées différentes. Au travers des applications rencontrées, nous espérons créer et enrichir une bibliothèque de modèles génériques et ainsi capitaliser connaissances et savoir-faire. La méthode Parc-Id décrite plus loin est, pour notre système, un modèle générique s'appliquant à plusieurs idées différentes dans le secteur de la valorisation des idées dans les PME. Sa mise en œuvre dans le cadre d'un projet Interreg 3 a permis de valider cette généricité. Ensuite, en fin de projet, nous exploitons les résultats obtenus par rapport à ceux que nous attendions et nous pouvons en tirer un savoir-faire pour la gestion d'idées, capitalisable au travers des modèles génériques ainsi obtenus. Dans le cadre de la gestion des idées et notamment s'il s'agit d'idées innovantes, on comprend qu'une certaine confidentialité soit nécessaire. Même si nous devons faciliter la communication et la collaboration, tous les utilisateurs ne peuvent être sur un plan d'égalité par rapport à l'accès aux informations. IM Station permet de contrôler la notion de droit d'accès à chaque idée et sous-idée (droit de voir seulement les projets ou idées auxquels l'utilisateur est associé, possibilité de visualiser certaines idées de ces projets, droit de ne modifier que ce qui le concerne directement….). Ces droits d'accès sont bien sûr liés au rôle que joue l'utilisateur dans un projet donné. Par exemple, le responsable d'une idée aura les droits de création et modification sur ses rapports, alors que le « simple » intervenant ne pourra que visualiser ces rapports et répondre aux questions posées. Ces droits peuvent évoluer aussi au fur et à mesure de l'avancement de l'idée, sous le contrôle du responsable ou de l'auteur de l'idée, par exemple dans le but d' « ouvrir », dans un premier temps, l'idée au plus grand nombre et de pouvoir récupérer les éléments de faible « résonance », puis de concentrer les efforts vers les éléments « intéressants ». A ce profil utilisateurs « courant », nous voulons apporter deux éléments plus particuliers. D'une part nous pouvons faciliter le travail de création, en utilisant le savoir-faire préexistant et capitalisé au travers des expériences précédentes. L'utilisateur-créateur a alors accès aux différents modèles génériques existants, peut choisir de s'en approprier et l'adapter à son projet ou en créer un nouveau. D'autre part nous proposons l'ajout d'un atout essentiel à la bonne communication : la terminologie propre à chaque utilisateur ou à chaque métier. Nous avons déjà précisé que les échanges, dans cette phase de création sont nombreux et font intervenir des acteurs de cultures différentes. Chacun a un vocabulaire et des expressions particulières, et les ambiguïtés introduites ici risquent de faire perdre par la suite beaucoup de temps. Afin de garder toute la richesse des idées émergentes, et de pouvoir assurer leur convergence au sein du même projet, il est souhaitable dès le début d'assurer la qualité de ces échanges en levant toutes les ambiguïtés possibles. A chaque échange, nous offrons la possibilité d'associer les terminologies, définies comme des ontologies (Roche, 2000), propres à chaque intervenant. La construction de ces terminologies ou ontologies métier se font de façon parallèle et indépendante de la gestion des idées. Mais si elles existent, nous les prenons en compte. Les analyses terminologique et ontologique des contenus des messages échangés permet alors d'identifier les termes ambigus (i.e. appartenant aux différentes ontologies mais avec des définitions différentes), les termes inconnus dans une terminologie donnée tout en l'étant dans d'autres, et à remédier à ce qui équivaut à une perte d'information, tout en préservant le sens. L'outil IM Station, Innovation Management Station, permet de visualiser un certain nombre de concepts que nous utilisons pour notre démarche plus globale de gestion des idées. Nous illustrons ici quelques concepts présentés précédemment au travers d'une application particulière développée dans le cadre du projet InterregII Franco-Italien cité à la section 3.2. La méthode Parc-Id présentée en détail dans (Chanal, 2001), Parc-Id pour Plate-forme d'Aide à la Réflexion Collective sur les Idées de Développement, est une méthode « papier », servant de support d'animation à un consultant auprès d'une équipe de responsables d'entreprise. Elle est destinée à aider un groupe de collaborateurs d'une PME à réfléchir de manière structurée autour d'une idée d'innovation, afin de la transformer en un projet de développement viable et bien documenté, et ce, au cours de plusieurs réunions (trois environ) espacées de plusieurs semaines. Elle propose un canevas 4 figé mais adaptable sur la conduite à tenir pour l'énoncé et le suivi de l'évolution d'une idée innovante. IM Station permet, au travers des concepts définis précédemment, d'accueillir cette méthode et de lui fournir le support informatique nécessaire à sa mise en application, en prenant en compte les spécifications que nous venons de décrire et en particulier le fait qu'un projet est un réseau d'idées qui se construit et ne peut donc pas être figé. Pour IM Station, la méthode Parc-Id devient alors un modèle générique, nommé ici « trame standard ». Si nous voulions développer un autre type d'idée, une autre trame ou modèle générique, apparaîtrait. Par exemple, un modèle générique pourrait apporter une aide efficace à la création d'entreprise (de l'idée à l'acte, en passant par les études de faisabilité, démarches administratives, études de marché, recherche de financements…). Chaque modèle générique peut ensuite être spécialisé pour s'adapter au mieux à chaque entreprise, par modification de la trame standard. Toutes les idées ne pourront pas être « rattachées » au départ à un modèle générique, mais après son évolution, le « traitement » d'une idée pourra donner lieu à création rétroactive d'un modèle générique, utilisable et modifiable pour d'autres idées a priori semblables. Dans l'exemple proposé avec Parc-Id, le modèle générique décrit une idée innovante sous le terme « projet » (sur l'exemple d'une idée de communication sous forme d'un « journal interne électronique »). Dans ce cas, la trame standard convient parfaitement, même si nous pouvons être amené à modifier ou supprimer quelques questions. Cette idée passera du simple énoncé au lancement d'un projet innovant quand elle aura atteint une maturité suffisante. Pour cela Parc-Id propose un découpage en « phases » successives du projet. Chaque phase est découpée en « thèmes » eux mêmes divisés en « question à traiter ». Cette démarche est présentée comme un questionnaire auquel chaque participant doit répondre de façon individuelle puis « publique », lors d'une réunion où le débat peut s'animer. En fin de réunion, une synthèse doit être élaborée par les animateurs de la réunion. La mise en œuvre de Parc-Id à travers IM Station, se traduit par des concepts idée de nature différentes (ontologie des différents types d'idée), possédant chacun ses caractéristiques : les concepts sont nommés « projet », « phase », « thème » et « question » et ont des propriétés différentes. Parc-Id propose une organisation hiérarchique, mais IM Station permet de gérer des liens différents, par exemple des liens « transversaux » (lien entre la question 1A1 : étude de marché préliminaire et la question 3.B.2 : étude marketing), qui permettent d'enrichir et de faciliter l'exploitation des connaissances recueillies. Nous présentons ici deux interfaces significatifs de notre outil. Le premier permet de visualiser le modèle générique et ses concepts (à gauche), et à droite l ' indispensable espace de dialogue proposé. La partie supérieure gauche reprend les concepts projet, phase, thème et question utilisés dans le modèle générique. L'organisation hiérarchique de Parc-Id se traduit par une visualisation adaptée, avec une numérotation et des décalages successifs pour les idées imbriquées. Dans la démarche Parc-Id, toutes les informations liées à l'évolution du projet doivent être recueillies au travers des questions. De ce fait ces zones de dialogue n'apparaissent qu'après la sélection d'une question. Comme tous ces dialogues sont mémorisés, nous pouvons à tout moment les compléter ou les exploiter. Les messages et auteurs sont affichés en fonction des droits de l'utilisateur et des choix du chef de projet. On visualise un rappel du descriptif de l'idée sur laquelle nous travaillons et son état d'avancement. Enfin, si l'utilisateur en a le droit, il voit le bouton « générer un rapport » en bas dans la partie gauche, qui lui permet de basculer sur l'interface suivante d'aide à la synthèse et à la rédaction de rapports. Le deuxième écran apporte une aide à la synthèse sur une idée. La zone 1 donne accès à la liste de tous les commentaires enregistrés pour une question. En sélectionnant, on visualise sa teneur, son auteur et sa date de création dans la zone 2. La zone 3 facilite la rédaction. L'utilisateur a accès aux fonctions d'un éditeur de texte, peut enregistrer ou imprimer son travail, exporter son texte vers un outil de traitement de texte… Pour Parc-Id, les rapports successifs sont utilisés pour la rédaction des idées hiérarchiquement supérieures. Au départ seules les questions sont commentées. Après avoir fait la synthèse des différentes réponses à une question, nous pouvons faire la synthèse de ces rapports question pour un thème. Nous répétons ce processus avec la synthèse des thèmes pour une phase et la synthèse des phases pour le rapport projet. Mais IM Station doit encore évoluer. Nous avons pu constater que les utilisateurs d'un tel outil, dans l'approche initiale destinée aux PME-PMI, seront plus vraisemblablement les conseillers techniques des organismes d'aide à l'innovation (CCI ou CRITT) dont les principales attentes peuvent être résumées ainsi : pouvoir disposer d'un guide méthodologique, sous forme d'une trame ou d'une « checklist » ou d'un modèle générique permettant d'optimiser chaque rencontre avec les entreprises, contribuer à faire prendre du recul aux décideurs, par rapport à leur projet de développement, les amener à échanger des informations en interne et à prendre en compte les points de vue et les contraintes des différentes personnes intervenant dans le projet, accélérer la phase de démarrage des projets, à partir de l'idée initiale, capitaliser les connaissances acquises lors des différentes expériences et augmenter leur savoir-faire. De ce fait, il est important d'augmenter la base des modèles génériques proposés et de réfléchir sur les méthodes à développer en fonction des contextes d'émergence des idées. Il faut aussi assurer un lien fort avec les ontologies métier intra ou extra entreprise et les messages échangés. Des travaux en cours dans le domaine de la visualisation, construite à partir de réseaux sémantiques, permettront d'améliorer de façon conséquente l'utilisation de la plate-forme en facilitant l'interface utilisateur, la prise en compte des liens existant entre les idées et sous-idées et l'exploitation des différents points de vue selon lesquels une idée peut être « explorée ». Enfin, il faut rendre ce prototype performant et sûr, pour un usage plus simple et plus « professionnel ». Nous ne pouvons pas ici détailler et illustrer tous les concepts présentés précédemment. La gestion des droits d'accès, pour Parc-Id, donne les mêmes droits et restrictions d'utilisation aux utilisateurs. Le chef de projet peut rédiger un rapport, l'administrateur crée les utilisateurs, les projets et modifie ou crée des trames. IM-Station peut être mise en œuvre sur un intranet, afin d'offrir un espace de dialogue structuré aux membres d'une équipe de travail. Parc-Id, testée avec succès dans le cadre projet Interreg auprès de plusieurs PME dans des secteurs différents, nous a permis de valider notre plate-forme de travail. IM-Station apporte des éléments supplémentaires essentiels. Elle prend en compte la dynamique du processus de création, de structuration et de gestion des idées. Elle élargit les possibilités de relations entre les idées et permet d'en présenter différents points de vue. Elle apporte un soutien logistique important en facilitant la rédaction des rapports, montrant les constituants d'une idée et permettant une navigation aisée parmi les relations liant les différentes idées. La mémorisation des différents éléments permet une capitalisation des connaissances de l'entreprise. Enfin, l'association des terminologies assure la qualité des échanges et du travail collaboratif, et un enrichissement des connaissances acquises. La démarche et l'outil que nous proposons sont des facteurs catalyseurs pour permettre à des idées d'évoluer, de leur émergence à leur concrétisation en termes de lancement de projet. IM Station, qui permet de concrétiser et d'outiller la recherche que nous menons autour de l'innovation, apporte des moyens pour élargir le dialogue tout en s'assurant que les interlocuteurs se comprennent bien, pour la mémorisation des informations et connaissances nécessaires à l'évolution d'une idée, pour la structuration des idées avec des modèles génériques validant la couverture de tous les points à aborder et des visualisations éclairant les différents points de vue nécessaires à une évolution favorable de l'idée initiale et pour une synthèse progressive, assurant alors une convergence vers la définition d'un projet et la rédaction des documents nécessaires. IM-Station répond donc aux critères d'une gestion des idées qui augmente les chances de voir une idée déboucher sur un projet. L'apport méthodologique et la capitalisation des savoir-faire accélère le temps de maturation de l'idée, ce qui permet aux entreprises d' être plus réactives dans l'environnement concurrentiel actuel, et de mener à bien leurs projets innovants .
Les outils collaboratifs soutenant les processus d'innovation se focalisent peu sur la phase d'émergence des idées, préliminaire à la gestion de projets innovants et cruciale pour leur réussite ultérieure. Nous proposons donc IM-Station (Innovation Management Station), destinée à favoriser les échanges et à accélérer la prise de décision au cours de cette phase d'avant-projet. Il s'agit de rassembler les éléments pour décrire, suivre l'évolution, structurer et valider une idée. Cela repose sur un dialogue entre des acteurs aux compétences et points de vue différents, une prise en compte de toutes les contributions et une compréhension mutuelle par l'association de la terminologie propre à chaque auteur. Notre démarche permet aux acteurs d'un projet de faire évoluer collectivement le concept d'idée vers un projet innovant, avec rédaction des rapports nécessaires, gestion d'historique d'idée et capitalisation des savoir-faire.
sciencesInfo_04-0592834_tei_DN_081_0067.tei.xml
termith-369-communication
Parfois, les jeux peuvent en dire beaucoup sur le caractère des joueurs. Parexemple, un jour, le père d'un des auteurs de cet article remarqua qu'il aimaitjouer au golf avec ses partenaires commerciaux, non seulement pour se socialiseravec eux, mais surtout pour voir qui triche sur le parcours. Ceci implique, biensûr, que la façon dont quelqu'un se comporte pendant un parcours de golf est unreflet de sa personnalité et de son comportement en affaires. Par ailleurs, ilsemblerait que les joueurs n'ont même pas à être face-à-face pour évaluer lapersonnalité de leurs partenaires. Par exemple, dans le cas des jeux vidéo en ligne ,nous notons que les joueurs qui forment des relations sentimentales dans ces mondesvirtuels rapportent un phénomène semblable (Yee, 2005) : « Le jeu est la raison pour laquelle noussommes tombés amoureux. Passer à travers toutes ces aventures et ces quêtes ensemblea vraiment construit notre relation. Nous avons pu voir comment l'autre secomportait lorsqu'il était énervé, fatigué, triste, content… » [Joueuse de City ofVilains, 25 ans ]. Ceci conduit à penser que les jeux vidéo pourraient être une plate-forme intéressantepour observer l'intersection entre la personnalité des joueurs et le comportement enligne. Mais il convient de tempérer cet enthousiasme : ces jeux sont très souventfantaisistes (par exemple, inspirés par les œuvres de John R. Tolkien) et, parconséquent, ils pourraient également encourager des comportements très différents deceux de la vie quotidienne. Cette tension entre le potentiel des jeux vidéo commemiroir fidèle de la personnalité des joueurs et, à l'inverse, leur potentiel pourencourager des comportements inhabituels est à l'origine de deux questionsfondatrices du projet de recherche que nous allons décrire ici : 1. Est-il vrai que la personnalité d'un utilisateur peut être détectée à partir deson comportement dans un jeu vidéo ? 2. Si oui, quels indicateurs sont particulièrement révélateurs de traits depersonnalité spécifiques (comme par exemple l'introversion ou l'ouvertured'esprit) ? En dehors de l'intérêt purement académique de ces questions, ce domaine de recherchea également un potentiel pratique important. En effet, les chercheurs en interactionhomme-machine s'intéressent depuis longtemps à l'idée de personnaliser les systèmesinformatiques (Mackay, 1991; Riecken, 2000). En savoir plus sur la personnalité desutilisateurs pourrait aider à créer des systèmes plus adaptés à leurs besoins. Ilpourrait même être possible d'ajuster les propriétés d'un système au cours du temps ,au fur et à mesure que la personnalité de l'utilisateur se révèle par le biais desindicateurs comportementaux suivis par le logiciel. Nous utiliserons ici des donnéesobtenues au sein du très populaire jeu vidéo en ligne World ofWarcraft (w o w) afin derépondre aux deux questions précédentes, tout en rendant compte égalementd'importantes limitations suggérées par notre recherche. Les études en psychologie de la personnalité ont montré de façon répétée que deuxinconnus se rencontrant pour la première fois sont capables d'évaluer rapidementet relativement précisément la personnalité de l'autre. Crucialement, lesindicateurs (gestuels, verbaux. ..) utilisés par ces inconnus font l'objet d'unconsensus quasi universel – en d'autres termes, il semble que la personnalitésoit visible dans la vie de tous les jours à travers des indicateurs communs atous. Plusieurs travaux montrent que ceci est vrai même lors de rencontres trèsbrèves (Funder, Sneed, 1993; Kenny, Horner, Kashy, Chu, 1992). Par exemple, uneétude utilisant des conversations face-à-face enregistrées sur vidéo (Funder ,Sneed, 1993) montre que les individus extravertis parlent plus fort, avec plusd'enthousiasme et d'énergie, et également qu'ils sont plus expressifs avec leursgestes. D'autres études ont cherché à prédire la personnalité à travers l'examende la chambre ou du bureau d'un individu (Gosling, Ko, Mannarelli, Morris ,2002), ou même de sa collection musicale (Rentfrow, Gosling, 2006). Dans lesétudes de l'espace personnel, les individus consciencieux avaient des chambresbien éclairées, propres, et bien organisées. De même, les individus ayant unscore élevé pour l'ouverture d'esprit avaient plus de livres et de magazines. Cetype de recherche a également été étendu au domaine informatique. Enparticulier, des études ont montré qu'il est possible de former une impressionmodérément précise de la personnalité d'un individu sur la base de son site Web( Marcus, Machilek, Schutz, 2006; Vazire, Gosling, 2004), de son profil surFacebook (Back et al., 2010), du contenu de sa messagerie électronique (Gill ,Oberlander, Austin, 2006), de son blog (Yarkoni, sous presse), et mêmesimplement sur la base de son adresse électronique – un des indicateurs les plussimples du monde électronique (Back, Schukle, Egloff, 2008). Pour illustrer cesphénomènes, nous notons par exemple que le contenu linguistique des blogsappartenant à un individu classé comme agréable contient davantage de motspositifs (« content », « joyeux ». ..), plus de mots liés à la famille, et plusde phrases utilisant la première personne. Les individus consciencieux ont quantà eux tendance à utiliser plus de mots correspondant à la réussite personnelle .Ces études montrent que nous laissons des traces de notre personnalité aussibien dans le monde physique que dans le monde virtuel. Si l'on considère que, enmoyenne, les joueurs de jeux vidéo en ligne passent environ 20 heures parsemaine dans ces univers électroniques (Williams, Yee, Caplan, 2008; Yee ,2006), il n'est pas difficile d'imaginer qu'au moins quelques indicateurs deleur personnalité pourraient transparaître dans leurs comportements en lignequi, bien souvent, sont enregistrés (ou facilement enregistrables) par lesserveurs informatiques où ces mondes numériques résident. Par contraste avec la section précédente, il convient également de noterqu'il existe des raisons de penser que la personnalité ne s'exprime pasaussi clairement dans les mondes virtuels. Tout d'abord, les étudesci-dessus se sont largement concentrées sur l'expression de la personnalitédans un contexte quotidien, ordinaire. Celle -ci ne s'exprime peut-être pasde façon aussi claire dans un contexte fantastique, à travers des corps nonhumains, capables d'activités extraordinaires (par exemple, un prêtre gnomeressuscitant les morts avec des rayons de lumière magique). En relation avecce constat, certains chercheurs comme Sherry Turkle (1997) ont donc suggéréque les mondes virtuels, loin de refléter notre personnalité, permettent aujoueur de se réinventer constamment. Si l'on interprétait cette notion defaçon littérale, il s'ensuivrait qu'il existe une fracture nette entre lapersonnalité d'un joueur et ses comportements en ligne. En d'autres termes ,si les joueurs peuvent se réinventer à volonté dans les mondes virtuels, iln'existe probablement pas d'indicateurs consensuels de personnalité enligne. Quelques données laissent à penser que cela pourrait être le cas, enmontrant que les internautes changent en effet leurs comportements dans lesmondes virtuels. Ainsi des études montrent-elles que les « joueurs de rôle »( role-player) sont en général plus imaginatifs etcapables d'expérimenter avec leur personnage (Caroll, Carolin, 1989; Simon ,1987). D'autres études sur les sites de rencontre en ligne (Hancock, Toma ,Ellison, 2007) ainsi que les jeux vidéo (Bessiere, Seay, Kiesler, 2007 )montrent que les utilisateurs, dans les deux cas, idéalisent leurprésentation à des degrés variables. En particulier, certaines étudesindiquent que cette tendance à l'idéalisation en ligne est modérée parl'estime de soi – une mauvaise estime conduisant à davantage d'idéalisation( Ducheneaut, Wen, Yee, Wadley, 2009). Par conséquent, il est possible queces réinventions identitaires et leurs variations à travers les individussuppriment l'expression d'indicateurs de personnalités stables au sein desmondes virtuels. En général, les études sur l'expression de la personnalité sont en généralfondées sur des marqueurs linguistiques ou sur des traces comportementales .Ces traces sont souvent des manifestations physiques de comportement sur lelong terme : par exemple, un individu peu consciencieux pourrait oubliersouvent d'arroser ses plantes, et une plante desséchée dans une chambreserait une trace comportementale. Bien sûr, comme certains chercheurs lerecommandent (Mehl, Gosling, Pennebaker, 2006), il convient d'observer lescomportements « en action », c'est-à-dire lors de leur déroulement. Ceschercheurs proposent que l'observation d'individus en situations ordinaires– leur « train-train » (humdrum lives) – nous aide àcomprendre encore mieux le lien entre personnalité et comportement .Cependant, un problème majeur est que la collecte de données enenvironnement naturel, ainsi que la codification de ce contenu après lacollecte, sont des tâches longues et difficiles avec des outils de recherchetraditionnels (films, notes, enregistrements audio, photos. ..). Suivre unindividu de près et filmer ses comportements est une méthode laborieuse qui ,par conséquent, réduit énormément la taille des échantillons. Destechnologies récentes pallient quelque peu ces problèmes. Par exemple, dansleur étude du lien entre personnalité et langage au quotidien, leschercheurs mentionnés précédemment (Mehl et al., 2006) utilisèrent unenregistreur vocal automatique, programmé pour enregistrer l'environnementsonore d'un participant pendant 30 secondes toutes les 12 minutes. Unlogiciel fondé sur un dictionnaire fut ensuite utilisé pour produire desdonnées linguistiques quantitatives à partir de ces enregistrements. Les mondes virtuels offrent des avantages uniques pour l'étude du lien entrepersonnalité et comportement. Pour les besoins de cette contribution, nousdéfinissons les mondes virtuels comme des environnements numériques visuelsqui permettent à des individus séparés par la géographie d'interagir autravers de leurs avatars (c'est-à-dire leur corps numérique). Il estimportant de mentionner que ces mondes virtuels ont dépassé les prototypesacadémiques et niches culturelles de leurs origines : World of Warcraft comporte plus de 11 millions d'abonnés (White ,2009), et le jeu Farmville sur Facebook a plus de 80millions d'utilisateurs actifs. Les mondes virtuels disposent de troiscaractéristiques qui les rendent particulièrement appropriés pour lacollecte de données naturelles sur le comportement. D'abord, à l'inverse dumonde physique où il serait impossible de suivre tout le monde où que cesoit avec une camera vidéo, les mondes virtuels sont instrumentés parnature : les systèmes informatiques qui font fonctionner le monde virtueltraquent déjà le mouvement et le comportement de chaque avatar pourpermettre les interactions entre les joueurs (par exemple, pour orienter lesavatars de façon à ce qu'ils se regardent). Ensuite, ces « capteursvirtuels » fonctionnent en permanence : ceci permet la collecte nonseulement de « tranches d'activité » mais aussi d'échantillonslongitudinaux, qui peuvent révéler d'importantes tendances au cours du temps( Ducheneaut, Yee, Nickell, Moore, 2007). Finalement, ces observationsprennent place de façon transparente, sans impact visible sur lesutilisateurs – ce qui réduit grandement les effets d'observation (Webb ,Campbell, Schwartz, Sechrest, 1966) : les participants ne peuvent paschanger leur comportement devant la caméra quand la caméra est invisible .Tirant avantage de ces caractéristiques, une étude récente illustre le lienentre personnalité et comportements virtuels dans le monde de Second Life (Yee, Harris, Jabon, Bailenson, souspresse). Dans cette étude, 76 étudiants furent recrutés pour participer àSecond Life pendant 6 semaines tout en« portant » sur leur avatar un objet virtuel chargé avec un script decapture du comportement moteur et verbal de leur personnage. Les résultatscontiennent des corrélations intéressantes. Par exemple, être consciencieuxest positivement lié à la quantité de mouvement dans le monde virtuel .Toutefois, cette étude présente quelques limites. En premier lieu, il estdifficile de capturer des données vraiment naturelles lorsqu'on demande auxparticipants d'utiliser un monde virtuel dont ils ne sont pas forcément desutilisateurs réguliers. Observer des utilisateurs habituels auraitprobablement conduit à des résultats plus fiables. En deuxième lieu, lesdonnées ne furent collectées que dans un seul monde virtuel. Si l'onconsidère que la grande majorité de Second Life ressemble à une banlieue américaine (Au, 2010), il pourrait être utiled'obtenir des données d'environnements plus variés (e.g. le monde fantastique d'un jeu en ligne) pour voir si lesrésultats peuvent être généralisés. En troisième lieu, les participants àcette étude n'avaient à passer que 6 heures par semaine dans Second Life – et nous savons que les joueurs demondes comme World of Warcraft passent bien plus detemps (20 heures/semaine), sans contraintes extérieures, dans d'autresenvironnements (Yee, 2006). En d'autres termes, ces participants pourraientne pas être représentatifs. Finalement, un grand nombre de corrélationsprésentes dans cette étude sont insuffisamment alignées avec les définitionsde chaque trait de personnalité – e.g. lescomportements virtuels corrélés à une personnalité agréable ne semblent pasrefléter la définition de ce trait dans la littérature. De ce fait, unereprise de cette étude (ou une étude du même genre) dans un monde virtueldifférent et avec des utilisateurs habituels pourrait clarifier si lesrésultats sont un artéfact de la nature de SecondLife ou bien s'ils reflètent comment les utilisateurs se comportenten ligne en général. Ici, nous nous concentrons sur deux questions. Alors que les étudesprécédentes ont examiné la personnalité dans la vie quotidienne, nousdéterminons plutôt si et comment la personnalité est exprimée dans les jeuxvidéo en ligne. Pour clarifier et étendre les résultats sur la présenced'indicateurs de personnalité dans les mondes virtuels que nous mentionnionsplus haut, nous utilisons un échantillon de joueurs actifs et représentatifsau sein du jeu World of Warcraft. Notre premièrequestion est la suivante : Q1. Quels sont les indicateurs de personnalitéexistants dans un jeu vidéo en ligne ? Si la personnalité se manifeste bienà travers des indicateurs stables dans les mondes virtuels, une questionpertinente est alors de savoir si ces mêmes indicateurs peuvent êtreutilisés pour prédire la personnalité des utilisateurs. Par conséquent ,notre deuxième question est la suivante : Q2. Comment et combien est-ilpossible de prédire la personnalité d'un utilisateur sur la seule base deses comportements en ligne ? Puisque nos données proviennent de World of Warcraft, ilconvient de décrire quelques aspects importants de ce jeu vidéo « massivementmulti-joueurs » en ligne. Ce contexte est important pour permettre au lecteurd'interpréter les variables que nous utilisons pour détecter et prédire lapersonnalité. Actuellement, World of Warcraft est l'un des jeuxvidéo en ligne les plus populaires (White, 2009). Par contraste avec Second Life (sl), où lesutilisateurs créent la majorité du contenu visible dans le monde virtuel( incluant bâtiments, vêtements, et mêmes cheveux et corps des avatars), lecontenu dans w o w est créépresque entièrement par la compagnie Blizzard Entertainment. À l'inverse del'aspect « bac a sable ouvert » (open sandbox) de sl, w o w est fondé sur uneformule classique de progression par niveaux : les joueurs commencent auniveau 1 et accomplissent des « quêtes » (consistant le plus souvent àéliminer différents monstres) pour progresser aux niveaux suivants et gagnerainsi un meilleur équipement (armure, épée. ..) et de compétences pluspuissantes (sortilèges, mouvements spécialisés pour le combat rapproché ,etc.). Au fur et à mesure de leur progression, les joueurs sont encouragés àcollaborer : les quêtes de haut niveau sont bien souvent trop difficilespour un joueur solitaire et la seule façon d'accéder au meilleur butin( équipement « épique ») est de former un groupe, temporaire ou bien même àlong terme (une « guilde ») pour triompher des « boss » dans les donjons lesplus avancés. La complémentarité des « classes de personnages » encourageégalement les joueurs à unir leurs forces. Par exemple, les joueurschoisissant un personnage de type « tank » peuvent protéger leur groupe enabsorbant les dommages produits par les attaques des monstres, tandis queles spécialistes des dégâts (« dps » : dommage par seconde) endommagent lesmonstres à distance, le tout sous la protection des « soigneurs » quirégénèrent l'énergie physique et magique perdue au combat .Pour simplifier, w o w estun environnement virtuel collaboratif (Nardi, Harris, 2006); il s'inspired'une mythologie déjà présente dans d'autres produits de la franchise Warcraft, qui existe chez Blizzard Entertainmentdepuis de nombreuses années. De façon succincte, les joueurs choisissentd'appartenir à une des deux factions principales : l'Alliance ou la Horde .Chaque faction comporte cinq races distinctes, par exemple les elfes de lanuit ou les trolls. Un ensemble de règles dicte où et comment les joueurspeuvent s'affronter, créant une distinction entre les activités dites « JcJ »( joueur-contre-joueur) où le but est de tuer d'autres joueurs ,et celles dites « JcE » (joueur-contre-environnement) où le but est de tuerdes montres contrôlés par l'ordinateur. Les activités JcJ peuvent aller dusimple duel à des batailles rangées de 40 joueurs (les « champs debataille »). En général, chaque joueur est libre de décider s'il veutparticiper au JcJ et si oui, quelle proportion de son temps de jeu seraconsacrée à ces activités. Les joueurs communiquent à travers des messagestapés au clavier, mais peuvent aussi utiliser des outils VoIP (voice over IP) pour se parler directement par audio .Le jeu offre également un ensemble d'émotions (« emotes ») qui peuvent être exprimées par l'avatar d'un joueurgrâce a une simple commande (e.g. « serrer [nom dupersonnage] » qui produit a l'écran le message : « vous serrez [nom dupersonnage] dans vos bras »). En dehors des quêtes, les joueurs peuventégalement se spécialiser dans une ou plusieurs professions et transformerdes matières premières ramassées dans le monde virtuel en armure ,nourriture, vêtements. .. w o w propose également un vaste système de « hauts faits » prenant encompte les accomplissements des joueurs, aussi bien en matière de combat quedans d'autres domaines plus pacifiques. Par exemple, il y a des hauts faitspour le nombre de zones du jeu explorées, pour le nombre de câlins avecd'autres joueurs, et pour avoir cuisiné de nombreux plats virtuels. Cesaccomplissements donnent une bonne impression de la façon dont un joueurchoisit de passer son temps en ligne. Ce bref aperçu montre comment cet univers virtuel est riche en indicateurscomportementaux. Que ce soit le choix d'une classe de personnage, le tempspassé en JcJ, le nombre d ' emotes utilisées, ou bienla proportion du monde explorée par le joueur, l'environnement ludique dew o w offre une grandeétendue de variables reflétant le comportement des joueurs – et cesvariables sont toutes collectées automatiquement dans les bases de donnéesde Blizzard Entertainment. Il convient aussi de noter une différenceimportante avec les mondes virtuels plus « ouverts » comme sl. Dans un environnement ouvert, la plupart descomportements virtuels ne sont pas clairement définis et catégorisés – lesjoueurs sont libres d'inventer un nombre d'activités pratiquement infini. Àl'inverse, w o w propose unlexique bien défini d'activités groupées par catégories (JcJ, exploration ,professions. ..), ce qui permet une comparaison entre joueurs sur la based'indicateurs stables et cohérents. Ce lexique comportemental standardisé et le format des données sous-jacentesse prêtent naturellement à la collecte automatisée de données. BlizzardEntertainment rend ce processus particulièrement facile puisque la compagniea décidé d'offrir un accès public à ses données internes sur un site Web ,Battle.net. En général, il suffit d'y chercher le nom du personnage d'unjoueur pour trouver des informations détaillées sur ses activités en ligne ,comprenant par exemple tous ses hauts faits dans des catégories commeexploration, quêtes, donjons, professions, etc. ou bien les statistiquesliées à son équipement ou ses spécialisations de combat. De plus, toutes cesvariables sont mises à jour quotidiennement si le personnage a été en ligneau moins une fois la veille. Ceci veut dire que, grâce à une simple pageWeb, un visiteur de Battle.net peut accumuler des données sur les activitésd'un joueur pendant plusieurs mois sans difficulté. Il convient d'insistersur l'énorme potentiel pour la recherche en sciences sociales de ce genre debases de données publiques, qui offre un large éventail de variablescomportementales sur le long terme. Les résultats présentés dans cet articlesont entièrement basés sur les données disponibles sur Battle.net. Nous avons recruté 1 040 joueurs de w o w pour l'étude présentée dans cet article. Pour cefaire nous avons utilisé des forums en ligne dédiés a w o w, de la publicité sur des sites dejeux vidéo (par exemple, wowinsider.com), le bouche à oreille sur des mediassociaux comme Twitter, et finalement une liste de contacts email amassés aucours d'études précédentes. Il faut noter qu'étant données les régulationsen vigueur pour la protection des mineurs aux États-Unis, tous nosparticipants ont 18 ans révolus. Malgré cette limitation, nos participantscouvrent des âges variés allant de 18 à 65 ans, avec un âge moyen de 27.03( écart-type = 8.21). 26 % de nos participants sont des femmes. La collecte de données comprend les étapes suivantes. D'abord, lesparticipants complètent un questionnaire en ligne, de façon à établir à lafois leur profil socio-démographique et leur personnalité. Les participantsdoivent également lister jusqu' à 6 personnages de w o w qu'ils jouaient activement au moment denotre étude. Sur la base de cette liste, un système de collecte de donnéesautomatisé prend le relai. Un logiciel conçu par les auteurs se connecte àBattle.net une fois par jour et télécharge le profil complet de chaquepersonnage pour chaque participant dans une base de données interne à parc, qui accumule donc progressivement unhistorique des activités de chaque joueur. Les résultats présentés dans cetarticle sont sur la base d'un échantillon continu collecté pendant 4 moisdurant le printemps et l'été 2010. À ce jour, l'inventaire des cinq grands facteurs (Big FivePersonnality Inventory) est le standard pour l'étude de lapersonnalité en psychologie. Ce modèle mesure cinq traits depersonnalité : l'extraversion, l'agréabilité́, la conscience, la stabilitéémotionnelle et l'ouverture. Nous utilisons une série de 20 questions tiréesde l ' International Personality Item Pool (Goldberg ,1999) pour établir le profil de chaque participant. Les questions adoptentla forme suivante : « Je me vois comme quelqu'un qui est plutôt… » suivid'un qualificatif comme « original, qui a souvent des idées », « réservé » ,ou bien « désorganisé ». Pour chaque question, les participants mesurenteux -mêmes leur accord en utilisant une échelle à cinq points allant de 1( complètement faux) à 5 (complètement vrai). La richesse de Battle.net peut être à double tranchant. Chaque profil depersonnage contient approximativement 3 500 variables, souvent organiséeshiérarchiquement. Ainsi, pour les hauts faits, trouve -t-on des catégories dehaut niveau comme « Voyages » et « Donjons ». Sous la catégorie « Voyages » ,chaque zone du jeu visitée comprend un haut fait séparé. Pour éviter d' êtreinondé par des variables de bas niveau, nous avons décidé d'utiliser autantque possible des variables agrégées (préexistantes, comme les catégoriesci-dessus, ou de notre propre création). Notre but est d'utiliser un groupede variables plus compact qui, intuitivement, devrait correspondre à desconcepts psychologiques utiles. La notion du goût de l'exploration estprobablement mieux reflétée par le nombre total de zones visitées que par laliste exacte de chaque zone visitée ou non. Une autre difficulté est liée aufait que les joueurs ont souvent plusieurs personnages actifs en même temps ,et que la manière dont les activités de ces personnages doivent êtrecumulées pour refléter le parcours de leur propriétaire n'est pasimmédiatement claire. Ainsi un personnage de niveau 80 peut-il faire bienplus de dommages qu'un personnage de niveau 60, et la fonctioncorrespondante est non linéaire. De ce fait, il n'est pas possible d'ajouterarbitrairement la somme des dommages causés par chaque personnage pourrefléter l'ensemble des dommages d'un joueur : il faut trouver à la placeune stratégie de normalisation. Par conséquent, nous avons transformé ungrand nombre de variables sur la base d'une des stratégies ci-dessous : 1. Les attributs statiques sont simplement normalisés par le nombre depersonnages d'un joueur. Par exemple, « proportion de personnages masculins» = nombre de personnages masculins/nombre total de personnages; 2. Les attributs changeants sont normalisés par le temps de jeu. Par exemple ,pour évaluer les rôles joués par un participant, nous calculons le temps dejeu passé avec un personnage tank/spécialiste des dégâts/soigneur, et nouscalculons ensuite un simple ratio du temps dans chaque rôle sur le temps dejeu total. Un ratio « tank » de 0.24 veux donc dire qu' à travers tous lespersonnages d'un joueur, celui -ci a passé 24 % de son temps de jeu totalcomme « tank »; 3. Certains attributs peuvent être normalisés par d'autres attributs. Parexemple, le score obtenu par un joueur dans la catégorie de hauts faits« Voyages » peut simplement être divisé par le score de la catégorie « Totaldes Hauts Faits » pour créer un « ratio d'exploration ». Ceci filtre lesdifférences entre joueurs qui ont peu ou beaucoup de hauts faits et reflèteà la place leur style : comment chacun décide d'allouer son temps entredifférentes activités; 4. D'autres attributs ne peuvent pas être normalisés et dépendent surtout duniveau d'un joueur. Dans ce cas, nous utilisons simplement le maximum pourl'ensemble des personnages d'un joueur. Par exemple, avoir un seulpersonnage avec 80 mascottes est très différent d'avoir quatre personnagesavec 20 mascottes chacun. En cette circonstance, nous utilisons donc lemaximum par personnage, en l'occurrence 80 pour le premier joueur maisseulement 20 pour le second; 5. Pour les attributs qui ne peuvent pas être normalisés et ne dépendent pasdu niveau d'un personnage, nous calculons simplement une somme. Par exemple ,n'importe quel personnage peut utiliser la commande « serrer » autant defois qu'il le souhaite. Dans ces cas, nous additionnons simplement le nombrede câlins donnés par tous les personnages d'un joueur. Il est important de préciser que nous ne prétendons pas avoir extrait toutesles variables possibles de Battle.net pour cette contribution : nous avonsconsciemment décidé d'extraire seulement celles qui couvrent un grandéventail de comportements dans w o w et ont, a priori, le plusde potentiel pour révéler la personnalité. Nous présentons une brèvedescription de chaque variable dans la Table 1 (voir infra), accompagnée de sa valeur moyenne dans nos données et del'écart-type correspondant. Nous notons que nous avons exclu les valeursaberrantes (dépassant deux écarts-types de la moyenne) pour atteindre cesrésultats. Par souci de clarté nous décrivons simplement les tendances dehaut niveau dans le texte, renvoyant le lecteur vers la Table 1 pour lesdétails statistiques correspondants. Pour analyser l'expression de la personnalité dans les jeux vidéo, nous examinonsles corrélations entre des comportements virtuels et les cinq facteurs depersonnalité mentionnés précédemment. Comme nos tables de corrélation sont assezgrandes (46 variables potentiellement liées à 5 facteurs), il pourrait y avoirun risque accru d'erreur d'évaluation des résultats expérimentaux. Nousutilisons donc une méthode d'analyse développée par Ryne A. Sherman et David C .Funder (2009) pour éliminer ce problème. Cette méthode est fondée sur unesimulation Monte-Carlo avec répartition de données aléatoire et répétée pourchaque participant, ce qui préserve les propriétés statistiques del'échantillon. La méthode produit 1 000 versions de ces répartitions aléatoireset cumule le nombre de corrélations significatives observées (avec un alpha de0.05). Ensuite, la probabilité du nombre réel de corrélations significatives estcalculée sur la base de la distribution de ces 1 000 répétitions. En d'autrestermes, cette technique permet d'évaluer si les données contiennent plus decorrélations significatives qu'on pourrait en obtenir simplement par chance .Dans notre cas, sur la base d'un alpha de 0.05, nous obtenons 83 corrélationssignificatives alors que la chance ne permettrait d'en obtenir que 11.50, selonla simulation Monte-Carlo. Ceci correspond à une probabilité d'obtenir cescorrélations par chance de seulement p<0.001, ce qui offre une certainegarantie. Dans l'ensemble, les résultats sont donc bien réels et non un accidentde parcours. Nous allons maintenant décrire chacun des cinq facteurs depersonnalité et les comportements virtuels qui leur correspondent. Plutôt que deprésenter chaque corrélation une à une, nous essayerons de peindre une vued'ensemble en présentant des groupes de variables intéressants. Selon la définition officielle de ce trait de personnalité, les individusayant un score élevé en Extraversion sont généralement expansifs, grégaires ,et énergiques, alors que les individus ayant un score bas sont plusréservés, timides et silencieux. En termes d'indicateurs comportementauxdans w o w, les individusayant une forte extraversion ont tendance à préférer les activités degroupe. Ils ont un ratio de hauts faits en donjons plus élevé (26), ce quirequiert de collaborer avec d'autres joueurs. Ils ont également complété unplus grand nombre de donjons de haut niveau demandant 25 joueurs (33). Leurnombre plus élevé de changements de guilde implique également une certainepromiscuité sociale. D'un autre coté, les joueurs ayant une faibleextraversion semblent préférer les activités solitaires, comme les quêtesindividuelles (23), la cuisine (30) et la pêche (33). Ils tendent égalementà posséder plus de mascottes, qui sont des animaux de compagnie silencieux .Nous pouvons aussi constater que les joueurs introvertis préfèrent lesactivités JcJ et les gagnent plus souvent (36, 37, 38 et 40), mais laconnexion avec ce trait de personnalité est moins évidente. Ceci est vraiégalement pour leur propension à créer des personnages du sexe opposé( 2). La définition de ce trait informe que les individus qui ont un score élevé enagréabilité tendent à être amicaux, soucieux des autres et coopératifs ,alors que ceux avec un score plus faible tendent à être suspicieux ,antagonistes et compétitifs. Dans w o w, les individus agréables utilisent plusd'émotions positives (13, 15, 16), comme les câlins et les applaudissements ,et ils préfèrent également les activités non violentes comme l'exploration( 24), les professions (27), les événements mondiaux (29), la cuisine (30) etla pêche (31). À l'inverse, les joueurs peu agréables préfèrent les aspectsplus compétitifs et antagonistes du jeu. Ils aiment tuer d'autres joueurs( 8, 9). Ils meurent aussi plus souvent (10), se concentrent surl'acquisition de meilleur équipement (20) et participent à plus d'activitésJcJ (25), incluant les champs de bataille (35), arènes (36), et duels (37) .Leur compétitivité se voit également dans leurs ratios plus élevés devictoires en arènes (38) et champs de bataille (39). La corrélation négativeentre agréabilité et le ratio de jets de dés pour le « besoin » est aussirévélatrice. Le butin le plus intéressant généré par les monstres estattribué aux joueurs d'un groupe sur la base d'un jet de dés virtuels. Lesjoueurs choisissent de jeter les dés pour le « besoin » ou la « cupidité » ,le premier étant prioritaire sur le second. Nous pouvons voir que lesjoueurs peu agréables insistent souvent pour avoir la priorité enchoisissant avant tout l'option « besoin ». Bien que ce soit toléré dansquelques cas, abuser de l'option « besoin » est souvent vu par les autrescomme impoli, voire antisocial (il existe même une épithète à connotationnégative pour ce type de comportement : un « Ninja »). La définition de ce trait propose que les individus consciencieux sontorganisés, autodisciplinés, et qu'ils ont le sens du devoir, alors que ceuxqui ont un score plus faible sont négligents, spontanés et faciles à vivre .Dans le jeu, les individus à forte conscience semblent apprécier la collectedisciplinée d'objets dans un contexte non combatif. Ceci est visible àtravers leur grand nombre de mascottes (18) qui doivent être collectionnéesune à une, et par leurs scores élevés en cuisine (30) et pêche (31), quinécessitent également une certaine autodiscipline pour collectionner toutesles recettes nécessaires et visiter des sites de pêche privilégiés (sanscompter la patience nécessaire pour ensuite rester sur place pendant delongues minutes, puisque la pêche dans le jeu est remarquablement proche deson équivalent réel : les prises peuvent être rares). La même logiques'applique aux évènements mondiaux (29) qui demandent souvent la collecte dedifférents objets et la visite de certains emplacements dans le mondevirtuel. Par comparaison, les individus peu consciencieux semblent êtrenégligents et tendent à mourir plus souvent du fait d'une simple chute( 12). Selon la définition officielle, les individus ayant une haute stabilitéémotionnelle sont calmes, sûrs d'eux et confiants, alors que ceux avec unscore plus faible sont nerveux, sensibles et vulnérables. Bien que quelquescorrélations existent entre les indicateurs comportementaux du jeu et cetrait de personnalité, les résultats sont plus difficiles à interpréter dansl'ensemble. Les individus avec une faible stabilité émotionnelle préfèrentles activités JcJ, ce qui inclut davantage de hauts faits dans ce domaine( 25) et plus de victoires en arènes (38). Les individus plus stables tendentà jouer plus de personnages du sexe opposé (2). Il est intéressant de noterque plusieurs études précédentes (en dehors des jeux) ont rencontré desdifficultés similaires à trouver des indicateurs fiables et parlants pour lastabilité émotionnelle (Gosling et al., 2002; Mairesse, Walker, 2006) : nosrésultats reflètent peut-être simplement une expression comportementalegénéralement plus faible de ce trait. Les individus ouverts sont imaginatifs, curieux et capables d'abstraction ,tandis que ceux avec un score plus faible sont plus terre-à-terre ,conventionnels et respectueux des traditions. Dans w o w, nous pouvons clairement détecter ungroupe de variables comportementales reflétant l'exploration et lacuriosité. Par exemple, les joueurs ouverts ont plus de personnages (3). Ilsjouent également sur plus de royaumes différents (5), c'est-à-dire surd'autres serveurs de jeu – des mondes parallèles séparant les joueurs engroupes d'environ 20 000, afin de rendre l'infrastructure informatique plusfacile a gérer pour Blizzard (ce qui crée donc desmondes homogènes en terme de contenu ludique, mais variés sur le plansocial). Les joueurs ouverts passent également plus de leur temps en ligne àexplorer le monde – ce qui se voit à travers leurs hauts faits de voyage( 24). Ils participent aussi à plus d'activités non combattives, comme lesprofessions (27) et les événements mondiaux (29). Par contraste, lesindividus moins ouverts préfèrent les aspects plus traditionnels des jeux enligne, tels que le combat. Ainsi passent-ils plus de leur temps dans lesdonjons et les raids (26, 32 et 33). Puisque nous venons de voir que de nombreuses variables semblent êtrenaturellement associées à certains traits de personnalité, il devientintéressant d'explorer si des modèles prédictifs de la personnalité desjoueurs peuvent être établis sur la base de ces mêmes données. Pour cefaire, nous avons donc conduit une série de régressions multiples sur chacundes cinq facteurs de personnalité, en utilisant les dix indicateurscomportementaux les plus élevés comme variables indépendantes pourchacun. Les résultats sont présentés dans la Table 2. Toutes les régressionssont significatives avec p<0.05. Quatre d'entres elles sont mêmessignificatives au seuil de p<0.001. Ceci suggère que des indicateurscomportementaux numériques peuvent être utilisés pour créer des modèlesstatistiquement valides de la personnalité des joueurs. Selon Jacob Cohen( 1988), un R de .30 est un effet de taille moyenne, tandis qu'un R de .10est un petit effet. Les résultats montrent donc que les modèles révèlent deseffets de taille moyenne. La facilité d'accès à des indicateurs comportementaux précis et variés surBattle.net a permis d'amasser progressivement le profil comportemental denombreux joueurs de w o w. Parcontraste avec les études précédentes qui ont surtout examiné le lien entrelinguistique et personnalité en ligne (sur les blogs ou à travers les emails) ,notre projet est le premier à examiner le lien entre la personnalité et lescomportements virtuels dans un jeu vidéo. Les résultats montrent que lapersonnalité s'exprime en ligne à travers des indicateurs stables qui reflètentla plupart du temps les définitions classiques des cinq facteurs dominants enpsychologie. Par exemple, les joueurs extravertis préfèrent les activités degroupe, ou bien ceux ayant un score élevé en agréabilité utilisent plusd'émotions positives et préfèrent les activités pacifiques. De plus, nosrégressions multiples montrent que ces mêmes indicateurs comportementaux peuventêtre utilisés pour prédire la personnalité des joueurs. Au global, ces résultatssuggèrent que même si les utilisateurs de mondes virtuels expérimentent avecleur personnalité en ligne, les traits dominants de leur caractère continuent àtransparaitre de façon stable et visible. Le peu d'études disponibles à ce joursur l'expression de la personnalité dans d'autres mondes virtuels comme SLn'avait pas vraiment révélé des comportements numériques bien alignés avec lesdéfinitions classiques. Par contraste, w o w offre un environnement mieux « balisé » avec desactivités qui forment naturellement des pôles d'attraction cohérents pour lesjoueurs selon leur orientation personnelle : conceptuellement, les activitésoffertes par w o w se prêtentdonc mieux à l'étude de la personnalité qu'un monde totalement ouvert comme sl. Au lieu d'indicateurs de bas niveau (distanceparcourue, proportion du temps passée assise, etc.) qui sont les seulsdisponibles dans un monde comme sl, les indicateurscomportementaux de w o w sontbien plus expressifs (par exemple, le nombre de câlins ou le nombre de duels) .Nos résultats montrent donc que la nature de l'environnement numérique et letype d'activités qu'il propose affectent grandement la possibilité d'étudierprécisément la personnalité en ligne. La liste précise d'indicateurscomportementaux identifiés dans w o w est potentiellement importante pour plusieurs raisons. D'abord, ellepeut aider de futurs chercheurs à trier rapidement parmi les nombreuxindicateurs numériques disponibles dans un monde virtuel pour se concentrer surceux qui auront, a priori, le plus de pouvoir prédictif. De plus, la même listepourrait être utile aux psychologues curieux de savoir pourquoi certains traitsde personnalité sont plus visibles en ligne que d'autres. Et finalement ,observer les mêmes indicateurs dans d'autres mondes virtuels pourrait nous fairecomprendre si la personnalité peut être prédite de la même façon ou si w o w est simplement un casisolé. La personnalisation des interfaces et des systèmes est un sujet d'intérêtpour les chercheurs en interaction homme-machine depuis de nombreuses années( Mackay, 1991; Riecken, 2000). Il est raisonnable de supposer que lesbesoins des utilisateurs changent en fonction de leur personnalité – e.g. un utilisateur extraverti visitant un site decommerce en ligne pourrait être plus intéressé par les commentaires desautres visiteurs que par la fiche de description du produit, tandis qu'unintroverti pourrait préférer lire directement la notice technique. Notreétude montre qu'il est possible de détecter la personnalité sur la based'indicateurs numériques (qui ne doivent pas nécessairement provenir d'unjeu vidéo) et d'adapter la présentation de l'information en fonction – pourreprendre le même exemple, un utilisateur profilé comme extraverti verraitles commentaires en haut de la page, tandis qu'un utilisateur introvertiverrait d'abord les données techniques. Une autre possibilité directementapplicable dans les jeux vidéo mais aussi dans d'autres environnementsélectroniques collaboratifs pourrait être d'utiliser la personnalité préditecomme base pour former des groupes, peut-être en recommandant despartenaires compatibles en fonction de la tâche à accomplir. Par exemple ,les groupes ayant besoin d'une grande diversité d'opinions pourraientbénéficier de l'inclusion d'une grande étendue de personnalités différentes( Harper et al., 2007). Dans d'autres contextes, un groupe plus homogènepourrait être plus bénéfique. Il est important de noter que nous neproposons pas un système qui exclurait automatiquement les joueurs parce queleur score d'agréabilité est faible : après tout, la nature compétitive deces joueurs est un atout certain pour le JcJ, et un comportement assertifest important pour le leader d'un raid. Dans un domaine similaire, ilpourrait aussi être possible d'utiliser la personnalité prédite pour lessystèmes de recommandation (comme sur Amazon.com, par exemple) : lesrecommandations d'utilisateurs avec une personnalité compatible seraientdonnées un poids plus ou moins important, en fonction du souhait del'utilisateur de voir des opinions plus ou moins homogènes (McNee, Riedl ,Konstan, 2006). Il est important de mentionner quelques limites de notre étude. Nous avonscollecté des données dans un seul jeu vidéo en ligne et il n'est donc pasgaranti que nos résultats puissent être reproduits dans d'autres jeux –particulièrement s'ils ne sont pas basés sur le même environnement de type« donjons et dragons ». Cependant, nos résultats indiquent les catégoriesd'indicateurs à prendre en compte. Par exemple, les émotions (pourl'agréabilité) ou le mouvement à travers les zones du jeu (pour l'ouverture )sont des concepts souvent présents dans de nombreux types de jeux en ligne .Une autre limite potentielle à la généralisation des résultats est due aufait que les utilisateurs de w o w sont extrêmement actifs, passant en moyenne plusieurs mois (àraison de 20 heures par semaine) dans leur monde virtuel favori. Bien quecela génère un riche profile comportemental que nous avons pu exploiter, cetusage serait atypique dans d'autres milieux comme un site Web ou une autrecommunauté en ligne. Une question intéressante pour de futurs projets seraitdonc d'explorer si ces milieux à usage plus sporadique permettent égalementla prédiction de la personnalité. En troisième lieu, il pourrait sembler quenos coefficients de corrélation sont assez bas (allant de 06 à 17). Mais, ilfaut noter qu'une autre étude à grande échelle (plus de 500 participants) ,cette fois du langage des bloggeurs, a produit également des résultats dumême ordre de grandeur (Yarkoni, sous presse). Si l'on prend en compte lagrande variance démographique (l' âge de nos participants va de 18 à 65 ans )et les imperfections inévitables d'un échantillon collecté dans unenvironnement naturel et non dans un laboratoire, la taille des coefficientsdevient plus relative. Pour finir, notons que les variables sont entièrementdictées par ce que Blizzard Entertainment a bien voulu rendre public surBattle.net. Il est possible que d'autres variables privées, comme parexemple le texte échangé par les joueurs pendant leurs conversations ,puissent être encore plus prédictives de la personnalité. Au vu desnombreuses études reliant le langage et la personnalité en ligne (Mehl ,Pennebaker, 2003; Yarkoni, ibid.), il serait intéressant de comparerdirectement le pouvoir prédictif des indicateurs comportementaux etlangagiers. Les jeux vidéo en ligne massivement multi-joueurs sont une nouvelle plate-formepour la recherche en sciences sociales qui présente de nombreux avantages etquelques difficultés. La collecte automatisée de données à grande échelle quiest possible dans un jeu comme w o w (notre échantillon contient plus de 1 000 joueurs et 3 500 variablescollectées sur 4 mois, par exemple) serait tout simplement impossible àreproduire en utilisant des outils de recherche plus traditionnels. Il est fortpossible que les techniques présentées puissent être utilisées pour l'analysed'autres phénomènes sociaux importants, comme par exemple la dynamique desgroupes, la sociabilité ou les échanges économiques. Cependant les jeux vidéo enligne sont aussi problématiques. La possibilité de créer un système automatiséqui suit et observe silencieusement un utilisateur à n'importe quel endroit etn'importe quel moment rappelle le panoptique de Michel Foucault (1975) et posela question de la protection de la vie privée en ligne. Cette étude estentièrement fondée sur les comportements de volontaires, qui avaient à lire etapprouver une description détaillée du protocole expérimental avant de s'engager– mais il faut noter qu'aux États-Unis, l'observation de comportements dans unespace public pseudo-anonyme comme w o w est largement exempte de contraintesinstitutionnelles (comme l'approbation d'un comité d'éthique, par exemple). Leproblème est que les jeux comme w o w ne ressemblent pas vraiment aux espaces publiques du mondephysique : ces derniers n'ont pas de cameras et micros omniprésents capables desuivre chaque passant en détail. Le problème devient encore plus compliquélorsque la compagnie en charge d'un jeu vidéo décide de rendre publiques ce quiaurait autrement été des données privées : avant Battle.net, il étaitraisonnable pour un joueur de compter sur l'isolement de ses activités en lignemais il est dorénavant clair que ce n'est pas le cas. En tant que chercheurs, ilconvient de garder cette dualité à l'esprit et de réfléchir prudemment avant dedéployer les nouveaux outils extrêmement puissants que nous offrent les mondesvirtuels. Pour conclure, il est facile de croire que les mondes virtuels sont, a priori, un échappatoire extraordinaire, un portailvers une nouvelle identité fantastique qui laisse chacun être qui il souhaite .Mais, bien au contraire, nos résultats montrent que notre personnalité persistelorsque nous enfilons notre corps virtuel : les jeux vidéo en ligne sont en faitun miroir de la personnalité de leurs utilisateurs. Guerrier ou mage, elfe ounain, il semble que nos comportements reflètent bien notre caractère quel quesoit le médium utilisé. Au W., 2010, « Linden suburban home owners more likely totreat their place as extension of real life self, acadmic suggests », NewWorld Notes. Accès : -study.html Back M., Schukle S., Egloff B., 2008, « How extraverted [email protected] ? Inferring personality from e-mail addresses » ,Journal of Research in Personality, 42, pp. 1116-1122. Back M., Stopfer J., Vazire S., Gaddis S., Schmukle S., EgloffB., Gosling S., 2010, « Facebook profiles reflect actual personality notself-idealization », Psychological Science, 21, pp. 372-374. Bessiere K., Seay A. F., Kiesler S., 2007, « The Ideal Elf :Identity Exploration in World of Warcraft », Cyberpsychology & Behavior ,10(4), pp. 530-535. Caroll J., Carolin P., 1989, « Relationship between gameplaying and personality », Psychological Reports, 64, pp. 705-706. Cohen J., 1988, Statistical power analysis for the behavioralsciences (2nd ed.), Hillsdalle NJ, Lawrence Erlbaum Associates. Ducheneaut N., Wen M.-H., Ye, N., Wadley G., 2009, « Body andmind : a study of avatar personalization in three virtual worlds » ,Proceedings of CHI 2009, pp. 1151-1160. Ducheneaut N., Yee N., Nickell E., Moore R. J., 2007, « Thelife and death of online gaming communities : a look at guilds in World ofWarcraft », Proceedings of CHI 2007, pp. 839-848. Foucault M., 1975, Surveiller et punir, Paris, Gallimard. Funder D., Sneed C., 1993, « Behavioral manifestations ofpersonality : an ecological approach to judgmental accuracy », Journal ofPersonality and Social Psychology, 64, pp. 479-490. Gill A., Oberlander J., Austin E., 2006, « Rating e-mailpersonality at zero acquaintance », Personality and Individual Differences ,40, pp. 497-507. Goldberg L., 1999, « A broad-bandwidth, public domain ,personality inventory measuring the lower-level facets of severalfive-factor models », pp. 7-28, in : Mervielde I., Deary F., De Fruyt F. ,Ostendorf, eds, Personality psychology in Europe, Tilburg, The Netherlands ,Tiburg University Press. Gosling S., Ko S., Mannarelli T., Morris M., 2002, « A roomwith a cue : judgment of personality based on offices and bedrooms » ,Journal of Personality and Social Psychology, 82, pp. 379-398. Hancock J. T., Toma C., Ellison N., 2007, « The truth aboutlying in online dating profiles », Proceedings of CHI 2007, pp .449-452. Harper F., Frankowski D., Drenner S., Ren Y. Q., Kiesler S. ,Terveen L., Kraut R. et al., 2007, « Talk amongst yourselves : invitingusers to participate in online conversations », Proceedings of IUI 2007, pp .62-71. Kenny D., Horner C., Kashy D., Chu L., 1992, « Consensus atzero acquaintance : replication, behavioral cues, and stability », Journalof Personality and Social Psychology, 62, pp. 88-97. Mackay W. E., 1991, « Triggers and barriers to customizingsoftware », Proceedings of SIGCHI 1991, pp. 153-160. Mairesse F., Walker M., 2006, « Automatic recognition ofpersonality in conversation », Proceedings of the human language technologyconference, pp. 85-88. Marcus B., Machilek F., Schutz A., 2006, « Personality inCyberspace : personal web sites as media for personality expression andimpressions », Journal of Personality and Social Psychology, 90, pp .1014-1031. McNee S., Riedl J., Konstan J., 2006, « Making recommendationsbetter : an analytic model for human-recommender interaction », Proceedingsof CHI 2006, pp. 1103-1108. Mehl M., Pennebaker J., 2003, « The sounds of social life : apsychometric analysis of students ' daily social environment and naturalconversations », Journal of Personality and Social Psychology, 84, pp .857-870. Mehl M., Gosling S., Pennebaker J., 2006, « Personality in itsnatural habitat : manifestations and implicit folk theories of personalityin daily life », Journal of Personality and Social Psychology, 90, pp .862-877. Nardi B., Harris J., 2006, « Strangers and Friends :" Collaborative Play in World of Warcraft " », Proceedings of CSCW 2006, pp .149-158. Plaisant O., Srivastava S., Debray Q., John O. P., 2005, « Relations entre le BigFive Inventory français et le manuel diagnostique des troubles mentaux dans unéchantillon clinique français », Annales Médico-psychologiques, 163(2), pp .161-167. Rentfrow P., Gosling S., 2006, « Message in a ballad : therole of music preferences in interpersonal perception », PsychologicalScience, 17, pp. 236-242. Riecken D., 2000, « Personalized views of personalization » ,Communications of the ACM, 43, pp. 26-28. Sherman R., Funder D., 2009, « Evaluating correlations instudies of personality and behavior : Beyond the number of significantfindings to be expected by chance », Journal of Research in Personality, 43 ,pp. 1053-1063. Simon A., 1987, « Emotional stability pertaining to the gameof Dungons and Dragons », Psychology in the Schools, 24, pp. 329-332. Turkle S., 1997, Life on the screen : identity in the age ofthe Internet, Clearwater, Touchstone Books. Vazire S., Gosling S., 2004, « E-Perceptions : personalityimpressions based on personal websites », Journal of Personality and SocialPsychology, 87, pp. 123-132. Webb E., Campbell D., Schwartz R., Sechrest L., 1966 ,Unobtrusive measures : non-reactive research in the social sciences ,Chicago, Rand McNally. White P., 2009, mmogdata.com : charts. Accès :. Williams D., Yee N., Caplan S. E., 2008, « Who plays, howmuch, and why ? Debunking the stereotypical gamer profile », Journal ofComputer-Mediated Communication, 13(4), pp. 993-1018. Yarkoni T., sous presse, « Personality in 100,000 words : alarge scale analysis of personality and word use among bloggers », Journalof Research in Personality, 44, pp. 363-376. Yee N., 2005, The Daedalus Gateway. Accès :. — 2006, « The demographics, motivations and derivedexperiences of users of massively-multiuser online graphical environments » ,presence : Teleoperators and Virtual Environments, 15, pp. 309-329. Yee N., Harris H., Jabon M., Bailenson J., sous presse, « Theexpression of personality in virtual worlds », Social Psychological &Personality Science .
Dans cet article, nous explorons la possibilité de détecter la personnalité des utilisateurs de jeux vidéo à partir de leur comportement dans le monde virtuel. Un questionnaire administre à 1 040 joueurs de World of Warcraft permet d'établir leur profil sociodémographique ainsi que leur personnalité grâce au modèle à cinq facteurs. Nous utilisons ensuite des logiciels de collecte de données automatisées pour suivre les comportements virtuels de ces mêmes joueurs pendant quatre mois, en mesurant quotidiennement 3 500 variables comportementales pour chacun de leurs personnages. Sur la base de cet échantillon, nous montrons que, malgré le sentiment populaire selon lesquels les jeux sont un échappatoire permettant de créer une nouvelle identité fantastique, la personnalité des joueurs persiste lorsqu'ils enfilent leur corps virtuel: les jeux vidéo en ligne sont en fait un miroir de la personnalité de leurs utilisateurs.
sciencesInfo_13-0090567_tei_1025.xml
termith-370-communication
Partout où elle est apparue, l'informatisation du secteur de la santé a surgi dans uncontexte particulier, c'est-à-dire marqué par une volonté de réorganiser le travailmédical à des fins d'augmentation de la productivité (Bonneville, 2005a, 2005b ,2005c; Carré, Lacroix, 2001). Par ailleurs, l'informatisation du secteur de lasanté a été l'occasion, indépendamment des logiques technico-économiques (Grosjean ,Bonneville, 2007) qui ont déterminé la façon dont on a implanté les technologies del'information et de la communication (TIC), d'améliorer certains aspects relatifs àla prise en charge de la maladie et des patients. Si celles -ci ont conduit àplusieurs évaluations (économiques, cliniques, organisationnelles, etc.) mettant enlumière autant les succès que les échecs auxquels elles ont conduit, un constatsemble demeurer : ces technologies réinterrogent, ne serait -ce que sur le planmicrosociologique, la façon dont un soin est dispensé. Dans une contributionprécédente (Bonneville, Sicotte, 2008), nous avons pu mettre en relief lestransformations — plutôt les défis — auxquels les soignants en soins à domicile quiutilisent un ordinateur portable sont confrontés. Nous avons ainsi montré quel'usage d'un ordinateur portable en soins à domicile était à labase d'une transformation par rapport à la façon dont les soins sont (ou peuventêtre) donnés (Andreassen et al., 2006). L'enjeu est de taillepuisqu'on sait que la communication, ou plutôt la capacité d'un soignant de « biencommuniquer », demeure un défi pour la qualité des soins (Richard, Lussier ,2005). Nous présenterons ici une recherche conduite auprès de professionnels de la santéutilisateurs d'un ordinateur portable en soins à domicile. Nousmontrerons à partir d'extraits d'entrevues et en mobilisant la notion de« territoire » (Goffman, 1956; Cassidy, 1997) en quoi l'ordinateur portable ensoins à domicile s'immisce dans le territoire du patient et agit, d'une certainemanière, sur la relation soignant/soigné. Autrement dit, la définition du territoireproposée par Erving Goffman (1956) nous permettra d'approfondir les enjeuxinteractionnels et relationnels qui se posent au personnel soignant lorsqu'ils serendent à domicile avec un ordinateur portable. En 2006 et 2007, nous avons mené douze (n = 12) entretiens semi - directifs auprèsde divers professionnels de la santé travaillant en soins à domicile dans unebanlieue de la ville de Québec au Canada. D'une durée variant entre 45 et75 minutes, ceux -ci avaient pour thème central l'incidence de l'utilisationquotidienne des TIC dans la pratique soignante. Tous les professionnelsrencontrés étaient, ou avaient été, impliqués comme usager d'un ordinateurportable en soins à domicile dans la région de la ville de Québec. La sélection de ces informateurs s'est opérée suivant le prélèvement d'unéchantillon (probabiliste) fondé sur des cas typiques et hétérogènes. D'unepart, cela a permis de sélectionner des professionnels de la santé considéréscomme étant représentatifs de l'ensemble des professionnels de la santéutilisateurs d'un ordinateur portable en soins à domicile. D'autre part, cela apermis de rencontrer des professionnels « stratifiés » en fonction de leurexpérience de travail, de leur formation académique et de leur âge. Ainsi lesprofessionnels rencontrés étaient-ils pour la plupart des infirmières (n = 6) ,mais nous avons aussi pu interroger des physiothérapeutes (n = 2), des ergothérapeutes( n = 2) et travailleurs sociaux( n = 2). Les professionnels furent sélectionnés enfonction de leur expérience en soins à domicile (au moins une annéed'expérience), de leur statut d'emploi (à temps complet) et de leur anciennetéd'utilisation (au moins 6 mois) d'un ordinateur portable au domicile despatients à visiter. Ce dernier critère de sélection se justifie par le tempsnécessaire pour qu'un artefact technique comme l'ordinateur portable soitsuffisamment ancré dans les pratiques et représentations des utilisateurs. Quiplus est, on sait que les artefacts informatiques (les ordinateurs, lesdispositifs technologiques, les systèmes d'information…) requièrent souvent uncertain temps avant qu'un impact sur le travail quotidien de ses utilisateurspuisse être observé. C'est dans un contexte de crise du système de santé qu'a été posée la« nécessité », dans les discours officiels, étatiques, de transformer lesorganisations de soins. Ce que nous avons tantôt appelé « réforme » ,« restructuration », « réorganisation », « reengineering », « reconfiguration » … Si, depuis une trentained'années (Bonneville, 2003, 2005a, 2005b, 2005c; Bonneville, Lacroix, 2006), onsuit l'histoire du système de santé dans la plupart des pays industriels avancés( notamment au Canada), les termes ne manquent pas pour qualifier les changementsstructurels, qualitatifs qui devaient être entrepris. Outre la rationalisationet la mise en place de politiques restrictives, un « virage » devenaitnécessaire selon l ' establishment politique etéconomique. Ainsi a -t-on mis en place le virage ambulatoire qui reposait sur lessoins à domicile, de courte durée, de chirurgies d'un jour, etc. Ce qui a trèstôt changé la prise en charge clinique de la maladie et des patients (Young et al., 2004). Sur le terrain, cela s'est traduit par unetransformation de l'accès aux soins par un déplacement de la prise en charge despatients. Le recours aux familles et à la charité privée refit alors surface :« L'institution se fait de moins en moins accessible, réservée aux plus maladeset aux plus dépendants. [. ..] Dans la communauté, les soins se transforment etl'on sollicite de plus en plus la famille en réaffirmant son rôle [. .. ]. Ledomicile redevient, peu à peu, un lieu de soins. [. ..] Les soins familiauxviennent en complément des soins professionnels dont ils suivent étrangement ladirection, en se technicisant. On introduit, par exemple, certaines pratiquesmédicales dans la maisonnée et on éduque pour cela les individus malades etleurs familles. Des responsabilités nouvelles s'ajoutent » (Saillant, 2000 :18-19). Cependant, pour être possible, cette désinstitutionnalisation devaitreposer sur des moyens techniques en mesure d'offrir aux professionnels lapossibilité de travailler en réseau. C'est ainsi que fut lancé sur la placepublique, entre la fin des années 80 et le début des années 90, le projetd'informatisation du système de soins lequel devait rendre possible lacontinuité des soins, le partage d'informations et de connaissances (àdistance), la numérisation éventuelle des dossiers des patients, lacollaboration des équipes multidisciplinaires sur le terrain. .. Dans le cadre des soins à domicile, l'ordinateur portable devenait l'un desdispositifs clés du virage ambulatoire par la possibilité qu'on lui attribuaitde pouvoir soutenir, avec plus d'efficacité, le travail des professionnels de lasanté. En effet, il s'agissait de créer une véritable « réseautification » dessoins à travers laquelle l'information devient cruciale, comme on peut lecomprendre dans l'extrait suivant : « L'information et le partage d'informationsont indispensables aux intervenants et aux professionnels du réseau pour qu'ilspuissent jouer efficacement leur rôle » (ministère de la Santé et des Servicessociaux, 1996 : 13). Dans la région de la ville de Québec, une nouvelle organisation du travail ajustement été mise en place au début des années 2000.L'initiative consistait àmunir d'un ordinateur portable les professionnels de la santé qui se rendentquotidiennement au domicile de leurs patients. L'ordinateur portable devaitalors permettre la prise de notes directe à l'écran et des requêtes cliniques àpartir du moment où l'ordinateur se connecte à un réseau (requêtes pour desrésultats de laboratoire, de suivi multidisciplinaire, de pharmacie…) .L'ordinateur portable peut aussi fournir toutes sortes de formulaires pertinentspour soutenir la prise en charge des patients en soins à domicile. Bref, ilpermettait, et permet toujours, de mettre en réseau l'ensemble de la prise encharge clinique de la maladie et des patients en ambulatoire, car désormais« l'information clinique doit suivre le patient pour que les professionnelspuissent coordonner leurs interventions et offrir des services intégrés »( Aubert et al., 2007 : I18).Toutefois, la« réseautification » amène avec elle une complexification plus importante desstructures de soins, au sein desquelles l'information devient stratégique. Lamise à disposition de cette dernière constitue donc le véritable fer de lance dusystème de santé émergeant : « L'information devient donc le nerf, non de laguerre, mais bien d'une pratique médicale efficiente » (Leréseau informatique, 1999 : 21). Dans ce contexte où l'information estconsidérée comme stratégique, les moyens de communication deviennent tout aussifondamentaux. À côté des types classiques de communication (l'oralité, en face àface ou par téléphone, l'écrit sur papier) se posent désormais des formes plusrécentes de communication dans un secteur hautement complexe. Au rang des typesde communication qui prennent de plus en plus d'importance dans la dernièredécennie, se trouvent le téléphone portable, le « télé-avertisseur », lessystèmes d'information et de communication, le courrier électronique. .. Cesmoyens de communication viennent complexifier les échanges entre différentspersonnels, en même temps qu'ils apportent avec eux des promesses de« meilleures » communications quand celles -ci sont considérées sous l'angle del'efficacité des échanges et de traitement d'informations, de données. Ainsi peut-on comprendre le contexte dans lequel survient l'ordinateur portablechez des soignants, en ce qui concerne le cas qui nous intéresse dans cetarticle : un contexte multidimensionnel, où les enjeux de communication sontnombreux et multiples (Bonneville, Sicotte, 2008) si l'on tient notammentcompte, comme nous le verrons, de la complexité du travail soignant en tantqu'activité de service. En général, les interactions soignants/soignés renvoient à des situationstelles que la consultation en cabinet médical ou la visite à domicile. Cesont des relations duales, complémentaires, coopératives et parfoisconflictuelles (Lacoste, 1993) qui peuvent s'élargir à plusieursparticipants et/ou inclure l'utilisation d'équipements. Même si les progrèstechniques permettent aujourd'hui de diagnostiquer et de mieux traitercertaines maladies, la communication avec le patient reste un sujet depréoccupation pour le personnel médical pour qui elle constitue unecompétence clinique fondamentale (Richard, Lussier, 2005). Par ailleurs ,« il existe […] pour les soignants le défi de conjuguer une technicitécroissante à la singularité des individus » (Razavi, Delvaux, 1998 : I). Les enjeux liés à la communication encontexte de soins dépassent largement la simple communication efficace quine consisterait qu' à se préoccuper de la transmission des messages (dusoignant vers le soigné et inversement). Au cœur de la relationsoignant/soigné se pose l'interaction, le dialogue, l'interlocution .L'interaction repose sur la mise en commun — communicare( Bonneville, Grosjean, Lagacé, 2007 : 5) — d'un ensemble designifications, de façons de voir le monde, donc de représentations qui sontle résultat d'une intercompréhension, d'une co-construction de sens entreinterlocuteurs. Considérer la communication entre un soignant et un soignésous l'angle d'une interaction complexe fondée sur une cogestion de sens ,c'est mettre au centre de l'analyse de la communication soignant/soigné ensoins à domicile la question du lieu de la communication, c'est-à-dire leterritoire. Comme l'a indiqué AlexMuchielli (1997 : 45), « le contexte dans lequel se déroulent leursentretiens fournit des informations aux interlocuteurs et influence leurcomportement ». En soins à domicile, le territoire ne se contente pas que« déterminer » le sens des interactions. Il « dit » quelque chose ausoignant : « Pensons à la richesse des informations qu'un médecin [ou toutautre soignant] peut obtenir sur un patient, avant même de lui parler ,lorsqu'il le visite à domicile. Le quartier et ses environs, le type derésidence, son état extérieur et son organisation intérieure renseignentdéjà le médecin [soignant] sur la personne qu'il s'apprête à rencontrer »( Richard, Lussier, 2005 : 45). De surcroît, une fois dans le domicile( territoire) du patient, comme l'explique Marie-Françoise Mégie (2005 :767), « les lieux physiques communiquent au professionnel de la santé desinformations précieuses sur le patient visité, informations qu'il fauttraiter avec tact, d'autant plus qu'il est difficile de les obtenir au coursd'une consultation ordinaire au bureau » .Ainsi l'explique ce soignant quenous avons pu interviewer : « Je rentre chez les gens. je vois plein dechoses. Je rentre vraiment dans l'intimité des gens ». Le fait d'entrer dans l'intimité des soignants conduit très souvent lessoignés à une certaine gêne. Plusieurs professionnels de la santé interrogésau cours de cette recherche ont en effet exprimé à de nombreuses reprises uninconfort, une insécurité occasionnés par à la présence de l'ordinateurportable au domicile des patients. En fait, cet artefact technologiquepénètre incidemment dans l'espace personnel du patient et redéfinit la placequ'occupe le soignant d'autant plus que cette « place », cet espaced'interrelations, d'interlocutions, est très souvent investie non seulementpar le soignant et le soigné, mais par des tierces personnes (membres de lafamille, aidants…) comme nous le verrons. La territorialité ici en cause, etplus précisément l'occupation du territoire non par le soignant mais par lesoigné, explique sans doute pourquoi des soignants (ici une infirmière et uninfirmier) ont perçu une réticence de la part de certains patients à l'égardde la présence d'un ordinateur portable : « Les patients, au début, étaientsurpris (de voir un professionnel de la santé arriver avec un ordinateurportable) »; « La plupart des patients sont surpris de nous voir arriveravec un ordinateur portable ». Dans ces extraits, on peut remarquer que l'ordinateur portable constitue unobjet physique nouveau qui n'est pas encore marqué sous le sceau del'acceptation dans la relation de soins à domicile. C'est un intrus dont laprésence dans le territoire du patient n'est pas spontanément vécue demanière neutre. Dès lors, des justifications quant à sa pertinence légitimes'imposent. Ce qui est généralement admis dans un cabinet médical classiqueen termes de présence de dispositifs techniques divers ne l'est donc pasforcément lorsque ceux -ci intègrent le territoire même du patient (sondomicile). La notion de territoire a été étudiée à travers de nombreuses approchesthéoriques telles que la proxémie (Hall, 1966) ou les « territoires du moi »chez Erving Goffman (1956). Le territoire se caractérise d'une manièregénérale par une frontière perceptible, stable et centrée sur l'habitat etsur l'individu. Tony Cassidy (1997) distingue trois territoires en fonctiondu niveau de personnalisation et de défense de ceux -ci. Le « territoireprimaire » est caractérisé par un degré de monopole perçu élevé et unepersonnalisation de l'espace (e.g. le lit ou latable de cuisine d'une personne dans le cas d'une consultation à domicile) .Le « territoire secondaire » est déterminé par un degré de monopole perçumodéré et il peut être personnalisé si l'occupation est légitime (e.g. un local attribué à un groupe d'adolescents pourleurs activités sociales). Le « territoire tertiaire » est défini par undegré de monopole faible et une personnalisation sur une courte période (e.g. un banc public ou, pour prendre un cas dansle champ de la santé, un local qu'un soignant et un patient vont occuperdans un centre de santé le temps d'une consultation).Aussi voit-on que, lorsd'une consultation à domicile, il peut arriver que le soignant entre dans leterritoire primaire du soigné. Les enjeux sur le plan socio-médical serévèlent importants puisque, comme le souligne Marie-Françoise Mégie (2005 :765), « [en soins à] domicile, le patient est maître chez lui. Il peutobliger le médecin [ou tout autre professionnel de la santé] à s'essuyer lespieds avant d'entrer, tout comme il peut décider, pour toutes sortes deraisons, qu'il n'est pas en mesure de le recevoir au moment planifié ». Deplus, comme le souligne ce physiothérapeute, le fait d'entrer dansl'intimité des patients, « chez eux », dans leur « territoire » même, changela relation qu'ils ont avec eux par rapport aux soins classiques enétablissement : Ainsi, comme le rappelle Marie-Françoise Mégie (2005 : 765), le fait que lepatient soit dans son propre territoire « exige du médecin [soignant] quifait une visite à domicile de demander la permission, par exemple ,d'utiliser le lavabo pour se laver les mains, ce qu'il n'a évidemment pas àfaire au cabinet ». Par ailleurs, la configuration territoriale des lieuxexige aussi, bien évidemment, que le soignant puisse s'installer là où onl'invite à s'installer, sur la base de la préférence du patient lui -même oudes contraintes d'espace. On comprend donc pourquoi l'utilisation del'ordinateur portable demeure largement tributaire des lieux et peutconduire à certaines difficultés ressenties par les soignants : « Ce n‘estpas évident d'avoir l'ordinateur portable et de s'asseoir sur le bout du litdes patients qui habitent en résidence privée ». Cet extrait montre que dans la consultation à domicile, le personnel soignanta le sentiment de pénétrer sur le territoire du soigné, de franchir leslimites de son intimité. Le soignant doit très souvent pénétrer dans un lieuoù le patient ne sera pas seul, mais régulièrement avec son ou ses aidant(s )qui vont aussi pleinement participer auxinteractions. Or, on sait qu'une proportion fort importante des patientsrencontrés (suivis) en soins à domicile, sont des patients âgés. NathalieChampoux, Paule Lebel et Luce Gosselin (2005 : 392) rappellent justement, ens'appuyant sur diverses études, que, de façon générale (pour tout type deconsultation), « entre 20 % et 57 % des consultations médicales de patientsâgés sont réalisées en présence d'une tierce personne ». L'aidant peutfaciliter la relation, mais peut aussi la compliquer. La présence desaidants va d'ailleurs conduire certains soignants utilisateurs del'ordinateur portable en soins à domicile à ressentir de la « gêne » face àune prise de notes à l'écran, comme le précisent ces deux infirmiersinterrogés : Chez le soignant, ceci contribue au sentiment de pénétrer véritablement dansun territoire qui n'est pas le sien, et accentue la gêne quant au choixd'utiliser un ordinateur portable ou non. De fait, comme évoqué plus haut ,les distinctions mises en évidence entre la consultation à domicile et encabinet classique sont fondamentales, et s'expriment par des dynamiquesinteractionnelles foncièrement différentes (Mégie, 2005). La définition du territoire proposée par Erving Goffman (1956) et Edward T .Hall (1966) permet d'approfondir les enjeux interactionnels qui se posent aupersonnel soignant lorsqu'il se rend à domicile avec un ordinateur portable .Erving Goffman parle de territoire en termes de propriété et de frontière .Il distingue le territoire fixe (propriété de l'individu et limitégéographiquement, tel que la maison ou la cour), le territoire situationnel( possédé de façon temporaire, mais qui a une certaine permanence comme unechaise ou une chambre d'hôtel) et le territoire égocentrique (constituéd'une réserve de possession tournant autour de l'individu comme le saccontenant les outils de travail de l'infirmière). Pour aller plus loin dansla définition, Erving Goffman (1956 : 44) propose d'étendre « la notion deterritorialité à des objets non spatiaux mais territoriaux par leurfonction » et ainsi de se centrer sur les territoires de naturesituationnelle et/ou égocentrique. Cette approche lui permet de distinguerainsi huit « territoires du moi » : l'espace personnel, la place, l'espaceutile, le tour, l'enveloppe, le territoire de la possession, les réservesd'informations, les domaines réservés de la conversation. Nous allons porternotre attention sur deux d'entre eux qui vont nous servir de référence pournos analyses : l'espace personnel et l'espace utile. En effet, ces deuxconcepts — définis par Erving Goffman — permettent de mieux comprendre enquoi l'ordinateur portable en soins à domicile s'immisce dans le territoiredu patient (dans son espace personnel) et agit, d'une certaine manière, surla relation soignant/soigné (notamment en contraignant l'espace utile dusoignant). L'espace personnel représente « la portion d'espace qui entoure un individuet où toute pénétration est ressentie par lui comme un empiètement quiprovoque une manifestation de déplaisir et parfois de retrait » (ibid.). Cela explique sans doute pourquoi dessoignants estiment, a priori, que certains de leurs patients sont« inquiets », on pourrait dire anxieux, de les voir arriver avec unordinateur portable. C'est le cas de ce travailleur social et de cetinfirmier : L'une des caractéristiques de cet espace personnel est la variabilité de ladélimitation de l'espace (ou du territoire) en fonction du contexte danslequel se trouve l'individu. Comme précisé supra, « laconfiguration du domicile dicte l'endroit où se tient l'entrevue[ médicale] » (Mégie, 2005 : 766). Cette contrainte physique inhérente audomicile du patient qui « reçoit » explique aussi le fait que plusieurssoignants, ressentent un certain inconfort, voire un malaise, quant à laperspective d'utiliser leur ordinateur portable et de devoir, par exemple ,le brancher via la prise murale qui très souvent peutêtre située en arrière d'un meuble. C'est ainsi que l'expliquentrespectivement deux infirmiers et un physiothérapeute : À travers ces extraits, on comprend que l'utilisation de l'ordinateurportable est perçue comme dérangeant, encombrant, si ce n'est une menacepour la relation. C'est pourquoi on estime qu'il faut être à l'aise avec lepatient, bien le connaître, pour utiliser un ordinateur portable devant lui .Pour Erving Goffman (1956), un envahissement d'un territoire personnel ,l'empiètement d'un territoire revendiqué est une « offense territoriale » .En effet, « le prototype de l'offense territoriale consiste pour un individuà empiéter sur une réserve revendiquée par et pour un autre » (ibid. : 62). En général, les individus organisentleurs comportements de façon à réduire les « infractions » qui peuvent êtreréelles ou perçues, soit dans le cas des soignants interrogés en adoptantdeux formes de comportements : l'évitement qui consiste à ne pas utiliserl'ordinateur ou la recherche d'un échangeréparateur, en prenant par exemple le temps de s'excuser de l'intrusion quecréé l'ordinateur sur le territoire personnel du soigné (comme si parexemple il fallait justifier a priori son utilisationéventuelle durant la relation). Un échange réparateur a pour fonction deneutraliser les effets négatifs d'une offense territoriale. L'activitéréparatrice revêt trois formes fondamentales : la justification, l'excuse etla prière. La réparation par la prière est ce qui est le plus courammentutilisé par le personnel soignant. En effet, la prière « consiste à demanderà l'offensé […] la permission de se livrer à ce qu'il pourrait considérercomme une violation de ses droits » (Goffman, 1956 : I17). Or, « s'il estcaractéristique de […] voir arriver [les excuses] après l'événement, […] lesprières […] se placent typiquement avant l'événement suspect, ou, au plustard, au cours de ses premières phases » (ibid. :I17).C'est ce que les soignants expriment lorsqu'ils disentdevoir demander aux patients s'ils peuvent utiliser pendant l'interactionleur ordinateur, et éventuellement le brancher. En fait, l'espace utile est le territoire situé immédiatement autour oudevant une personne et auquel elle a droit en raison de besoins matérielsévidents. Par exemple, une infirmière lors d'un examen médical (auscultationd'un patient) peut espérer que rien ne se place entre elle et le patient etentrave ses mouvements, sa vision, ses gestes. .. Voilà pourquoi plusieursdéveloppent des stratégies quotidiennes pour déplacer l'ordinateur portablede toute éventuelle entrave à l'interaction, au « contact » avec le patient .C'est le cas, ici, d'une infirmière, d'un infirmier et d'unephysiothérapeute : Edward T. Hall et Erving Goffman soulignent l'existence de marqueurs qui serventà signaler la possession d'un espace. Pour le premier, le territoire est enquelque sorte un prolongement de l' être humain et les individus se créent desprolongements d'eux -mêmes par des marqueurs territoriaux. Dans le même ordred'idées, Erving Goffman (1956 : 55) précise que « lorsqu'un possesseur putatifrevendique une réserve, il le fait savoir par un signe […] un marqueur ». Lesmarqueurs sont de divers types : les marqueurs centraux qui sont des objetsplacés au centre d'un territoire et qui en revendiquent la possession, lesmarqueurs frontières qui sont des objets marquant la ligne qui sépare deuxterritoires adjacents et les marqueurs signets comme par exemple un nom gravésur un bâton de hockey. L'ordinateur portable, que le personnel médical emporteavec lui à domicile et qui se trouve ouvert et positionné entre le soignant etle soigné, a pour le personnel médical le statut d'un marqueur frontière, commeen témoigne le fait qu'il contribue au sentiment « d'éloignement » dans larelation que les soignants veulent maintenir avec leurs patients. C'est sansdoute pour cette raison que plusieurs soignants estiment qu'il faut qu'il soitle plus discret possible pour ne pas, selon eux, nuire à la relation : « Jetente de faire en sorte que l'ordinateur portable soit le plus discret possible .[ …] Je choisis toujours le moment où je vais l'utiliser. Toujours, toujours .Toujours dans le but de ne pas nuire à mon intervention ». Si l'on tient compte des nombreux facteurs classiques dont les psychosociologuesont dit qu'ils étaient parfois déterminants dans la qualité d'une communicationentre deux individus, on comprend que l'ordinateur portable représente unfacteur supplémentaire pouvant interférer dans la relation soignant/soigné .C'est vrai pour les soins classiques en cabinet médical, et l'est plus encoredans le cadre des soins à domicile. Ainsi plusieurs soignants (respectivementdeux physiothérapeutes et une infirmière) ont-ils exprimé leurs inquiétudesvis-à-vis de l'ordinateur portable qui, pour eux, dans certains cas, fait office« d'obstacle » : Ici, la gêne chez les soignants vient du fait qu'ils estiment que l'ordinateurportable constitue, ou peut constituer dans certaines situations spécifiques, unobstacle à la relation qu'ils ont avec leurs patients, une sorte de frontièreinfranchissable. Un intrus, en certains cas, dans la relation même. Ainsi, danscertaines situations spécifiques, par exemple dans le cadre du travail social ,certains soignants estiment-ils qu'il vaut mieux s'assurer de bien connaître lespatients rencontrés pour pouvoir apporter chez eux un ordinateur portable commeoutil de travail : « Les premiers contacts avec les patients sont difficiles, entravail social. […] Donc pour les premiers contacts je n'utilise pasl'ordinateur portable. Quand je les connais, je peux éventuellement apporter monordinateur portable au domicile des patients ». Il faut comprendre que le rapport du soignant à l'ordinateur portable n'est pasle même rapport entre le soignant et le papier/crayon. Le papier ne représentepas ou plus un marqueur. Or, justement, certains soignants ont évoqué le faitque le couple papier et crayon sont considérés comme importants en toutecirconstance : « je pense qu'il est toujours important d'avoir un bout de papierun crayon avec soi - même. Parce qu'on peut toujours noter des idéesdiscrètement » .Ainsi peut-on penser que le couple crayon et papier n'a pasacquis au cours des usages le statut de marqueur, probablement (mais celaresterait à vérifier) parce qu'ils sont plus discrets que l'ordinateur portable .Cela va de pair avec le sentiment qui consiste à voir en l'utilisation du papieret du crayon une pratique plus « humanisante », comme le souligne cette personneinterviewée : « je pense que d'utiliser le papier humanise davantage la prise encharge, l'interaction ». Fondamentalement, les soignants qui craignent ladéshumanisation engendrée par l'utilisation de l'ordinateur portable insistentsur le fait que celui les rend mal à l'aise : « je me sens mal à l'aise pas tantcompte tenu de ce que j'écris (dans mon ordinateur portable lorsque je suis audomicile d'un patient), que vis-à-vis l'interruption qui se pose, ou qui peut seposer, dans notre interaction. Celle -ci peut-être profonde et elle peut changersoudainement. je suis mal à l'aise. […] Quand j'écris sur papier, je n'ai pas cesentiment là. je peux écrire sur une feuille et tourner complètement celle -ci aumoment où la discussion devient importante ». Rappelons qu'un marqueur peut être un acte ou un dispositif qui, par sa présence ,revendique d'une certaine manière une partie d'un territoire. Et c'est cetterevendication qui met mal à l'aise le personnel soignant. Car, les membres decelui -ci ont le sentiment d'offenser l'espace personnel du soigné et ainsid'offenser son territoire, parfois même son territoire primaire. À de nombreusesreprises au cours des entrevues, le personnel soignant a le sentiment d'agir enintrus et, d'une certaine façon, d'empiéter sur le territoire du soigné, des'imposer à lui avec son ordinateur. Ainsi peut-on le comprendre des témoignagessuivants venant d'un infirmier et d'une physiothérapeute : Ce sentiment est d'autant plus présent que lorsqu'il y a présence d'une tiercepersonne au domicile du patient, au moment de la consultation. On sait qu'ensoins à domicile, dans la plupart des cas, les patients sont souvent accompagnésde leurs aidants qui peuvent être des membres de leur famille. Or, le fait derédiger les notes directement au portable place les soignants dans une positioninconfortable. Ils craignent que les autres acteurs en présence puissent lire —en direct — ce qui est noté et qui apparaît aussitôt à l'écran d'ordinateur :« Certaines personnes peuvent voir à l'écran ce que je rédige. […] Si je doisnoter des informations délicates concernant un patient, je ne vais pas le fairedirectement chez le patient. […] je n'oserais pas le faire. […] je vais fairecomme si je n'avais pas de portable, et mettre à jour son dossier plus tard (aubureau) ». Ainsi comprend -on pourquoi l'ordinateur portable est considéré, dans certainscas, comme un objet gênant. Le fait qu'il occupe le territoire du soignant ,qu'il s'inscrive implicitement dans la relation comme étant un marqueur, faitqu'il est parfois considéré comme étant importun, indésirable, indiscret voireimpertinent. Les sciences sociales ont depuis longtemps surestimé les relationsinterpersonnelles dans l'interaction sociale et ont négligé la place des objets ,des artefacts dans les analyses des situations d'interactions (Grosjean, 2008) .Et, comme le souligne Andrea Semprini (1995 :202), « les objets ne se limitentpas à nous renseigner sur les rapports entre les hommes, mais encore ilsagissent sur ces rapports et, [dans une certaine] mesure, ils les constituent » .L'objectif de cet article était de souligner l'engagement d'un artefactparticulier (l'ordinateur portable) dans les processus communicationnelsimpliquant un soignant et un soigné, de manière complémentaire à de précédentstravaux sur la question (Bonneville, Sicotte, 2008). Plus particulièrement, nousavons vu en quoi l'ordinateur portable modifie à la fois la structure del'action du personnel soignant et son environnement de travail. L'ordinateurportable est donc un co-acteur de la situation créée (Grosjean, 2004). Il changeinévitablement l'état des relations interindividuelles et il est donc médiateur ,dans le sens où il affecte les modalités de coordination et les relations desacteurs en présence (Latour, 2006). Dans notre cas, l'ordinateur portable faitoffice de médiateur : il s'interpose entre le soignant et le soigné et il créeun nouvel environnement d'interactions entre les individus qui nous rappellel'importance des rituels et du territoire interactionnel dans les relationsmédicales (voire, plus largement, dans les relations sociales courantes). Bref ,si ces constats semblent intéressants du point de vue des espaces d'interactionsen soins à domicile, d'autres recherches devront être effectuées avec destechniques d'investigation complémentaires à celle que nous avons utilisée. Onpense notamment à l'observation participante qui pourrait permettre d'étudiercertains comportements en situation. En effet, l'observation favorise un accèsimmédiat aux comportements et actions des sujets dans leur contexte réel detravail. Ainsi serions -nous en mesure de saisir les pratiques effectives decommunication et, par là -même, de se concentrer sur des événements pouvantsurgir au cours de la situation observée .
Nous présenterons ici une recherche menée auprès de professionnels de la santé utilisateurs d'un ordinateur portable en soins à domicile. À partir d'extraits d'entrevues et en mobilisant la notion de « territoire », nous montrerons en quoi la présence d'un ordinateur portable en soins à domicile modifie l'environnement de travail du soignant et agit - d'une certaine manière - sur la relation soignant/soigné. Qui plus est, l'ordinateur contribue à transformer à la fois la structure de l'action des soignants et leur environnement travail. Ainsi modifie-t-il les relations interindividuelles en agissant comme médiateur dans la mesure où il s'interpose entre le soignant et le soigné. Finalement, dans cette dynamique interactionnelle, se pose la question des rituels et du territoire d'interactions.
sciencesInfo_10-0294508_tei_1081.xml
termith-371-communication
Lors de travaux précédents au travers notamment du projet SiSSI (Belbèze et Soulé-Dupuy, 2007), nous avons observé les difficultés rencontrées par les internautes recherchant des informations. Au-delà des difficultés de manipulation des outils de recherche et du repérage de l'information pertinente au sein des pages, l'évaluation de la confiance à accorder à un site ou à un document est un souci présent. Le manque de compétence propre à un domaine de recherche ou à son contexte linguistique est une des raisons d'échec. Pouvoir mettre en contact de manière transparente un utilisateur avec une communauté partageant ses préoccupations, proposer des mots-clés supplémentaires dans une recherche ou définir des contextes de recherche sont autant de services susceptibles d'aider les utilisateurs des moteurs de recherche sur internet à accéder à toute information utile, voire à optimiser l'accès à cette information par un partage implicite de compétences. Une des solutions possibles est donc la construction automatique et dynamique de communautés d'usagers, c'est-à-dire que les usagers seront reliés à différentes communautés représentant leurs centres d'intérêt, qui dans notre cas sont caractérisés par des agrégats de mots-clés. Ces relations entre usagers et communautés pourront évoluer dans le temps. Parmi les différentes méthodes qui pourraient être envisagées pour créer ou identifier ces communautés, nous avons choisi de nous intéresser à celles basées sur la création d'agrégats de mots-clés. Le terme généralement consacré au regroupement de mots-clés est celui de « cluster » (grappe). La notion de « cluster » fait à la fois référence aux nœuds d'un réseau et à la structure porteuse de ce réseau. Dans notre cas, le processus de regroupement, bien qu'utilisant les liaisons comme ressources, génère une simple liste. C'est pourquoi nous avons préféré le terme d'agrégat. Un agrégat est défini par Bayaly et Cunny, (1986) comme un ensemble de nœuds liés logiquement dans un graphe. Afin d'identifier les communautés d'usagers basées sur les centres d'intérêt, nous proposons de regrouper des mots-clés issus de recherches d'information dans des agrégats présentant une forte cohérence sémantique. Nous entendons par cohérence sémantique la capacité d'un groupe de mots à recouvrir un champ d'un domaine le plus précis possible. Cette liste de mots pourrait s'apparenter à ce qu'en lexicologie on nomme un champ lexical. Mel'Cuk et al. (1995) donnent du champ lexical la définition suivante : « Nous appelons champ lexical d'un champ sémantique l'ensemble des vocables dont les lexies de base appartiennent à ce champ sémantique ». A l'usage, à partir des mots-clés utilisés lors d'une recherche d'information par un nouvel usager, nous pourrons (1) identifier les communautés pertinentes grâce aux agrégats ainsi construits afin de (2) rapprocher cet utilisateur des utilisateurs attachés aux communautés les plus proches et ainsi (3) lui offrir de nouveaux services basés sur ces communautés. Dans cet article, nous présentons une méthode complète de regroupement de mots-clés en agrégats sémantiquement homogènes. Nous nous sommes orientés vers une approche de résolution de contraintes à base de graphes. L'approche étudiée repose sur des principes énoncés dans la méthode proposée par Hoffmann, Lomonosov et Sitharam (1997), appelée « méthode HLS ». Nous proposons en particulier une modification appropriée de l'opérateur d'extension et des algorithmes de regroupements de mots-clés. Une technique d'évaluation a été également proposée afin de vérifier la validité des résultats obtenus. Cette évaluation repose sur un espace de mots-clés issus d'extraits de logs du moteur de recherche d'aol.com. Les agrégats construits sont basés sur la cooccurrence de mots-clés dans les différentes requêtes issus du fichier log d'un moteur de recherche. Enfin, la validation réalisée repose sur la comparaison des réponses du moteur de recherche auquel nous soumettons des agrégats de mots issus d'ensembles de mots-clés créés aléatoirement et les agrégats de mots construits selon l'approche proposée. Cette validation expérimentale nous permettra de mieux définir les limites de notre approche et d'y apporter de futures évolutions. La suite de cet article est organisée de la manière suivante : la section 2 est consacrée à un état de l'art sur les approches pour la création d'agrégats de mots-clés. La section 3 présente l'approche proposée au travers notamment des adaptations de la méthode HLS que nous avons proposées ainsi que la technique de validation sémantique associée. La section 4 illustre l'expérimentation que nous avons menée à partir d'extraits du fichier de logs d'aol.com ainsi que les résultats positifs obtenus. Enfin, la dernière section (section 5) dresse un bilan ainsi qu'un panorama des perspectives d'évolution de l'approche proposée. La « clusterisation » de mots-clés a fait l'objet de nombreux travaux ces dernières années tant en classification (de documents, de requêtes, de sites web, etc.) qu'en recherche d'information. Or, comme l'ont souligné d'autres auteurs avant nous (Shingo et al., 2006), l'étude des mots-clés utilisés dans le cadre des activités de requêtage des internautes via les moteurs de recherche « commerciaux » (Google, Yahoo, Exalead…) est difficile, voire quasiment impossible, du simple fait que les ressources nécessaires ne sont pas diffusées car elles représentent une partie de leur fond de commerce (exemple : revente des mots-clés). Il y a, de fait, peu de publications disponibles sur l'étude, voire l'exploitation, que l'on peut proposer des mots-clés utilisés dans les moteurs de recherche sur internet. Nous allons toutefois dresser un état de l'art des travaux qui se sont intéressés à l'agrégation de mots-clés. Dans un premier temps, nous discuterons des travaux s'intéressant aux regroupements de mots-clés issus de moteurs de recherche sur internet. Par la suite, nous nous focaliserons sur les travaux relatifs à la création d'agrégats sémantiquement homogènes qui ont inspiré nos travaux. Certains travaux réalisés sur le regroupement de mots-clés depuis des moteurs de recherche spécialisés s'appuient sur le contenu des sites web sélectionnés par l'internaute au cours de sa recherche. Ainsi, O. Shingo et al. (2006) proposent la création de clusters construits par l'association de mots-clés ayant amené des utilisateurs à consulter le même site. Ces ensembles de quelques mots sont alors additionnés pour former des clusters plus larges si les sites sélectionnés par les internautes sont dans la même communauté de sites (une communauté de sites est un ensemble de sites reliés par des liens http). Cette solution présente l'avantage d'une double base de construction, les utilisateurs et les documents servant de sources. Mais elle ne semble pas possible sur l'ensemble du web sans une mise en œuvre de moyens gigantesques qui permettrait la construction de l'ensemble des communautés des sites de tout internet. De plus, l'apparition de nouveaux clusters de mots-clés ou des clusters de mots-clés de faible usage est ralentie par le fait que les mots-clés se doivent d' être trouvés dans des documents déjà indexés. Notre méthode va bien utiliser les moteurs de recherche dans une phase de validation mais uniquement d'un point de vue statistique, ce qui ne gênera pas la création d'agrégats utilisant de nouvelles associations de mots-clés. D'autres travaux, comme ceux de (Cui et al., 2002) et de (Fonseca et al., 2004) tentent de créer des clusters de mots-clés en corrélant les mots-clés utilisés dans la recherche avec ceux mis en avant par les URL retournés (URL, titre, mots-clés cités dans la page html…) et sélectionnés par l'internaute. Cette méthode présente les mêmes dépendances aux index des moteurs de recherche que la précédente. De plus, cette méthode pose aussi le problème de la pertinence de l'ordonnancement des résultats par les moteurs de recherches commerciaux d'internet, l'ordre de présentation influant fortement la sélection d'un site proposé par l'utilisateur. Les travaux de (Koutsoupias, 2000), quant à eux, ont eu pour but de créer une technique d'enrichissement de la requête en proposant à l'internaute un complément de mots-clés issus de requêtes fréquentes ou de requêtes retournant un grand nombre de sites. Ces services sont aujourd'hui offerts en standard par certains moteurs de recherche (Yahoo, Google). Ces techniques très pratiques ne sont cependant utilisées que pour la création de groupes de quelques mots, généralement trois à cinq. La création d'agrégats de mots-clés sémantiquement homogènes semble plus appropriée à la proposition de nouveaux services aux internautes, notamment pour la définition de communautés d'usages, que les systèmes de clusterisation précédemment présentés. Dans notre représentation graphique les éléments de liaison correspondront à l' « utilisation conjointe » de mots, les mots étant eux -mêmes les nœuds du graphe. La mise en œuvre de graphes représentant des mots-clés est illustrée par exemple par le site (cf. figure 1). Il existe plusieurs méthodes de regroupements d'objets dans des graphes. Seules les techniques permettant un recouvrement des différents agrégats sont à considérer. De par sa nature, un mot doit être rattachable à des contextes multiples. Une première catégorie de méthodes s'intéresse aux structures appelées « cliques ». La définition de la clique a été originellement posée par (Festinger, 1949) ainsi que (Luce et Perry, 1949). Telle que définie par (Luce et Perry, 1949), la clique dans un graphe est un sous-ensemble d'un graphe d'au moins trois nœuds, où chaque nœud est adjacent (en relation) avec tous les autres nœuds de la clique et tel qu'il n'existe pas d'autre nœud en relation avec tous les autres nœuds de la clique. Dans une clique, chaque nœud est donc en relation avec tous les autres nœuds de l'ensemble. Cette caractéristique semble être un point essentiel dans la constitution d'un espace sémantique cohérent. Cependant, au sein de notre échantillon, l'obtention d'agrégats uniquement basés sur cette figure n'est pas apparue pertinente, les cliques ne dépassant pas alors un niveau de 9 éléments. La méthode basée sur l'agrégation de cliques développée par Palla (Palla et al., 2006) pour contourner ce problème est sans doute une piste à considérer. Palla propose de combiner les cliques de telle sorte qu'une clique de n sommets soit rattachée à une autre dans un agrégat si n-1 sommets sont communs. Si cette technique a donné de bons résultats dans l'univers des réseaux sociaux et de la biologie moléculaire, elle a aussi été appliquée à la création d'agrégats de mots (Chavalarias et al., 2008). Mais son relatif manque de souplesse nous a fait préférer une méthode plus ouverte et plus paramétrable. Une deuxième catégorie de méthodes de regroupement, toujours à base de graphes, repose sur des approches de résolution de contraintes géométriques. Un système de contraintes géométriques se compose d'un ensemble d'objets géométriques soumis à des contraintes géométriques. Résoudre un système de contrainte géométrique consiste à fournir une position, une orientation et des dimensions à chacun de ses objets géométriques de sorte que toutes les contraintes géométriques soient satisfaites. (Jian-Xin Ge1 et al. 1999) définissent la résolution d'un système de contraintes en utilisant des représentations graphiques comme la transformation du système de contraintes en un graphe puis par la recherche de séquences de construction issues de l'analyse du graphe. Les types d'objets et de contraintes géométriques dépendent du domaine d'application considéré (mécanique, dessin, biologie, littéraire…). Un ensemble d'objets est défini comme rigide s'il est indéformable, autrement dit si les objets n'acceptent plus de déplacement entre eux. Ici les systèmes rigides représentent un ensemble de nœuds ou un agrégat répondant aux contraintes du système. Les travaux de (Hoffman et al., 1997) et de Jermann et al. (2002) entrent dans cette catégorie. Les méthodes qu'ils proposent présentent la particularité de pouvoir utiliser un opérateur d'extension qui permet d'effectuer des regroupements en tenant compte de l'importance du nombre d'utilisations conjointes des mots-clés relativement au nombre total d'utilisations du mot-clé lui -même. Le caractère général de ces méthodes offre de nombreuses possibilités et notamment l'adaptation de cet opérateur d'extension pour la définition de nouvelles contraintes sur les utilisations conjointes entre mots-clés trop rares pour être représentatives. En conclusion de cette section, il est important de noter que l'étude des méthodes de regroupements de mots-clés passe par l'analyse d'algorithmes proposés dans différents domaines de l'informatique et que ceux qui nous ont semblé les plus prometteurs reposent sur des approches de résolution de contraintes à base de graphes. Il n'en demeure pas moins que la recherche sur la validation sémantique d'agrégats de mots reste un champ d'investigation encore largement ouvert. L'observation d'internautes recherchant des informations à travers un moteur de recherche (Belbèze et Soulé-Dupuy, 2007) nous a permis de déterminer que plus l'utilisateur possédait une connaissance approfondie du sujet traité, plus il lui était facile de trouver l'information manquante recherchée. Ainsi un utilisateur expérimenté peut taper les mots d'une chanson pour en trouver le texte complet. Cette compétence de base déterminante pour l'accès à l'information est un élément rapidement transmissible via une mise en relation efficace des usagers, d'où notre proposition d'agrégation de mots-clés issus des moteurs de recherche afin en particulier de construire des communautés dynamiques d'usagers. L'utilisation d'internet et des moteurs de recherche se fait aujourd'hui majoritairement de manière anonyme. Les seules informations connues sur l'internaute pendant sa recherche, hormis son matériel et ses logiciels, sont sa localisation réseau et les mots-clés utilisés dans ses recherches ainsi que les liens sélectionnés. Les internautes rechignent à faire un effort d'authentification et d'autodescription. Les efforts d'authentification sont d'autant plus mal acceptés qu'ils ne correspondent, le plus souvent, qu' à un espace réservé (pour un usage personnel uniquement). Le temps passé à une autodescription, lui aussi, ne correspond pas aux habitudes d'immédiateté des services les plus utilisés tels que les moteurs de recherche. La création de communautés dynamiques pourrait donc être exploitée afin de permettre à un utilisateur de coopérer avec d'autres sans avoir ni à s'authentifier, ni à se décrire, ni même à s'inscrire dans ces espaces. Il n'en reste pas moins que la signature ou un élément de communication permanent, comme une adresse de messagerie électronique, permettront un fonctionnement asynchrone du système. Dans l'exemple présenté dans les figures 2 et 3, Georges recherche, de façon anonyme, des sites web en utilisant les mots-clés B, E, G et H. Grâce à l'agrégat N°1 contenant ces mots, Georges peut se voir proposer de rentrer en contact avec des utilisateurs ayant des centres d'intérêts proches des siens. Il peut soit ouvrir un salon de discussion où seront invités automatiquement les internautes concernés par les mots-clés de l'agrégat N°1, soit démarrer une conversation en messagerie instantanée avec l'utilisateur « Anonyme » ou bien laisser un message à Annie (cf. figure 3). L'objectif des travaux que nous présentons dans cet article est alors de définir une méthode de création de ces agrégats de mots-clés auxquels un utilisateur pourra s'identifier. De fait, le regroupement ou la création d'agrégats a, dans une population donnée, pour objectif de rassembler les éléments les plus proches possibles selon un ou plusieurs critères. Il a également pour but de créer des ensembles les plus éloignés possibles, sur ce ou ces critères. Le critère prédominant utilisé dans notre cas sera l'homogénéité sémantique. Dans la mesure où elle est constituée d'un ensemble de phases paramétrables, la méthode d'Hoffmann, Lomonosov et Sitharam (HLS) est très souple. Ce paramétrage nous permet de supprimer ou conserver des liens entre des mots-clés en fonction de leurs valeurs elles -mêmes relatives aux poids des mots. Cette méthode, proposée initialement par (Hoffman et al., 1997) est un exemple de méthode de rigidification récursive de GCSP (Geometric Constraint Satisfaction Problem). Plus exactement une méthode de décomposition structurelle ascendante. Elle recherche des ensembles d'objets rigides. Ces agrégats sont ensuite assemblés récursivement. La méthode HLS comprend cinq phases. Une première phase d'analyse consiste à regrouper les agrégats. Cette phase d'analyse se compose de trois parties : fusion, extension et condensation. La phase de fusion recherche les agrégats de taille minimale. La phase d'extension consiste à inclure un objet voisin dans l'agrégat courant, et ce tant qu'il existe un objet voisin à insérer (l'opération d'extension repose sur un opérateur d'extension). La phase de condensation place les objets regroupés dans l'agrégat en cours de constitution et met à jour un plan d'assemblage. Enfin la phase d'assemblage exécute le plan d'assemblage où chaque agrégat est considéré comme un objet de départ. Pour nos besoins, nous adaptons la méthode HLS à notre contexte en définissant par exemple l'agrégat minimum comme une clique. La phase de fusion recherche donc ces objets. L'opération d'extension utilise un opérateur d'extension que nous définissons selon la règle suivante : « Le graphe de l'agrégat doit toujours rester bi-connexe pendant les opérations d'extension » afin de préserver un niveau de rigidification de l'agrégat. On dit qu'un graphe est bi-connexe si chaque point est relié par au moins deux chemins à n'importe quel autre point du graphe. La figure 4 illustre les phases de fusion et d'extension que nous avons adaptées dans la suite de cette section. Ces phases reposent sur la notion de poids. Dans notre cas, le poids correspond au nombre de recherches liées à un objet. Cet objet étant soit un mot-clé issu des requêtes, soit une relation R inter mots-clés (cf. ci-après). Le poids d'un mot-clé correspond au nombre de requêtes utilisant ce mot-clé. Le poids d'une relation RAB telle que A RAB B correspond au nombre de requêtes incluant les deux mots-clés A et B. Le poids d'un mot-clé : soit Nb le nombre total de requêtes, MCI l'élément de valeur vrai si le mot-clé est présent dans la requête (vrai valant 1), ou faux sinon (faux valant 0), alors le poids d'un mot-clé A noté PA est calculé comme suit : Le poids d'une relation : soit deux mots-clés A et B, une relation RAB telle que A RAB B, Nb le nombre total de requêtes, RI l'élément de valeur vrai si les mots-clés sont conjointement présents dans la requête (vrai valant 1), ou faux sinon (faux valant 0), alors le poids d'une relation RAB noté PRAB est calculé de la façon suivante : Le poids total d'un mot-clé n'est pas nécessairement la somme des poids de ces relations. En effet, une même recherche peut inclure plusieurs mots-clés et donc compter pour « un » dans le poids du mot-clé (cf. figure 5). Nous proposons de compléter l'opérateur d'extension par une prise en compte de la notion de poids relatif. Il semble évident que le poids de la relation est à comparer aux poids des mots-clés en relation. Une relation d'un poids de « 1 » entre un mot-clé A pesant « 1000 » et un mot-clé B pesant « 2 » ne représente pas du tout la même importance relative. Ainsi, la relation pèsera 10-3 du poids du mot-clé A et 0,5 du poids du mot-clé B. Afin de prendre en compte ce poids relatif, nous orientons et pondérons le graphe de la matrice présenté en tableau 1. Nous utilisons pour ceci la valeur du poids du mot-clé de départ sur le poids de la relation du mot-clé de départ avec le mot-clé cible. On notera ce rapport CFL (coefficient de fiabilité de lien). Ainsi, pour un mot-clé A en relation avec le mot-clé B (noté A RAB B), le coefficient de fiabilité de lien, noté CFL, du mot-clé A vers le mot-clé B noté CFLA=>B est calculé comme suit : CFLA=>B = PA/PRAB avec PA poids du mot-clé A, PRAB le poids de la relation RAB. Matrice asymétrique d'un graphe orienté pondéré – CFL Matrice symétrique - graphe non dirigé Matrice asymétrique - graphe dirigé - CFL (% ) Mot Poids A B C D E Mot Relation A B C D E A 8 - 6 7 0 2 A - > - 75 87.5 0 25 B 10 6 - 10 0 0 B - > 60 - 100 0 0 C 20 7 10 - 2 1 C - > 35 50 - 10 5 D 500 0 0 2 - 1 D - > 0 0 0.4 - 0.25 E 2 2 0 1 1 - E - > 100 0 50 50 - De façon à ne pas maintenir des liens présentant un CFL trop faible, nous ne prendrons en compte que les relations présentant un CFL supérieur à une valeur prédéfinie nommée valeur minimale de CFL, ou Val-Min-CFL, du poids du mot. De façon à ne pas perdre les mots de faible poids en relation avec des mots de poids fort, nous maintiendrons toutes relations ayant un CFL supérieur à la valeur d'activation ou Val-Activ-CFL du poids du mot et ce quel que soit le CFL de sens inverse. Des valeurs seuils pour Val-Min-CFL et Val-Activ-CFL ont été fixées par expérimentations respectivement à 5 % et 20 % (cf. section 4.1). L'opérateur d'extension définitif que nous proposons est donc basé sur les règles suivantes : le graphe doit rester bi-connexe, un CFL inférieur à Val-Min-CFL supprimera la relation sauf si le CFL de sens inverse est supérieur à Val-Activ-CLF. Dans l'exemple de la figure 6, la liaison C-D n'est donc pas maintenue car le CFLD=>C est inférieur au Val-Min-CFL fixé et le CFLC=>D est inférieur au Val-Activ-CFL fixé. L'élément « D » ne peut donc rejoindre l'agrégat car le graphe résultant ne serait alors plus bi-connexe. Une paire de mots-clés, constituant donc une diade, ne peut appartenir au plus qu' à un agrégat. En effet, soit il existe un troisième mot-clé formant avec les deux premiers mots-clés une triade et cette triade ne sera présente que dans un et un seul agrégat, soit il n'existe pas de triade incluant la diade et la diade n'est alors dans aucun agrégat (cf. Algorithme 1). Algorithme 1. Algorithme général de regroupement des mots-clés en agrégats Pour chaque mot-clé X faire [Phase de fusion] Extraire les mots-clés Y formant une triade valide selon l'opérateur d'extension avec X Pour chaque couple de mots-clés X -Y valides faire [Phase d'extension] S'il n'existe pas d'agrégat contenant le couple X -Y et que le couple n'a pas été testé Créer un nouvel agrégat « X -Y » et ajout de X -Y Tant que l'on ajoute des mots-clés dans l'agrégat faire Pour les mots de l'agrégat Rechercher de nouveaux mots en triade Ajouter des mots-clés formant la triade avec les mots de l'agrégat Noter des couples trouvés comme « testés » Fin Pour FinTant que Fin Si Fin Pour [Fin de Phase d'extension] Fin Pour [Fin de Phase de Fusion] A titre d'exemple et afin d'éclairer le lecteur sur les résultats que la technique d'agrégation permet d'obtenir, nous proposons ici une représentation schématique des différents agrégats générés incluant le mot « apple ». Comme on peut le remarquer dans la figure 7, les 4 agrégats sont cohérents et illustrent quatre contextes (acceptions) différents identifiés par rapport au mot-clé « Apple » (pomme). Ainsi, l'agrégat 1 fait référence au fruit (pomme) lui -même, le 2 à la botanique avec le lys (« daylily ») ayant pour nom « Apple Pie Spice », le 3 à la marque d'ordinateur bien connue, et enfin le 4 au cidre de pomme. Afin de valider les résultats de notre approche, nous proposons d'appliquer une mesure de validation sémantique sur les agrégats ainsi obtenus. Les postulats à la proposition d'une technique de validation sémantique sont les suivants : internet est majoritairement constitué de sites web et de documents sémantiquement cohérents. Nous convenons qu'il existe des exceptions telles que des dictionnaires ou des listes d'objets en vente, mais les considérons comme numériquement faibles, les utilisateurs de moteurs de recherche sur internet ont une conscience et une expérience suffisante pour utiliser des mots-clés ayant un lien entre eux et avec le sujet recherché. Sur des ensembles de mots et de recherches suffisamment importants pour effectuer un traitement statistique, il devrait donc être possible d'observer un comportement différent, lorsque l'on compare le nombre de sites retournés par des requêtes utilisateurs à des requêtes combinant des mots de manière aléatoire. Afin d'éclairer notre propos, nous soumettons en tant qu'utilisateur, trois recherches de trois mots-clés au moteur de recherche du site aol.com et une recherche combinant un mot-clé de chacune de ces recherches utilisateurs (cette dernière étant notre recherche aléatoire). Comme on peut le constater dans les exemples illustrés dans le tableau 2., trois mots-clés pris aléatoirement dans un ensemble de requêtes donnent des résultats significativement inférieurs en nombre de sites retournés à des requêtes plus « sémantiquement cohérentes » proposées par un utilisateur. Ceci n'a bien sûr de valeur que d'un point de vue statistique; rien n'interdisant à un monsieur ou une madame « Besancenot » de placer une photo de sa personne sur internet jouant du saxophone de la célèbre marque « Selmer » devant un plat d'épinards. Nombre de sites retournés par le moteur de recherche du site d'aol.com en fonction de la cohérence sémantique de la requête ID Requête nb de sites retournés 1 + besancenot + état + france 164 000 2 + épinard + crème + beurre 37 400 3 + saxophone + selmer + jazz 66 300 4 + selmer + besancenot + épinard 0 Notre but n'est pas de fournir une méthode de validation sémantique absolue, mais d'obtenir un indice de qualité sémantique. Cet indice est défini comme un ratio et n'a donc pas d'unité. Il n'est que le reflet de la comparaison comportementale des agrégats aux tests définis. Il permettra d'évaluer des méthodes de regroupement et leurs évolutions. Afin de créer cette mesure, nous proposons de comparer le nombre de sites retrouvés par le moteur de recherche du site aol.com à partir de requêtes basées sur des combinaisons extraites des agrégats eux -mêmes avec le nombre de sites retrouvés (par le même moteur de recherche) à partir de requêtes basées sur des combinaisons aléatoires de mots-clés (combinaisons indépendantes des agrégats construits). Trois mots-clés représentent la taille minimale d'un agrégat (triade). Il est donc impossible de construire des recherches utilisant plus de trois mots-clés sans exclure de cette mesure les agrégats les plus petits. La validation des mots-clés par paire pourrait sans doute présenter un intérêt mais représenterait un nombre de combinaisons trop important. Nous avons donc choisi de présenter les mots-clés au moteur de recherche d'aol.com par triade. Toutes les combinaisons de trois mots-clés de chaque agrégat seront présentées au moteur de recherche. Cela représente 792 756 combinaisons pour les agrégats sur l'échantillon d'étude. Chaque mot sera dans cette expérimentation précédé du signe " + " ce qui exclut les sites présentant les mots-clés inclus dans une chaîne de caractères de la liste des résultats. L'échantillon aléatoire a été formé de 500 000 triades de mots-clés différents pris au hasard dans l'échantillon. Nous avons effectué nos expérimentations à partir d'un extrait des fichiers de log du moteur de recherche aol.com. Ce fichier est mis à disposition du public à des fins d'étude. Il est disponible sur le site. L'extrait utilisé intègre trente trois millions de requêtes effectuées du 1 mars 2006 au 30 avril 2006. Ces requêtes sont principalement en langue anglaise. La structure du fichier intègre un identifiant, la date et l'heure de la recherche, le site éventuellement sélectionné ainsi que son rang (cf. figure 8). Afin de travailler sur un échantillon représentatif et néanmoins manipulable, nous avons fait le choix de nous limiter à l'ensemble des requêtes d'une journée de recherches. La journée de référence choisie aléatoirement est celle du 17 avril 2006. Sur les requêtes de cette journée, nous avons appliqué les six règles suivantes : les mots-clés sont définis comme un ensemble de lettres sans espace. Tout espace est donc lu comme un séparateur de mots-clés, les guillemets ainsi que tous les éléments de ponctuation ont été ignorés et remplacés par des espaces, seuls les mots-clés possédant plus d'une lettre ont été conservés, certains mots-clés jugés non significatifs ont été écartés de l'étude (cf. tableau 3), seuls les mots-clés utilisés dans une requête ayant deux mots et plus ont été conservés, afin d'éviter de manipuler des mots au sens galvaudé par une trop grande utilisation, nous avons filtré les mots-clés ayant été utilisés dans plus de 1 000 recherches (cf. tableau 4). Ecarter ces mots, qui sont par définition les moins discriminants, nous permet d'éviter la construction de méga agrégats centrés sur ces mots-clés. Ces mots sont au nombre de 14 sur 51 994 mots-clés étudiés soit 0,027 % de l'échantillon. Une fois ce filtre appliqué, l'ensemble de mots-clés exploité dans notre expérimentation contient 51 980 mots-clés utilisés dans 200 646 requêtes. Liste des mots-clés exclus de l'étude en tant que mots-clés non significatifs .com be don't having http l . off this where your al been el he if la she to who yourself all by elle her Il like so too why alt can for here in on st us will and com from his my our st . was with are de had is ne ours than we www as do how it keep no out th what www . at does href of re their when you Après plusieurs essais sur des échantillons, nous avons défini comme valeurs possibles les seuils de valeur minimale de CFL ou Val-Min-CFL à 5 % du poids du mot-clé et la valeur d'activation ou Val-Activ-CFL à 20 % du poids du mot-clé. Ces valeurs pourront être modifiées lors de prochaines expérimentations, elles n'ont ici que valeur d'exemple et ne constituent pas le sujet de l'étude. Mots-clés exclus car utilisés dans plus de 1 000 requêtes le 17/04/06 Mots-clés Poids Mots-clés Poids Mots-clés Poids Mots-clés Poids sale 1011 city 1273 sex 1560 new 2413 york 1071 tax 1458 lirycs 1561 free 3956 bank 1083 State 1532 country 1884 home 1139 school 1539 pictures 2020 La démarche implantée a permis de former 9 556 agrégats construits avec 38 621 mots-clés dont 24 537 mots-clés différents dans l'ensemble des agrégats (cf. figure 9). Le nombre moyen de mots-clés par agrégat est de 4,04. L'agrégat le plus important est de 133 mots-clés. Une représentation graphique du nombre de sites retournés en fonction d'une population se heurte à quelques difficultés. L'étendue des valeurs de retour et le nombre de valeurs différentes retournées sont trop considérables pour en proposer une vision graphique. Dans notre cas, nous allons de « 0 » site retourné à plus de 99 millions de sites pour certaines requêtes. Pour pallier ces difficultés, nous représenterons les résultats selon une échelle semi-logarithmique en utilisant un regroupement des valeurs dans des classes. Un repère semi-logarithmique est un repère dans lequel l'un des axes, ici celui des ordonnées (y), est gradué selon une échelle linéaire alors que l'autre axe, ici celui des abscisses (x), est gradué selon une échelle logarithmique. L'avantage d'une représentation semi-logarithmique est son aptitude à représenter des mesures qui s'étalent sur des valeurs extrêmement larges. Des représentations semi-logarithmiques en puissance de 2 ont déjà été utilisées par Zipf (1935) dans ces études sur l'occurrence des mots à l'intérieur d'un texte. Ainsi, dans la figure 10, l'axe des abscisses est gradué en puissances de 2. En effet, pour pouvoir comparer les résultats obtenus, nous avons regroupé le nombre de sites retournés dans des classes exprimées dans un espace logarithmique. Si les échelles logarithmiques sont habituellement en puissance de 10, afin de présenter une échelle plus détaillée, nous avons choisi des classes par puissance de 2. L'axe des ordonnées représente alors le pourcentage de combinaisons trouvées par classe par rapport à l'ensemble des classes. Nous comparons ici les deux courbes de réponses des deux espaces les plus éloignés sémantiquement selon le postulat posé en section 3.3.1. Nous comparerons la courbe issue des mots combinés aléatoirement (excluant des triades de mots utilisés dans une recherche) avec la courbe de référence issue du test de triades pour laquelle il existe au moins une recherche incluant ces trois mots-clés. A l'exception des triades aléatoires, les autres triades testées sont extraites d'agrégats obtenus par la méthode HLS-CFL. La comparaison s'effectue ici, dans une première phase, de manière graphique. Sur la figure 10, nous distinguons 4 zones clairement identifiables, la zone A de 0, la zone B de 2^1 à 2^9, la zone C de 2^10 à 2^20 (cf. figure 11) et la zone D supérieure à 2^20. Les zones « B » et « D » ne présentent pas beaucoup d'intérêt, les courbes ne présentant pas de différence notable. La zone « A » est limitée à une seule valeur et ne peut donc représenter une étendue suffisante pour mener notre étude. La zone « C » est la zone la plus différente et d'une plage suffisante pour avoir un sens. Afin de mieux percevoir l'importance de la « C », reprenons une lecture du graphique en omettant les zones A, B et D. La zone « C » nous servira de zone de validation sémantique. Afin de pouvoir élaborer une comparaison rapide et arithmétique, nous allons définir un coefficient approprié. Nous considérerons que les classes en puissance de deux forment une échelle d'indice « un » et comparons l'aire prise par les deux histogrammes. Le CVSC, ou coefficient de validation sémantique comparée, ayant alors la valeur « 1 » pour l'équivalence de l'histogramme des triades (de trois mots-clés) ayant été au moins une fois utilisées dans une même recherche et 0 pour la valeur de l'histogramme des triades aléatoires. La formule mathématique sera donc définie pour une courbe particulière X à valider. On aura alors, pour une courbe X : CVSCX = (AX – AA) / (AR – AA) où AR définit l'aire de l'histogramme des triades dont tous les mots sont inclus au moins une fois tous ensembles dans une recherche : où AA définit la valeur de l'aire de l'histogramme des triades aléatoires : où Ax définit la valeur de l'aire de l'histogramme des triades à comparer : Afin de déterminer une cible pour des travaux futurs, il semble important de borner vers le haut la taille des agrégats. Nous allons comparer ici les CVSC pour des agrégats de tailles différentes. Nous remarquons rapidement - que ce soit de manière graphique (cf. figure 12) ou par le calcul du CVSC - que plus le nombre de mots-clés est important, plus le CVSC a tendance à baisser. Cette courte étude nous permet de constater que les agrégats d'une taille supérieure à 30 mots possèdent un CVSC inférieur ou égal à 0.5. Il semble donc que la taille de 30 à 40 mots soit statistiquement une cible à considérer comme un maximum pour garder une certaine cohérence sémantique. Valeurs des CVSC en fonction de la taille des agrégats en zone « C » de validation sémantique Taille des agrégats en nombre de mots-clés CVSC De 3 à 9 0.89 De 10 à 19 0.80 De 20 à 29 0.61 De 30 à 39 0.57 Plus de 40 0.29 Afin d'estimer la perte de cohérence sémantique liée à la notion d'agrégats, il nous a semblé pertinent de comparer les coefficients sémantiques obtenus pour les mêmes classes d'agrégats en excluant les triades utilisées dans une recherche au moins. L'observation des chiffres du CVSC des triades issues d'agrégats et n'ayant jamais été utilisées dans une recherche par un utilisateur nous conforte fortement sur le chiffre à ne pas dépasser. En effet, les agrégats de moins de 30 mots gardent un ratio supérieur à la moyenne. Il est difficile de déterminer sans une étude détaillée au cas par cas les raisons de la baisse du coefficient. Cependant, la possibilité qu'un mot soit utilisé dans des acceptions différentes peut en être une des causes. Valeurs des CVSC en fonction de la taille des agrégats en Zone « C » de validation sémantique en excluant les triades utilisées dans une requête Taille des agrégats en nombre de mots-clés CVSC Perte De 3 à 9 0.62 0.27 De 10 à 19 0.57 0.23 De 20 à 29 0.56 0.05 De 30 à 39 0.28 0.29 De 40 à 49 0.17 0.12 Dans cette section, nous illustrons, au travers de deux exemples, deux agrégats centrés sur un mot ayant plusieurs acceptions afin d'illustrer la baisse du coefficient identifiée précédemment. L'agrégat de la figure 14 ci-après illustre les concepts de musique et de cuisine, notamment au travers du mot « chef ». Ainsi différentes acceptations de ce mot interviennent dans cet agrégat. Cependant, lors de l'évaluation de la cohérence sémantique de cet agrégat, le tirage aléatoire des mots-clés dans l'agrégat risque de générer un certain nombre de triades ayant une faible cohérence sémantique. En voici trois exemples : +nettoyage + musique + orchestre +cuisine + chef + musique +piano + nettoyage + sol A titre d'exemple supplémentaire, prenons un autre agrégat de mots : abiline, arunde, arundl, aubun, avalanche, b2600, car, cars, chevrolet, dealerships, electronic, fj40, fordsale, gaffn, hamptonroad, ignition, lexus, lynchb, maine, microwave, murrieta, outboard, parts, pax, selecti, ulster, uplander, used, usedfront, virgini, waterville. Cet agrégat a été construit grâce notamment à : la requête utilisateur qui renvoie 284 000 sites : Pax est une référence de pneu de marque Michelin et d'autres pièces détachées; la requête utilisateur qui renvoie 1 140 sites : Abiline est un centre de vente et d'achat de pièces détachées; la requête utilisateur qui renvoie 17 100 sites : Murieta est un centre de réparation de véhicules. Ces trois requêtes utilisateurs sont toutes situées dans la zone C. Cependant, la requête aléatoire issue de cet agrégat, utilisée dans la mesure de la cohérence sémantique, (où Abiline devient un prénom, Murietta le nom d'une ville et Pax le mot latin signifiant Paix) ne retourne qu'un seul site qui se trouve être présent dans la zone C ! Afin d'assurer de nouveaux services de type réseaux sociaux aux utilisateurs des moteurs de recherche, nous avons proposé un système de regroupement et de validation sémantique de mots-clés issus des fichiers de logs des moteurs de recherche. Pour illustrer cette approche, nous avons développé l'exemple d'un nouveau service de construction de communautés dynamiques. Afin de valider cette approche d'agrégation de mots-clés, nous proposons une technique comparative qui repose sur une mesure sémantique de ces agrégats en exploitant entre autres les outils de recherche sur internet comme validateurs. Cette technique peut servir à affiner et comparer les algorithmes de regroupement. La méthode de regroupement que nous avons retenue et adaptée HLS-CFL peut encore évoluer et être améliorée. La démarche de validation sémantique comparée permettra alors d'arbitrer la qualité de ces évolutions. Dans cette première approche, nous avons considéré les mots-clés comme des objets neutres et indépendants. Dans le futur, en utilisant l'algorithme de Porter et des outils intégrant Wordnet ou des dictionnaires ontologiques, des dictionnaires de synonymes ou des communautés issus de travaux tels que ceux de Kleinberg et al. (2000) ou ceux plus récents de Latapy (2007), de Gaume et al. (2008), il sera possible de faire évoluer les algorithmes vers plus d'efficacité en recombinant des agrégats de petites tailles. Il est aussi possible de repérer au sein des agrégats des ensembles « extrêmement liés » qui peuvent servir de noyaux à des méthodes complémentaires de réduction des agrégats de taille supérieure à 30 mots-clés. La réduction des agrégats de taille importante et supérieure à 30 mots-clés pourra également se faire par une modification de l'indice CFL (coefficient de fiabilité de lien) et une mise en quarantaine mieux contrôlée des mots-clés sur-utilisés ou vides. Enfin, une lecture des caractéristiques (coefficient de classification, distance moyenne, diamètre) des graphes créés par les agrégats et leur confrontation à la technique de validation peut aussi représenter une piste d'amélioration. Le regroupement de mots-clés utilisés par les utilisateurs de moteurs de recherche sur internet a plusieurs objectifs. Une fois validés comme sémantiquement cohérents, ils peuvent servir par exemple à déterminer le profil d'un utilisateur. Ainsi un utilisateur proposant des mots-clés pourra, si ses propres mots-clés sont liés à un agrégat, se voir proposer de nouveaux services : proposition de sites repères, amélioration de la procédure de recherche par la proposition de mots complémentaires et une mise en contact immédiate avec des utilisateurs ayant les mêmes centres d'intérêt. Ces agrégats peuvent également servir à déterminer de nouveaux usages linguistiques ainsi qu' à déterminer des contextes de traduction. Ils peuvent de plus être utilisés comme éléments déterminant dans la veille technologique ou commerciale pour surveiller l'apparition ou l'évolution de nouveaux centres d'intérêt. Autant de nouvelles pistes offertes par ces agrégats obtenus par l'application de notre approche .
A l'heure du web social, nous présentons une solution destinée à définir de nouveaux services tels que la construction automatique et dynamique de communautés d'utilisateurs: l'agrégation de mots-clés. Ces agrégats de mots-clés sont issus des recherches antérieures des utilisateurs réalisées au travers d'un moteur de recherche. Nous présentons la démarche que nous avons suivie pour obtenir un algorithme de regroupement des mots-clés provenant de fichiers de traçage (log) ; nous illustrons cet algorithme au travers de son application au fichier de traçage du moteur de recherche aol.com. A des fins d'évaluation et de validation, nous proposons de comparer les résultats obtenus par le moteur de recherche à partir des agrégats de mots-clés ainsi créés et de définir un coefficient de cohérence sémantique de ces agrégats. Nous mesurons dans une expérimentation la perte de cohérence sémantique liée à l'augmentation de la taille des agrégats. L'intérêt de notre approche réside dans le fait qu'elle peut être considérée comme une brique de base pour un grand nombre de systèmes « communautaires » et ainsi exploitée pour offrir encore plus de services à l'usager.
sciencesInfo_10-0065090_tei_DN_121_0081.tei.xml
termith-372-communication
L'objectif de cet article est de présenter nos travaux sur la cartographie et la navigation thématique d'un fonds documentaire composé de documents numériques scientifiques et techniques. La problématique était d'étudier et de fournir les moyens permettant à des collaborateurs d'une même communauté de pratique d'identifier et d'accéder à l'information nécessaire à leur activité contenue dans les documents. Cette étude a été initiée avec le « Groupement pour la Recherche sur lesÉchangeurs Thermiques » (GRETh) qui ont mis en place il y a deux ans un site Internet pour la diffusion des connaissances et des informations scientifiques et techniques au service de ses adhérents (principalement des industriels). Une base de données a alors été constituée. Elle contient plus de cinq cents documents dont des rapports de thèses, des rapports scientifiques et techniques (issus de recherches effectuées dans le cadre contractuel de la recherche collective du laboratoire GRETh), de la bibliographie scientifique (issue de publications d'articles de différentes sources), ainsi que de nombreux autres documents. Tous ces documents se rapportent aux métiers du GRETh qui sont basés sur la mécanique des fluides et la thermique des échangeurs. Une phase préliminaire de veille stratégique, menée par le GRETh, a conduit en partie à la constitution de cette base de données. Le nombre d'utilisateurs qui viennent rechercher de l'information est constitué d'une cinquantaine de chercheurs et d'au moins une centaine d'entreprises industrielles (les collaborateurs des entreprises ayant eux -mêmes accès au système). Notre objectif a été dans un premier temps d'étudier les différents paradigmes existants (au sens d'une problématique et de ses solutions) permettant d'accéder à un fonds documentaire scientifique et technique. Notre étude s'est alors rapidement orientée vers les techniques de visualisations interactives pour l'accès et la recherche d'informations annotées sémantiquement. Pour parvenir à notre objectif de cartographie du fonds documentaire, il a fallu au préalable mettre en place un moteur d'indexation automatique s'appuyant sur la sémantique du domaine. Puis, nous avons proposé des cartographies exploitant cette sémantique pour permettre aux usagers d'accéder aux documents. Le résultat de cette approche est la création et la mise en place d'un outil pérenne car, il favorise la diffusion et l'échange de connaissances. Notre étude a débuté par la définition, avec l'aide des utilisateurs, d'un certain nombre de besoins, comme la capacité à naviguer dans le fonds documentaire tout en gardant une vision globale de la structuration. Par la suite, l'étude des solutions existantes et l'analyse des retours d'expérience, nous ont permis de spécifier et de réaliser deux nouvelles cartographies dédiées à la navigation et à la recherche dans des fonds documentaires annotés par l'ontologie du domaine : le « EyeTree « et l ' « OntoRequest ». Pour terminer, l'ensemble de ces travaux a été validé dans le cadre de la réalisation d'un système de cartographie sémantique de fonds documentaire MISTI (Moteur Internet Sémantique pour la Thermique Industrielle). Cet article reprend et présente chronologiquement les différentes étapes de notre étude. Une documentation scientifique et technique est constituée d'un ensemble de documents qui portent sur un même domaine. Au domaine est associée une terminologie dont la signification des termes est définie en relation avec les concepts métier – c'est-à-dire l'ontologie du domaine – et à laquelle est attaché un ensemble de « mots d'usage » utilisé pour la rédaction du corpus. La prise en compte des mots d'usage permet de gérer la diversité langagière – communauté de pratique et langues naturelles – tout en se référant à la même ontologie du domaine. Par exemple, les mots d'usage « perte de charge » et « pressure drop » se réfèrent à la même notion. L'objectif de cette étude est de définir et mettre en œuvre les moyens nécessaires pour accéder à un fonds documentaire, non pas en fonction de mots-clés présents dans les documents mais, selon la modélisation du domaine définie par les experts en termes de concepts métier. L'accès à la base de connaissances doit également gérer le multilinguisme car, des documents différents dans les termes qu'ils emploient (parce que produits par des communautés de pratique différentes) peuvent néanmoins se référer aux mêmes notions; c'est en particulier le cas lorsque les documents sont rédigés dans des langues différentes. Nous avons pu identifier cinq besoins à satisfaire pour permettre de répondre à cet objectif. Identifier l'information à l'aide des concepts métier : l'identification de la « bonne information » requiert une recherche basée sur les concepts métier associés au domaine. Ces concepts sont dénotés par les mots d'usage, termes et expressions, contenus dans les documents. Cette approche de recherche est donc extralinguistique ce qui la rend très différente d'une approche par mots-clés ou par ensemble de mots (sémantique distributionnelle). De plus, une approche par concepts métier permet d'avoir une indexation elle aussi extralinguistique des documents sur l'ontologie du domaine, garantissant ainsi de retrouver l'information dans les documents indépendamment de leur langue. Avoir une vision globale du fonds documentaire : permettre à l'utilisateur de s'approprier l'information issue du fonds documentaire nécessite de lui fournir les moyens pour l'appréhender dans sa globalité indépendamment de la diversité langagière des communautés de pratiques. C'est pourquoi, il faut fournir une vision globale de l'ensemble du fonds documentaire en relation directe avec les concepts qu'il manipule. Naviguer selon la modélisation du domaine : comme décrite précédemment, l'information doit être identifiée à l'aide des concepts métier du domaine. De même, l'accès aux documents doit se faire selon la structuration de ses concepts. Ainsi, la navigation s'effectue selon la modélisation du domaine ce qui permet à l'utilisateur de comprendre, assimiler et exploiter cette modélisation. Assister l'utilisateur dans l'expression de ses besoins : une des premières difficultés, lors d'une recherche d'information, est d'exprimer sa requête. Même si l'utilisateur maîtrise bien le domaine, il lui est souvent difficile de choisir les bons éléments pour exprimer ses besoins. Ce problème est particulièrement flagrant lors d'une recherche par mots-clés avec un moteur de recherche. Il faut donc assister l'utilisateur pour construire sa requête en exploitant les connaissances du domaine et leur organisation. Présenter les résultats : la compréhension des résultats de sa recherche est une autre difficulté pour l'utilisateur. C'est pourquoi, il est nécessaire de fournir une présentation des résultats qui soit adaptée à l'utilisateur et à son activité. L'ensemble de ces besoins est lié à la nécessité pour l'utilisateur d'évoluer dans un espace informationnel souvent important. Cette problématique est donc une problématique de navigation et de recherche d'informations dans un fonds documentaire. Face à un grand nombre de documents et d'informations, il est nécessaire d'aider l'utilisateur. Pour cela, il est possible d'amplifier sa cognition en exploitant les capacités naturelles de l'homme à traiter l'information graphique. On parle alors de « visualisation de l'information » (Bertin, 1977; Card et al., 1999b) ou de « visualisation des connaissances » (Burkhard, 2004; Keller et al., 2005). Comme décrite précédemment, la problématique est de proposer une solution pour permettre aux utilisateurs de naviguer et de rechercher dans un fonds documentaire en exploitant les connaissances du domaine. Cette problématique repose alors sur deux éléments fondamentaux : La structuration du domaine du fonds documentaire : pour proposer une recherche et une navigation basées sur les connaissances du domaine, il est nécessaire de proposer et d'exploiter une structuration du fonds documentaire. Se pose alors le problème de la nature de cette structuration. La visualisation pour naviguer et interroger le fonds documentaire : la visualisation offre la possibilité d'aider l'utilisateur en exploitant ses capacités à percevoir et traiter l'information graphique. Apparaît alors la problématique du choix des techniques de visualisation. En accord avec notre approche de cartographie reposant sur l'organisation des connaissances, la partie suivante décrit les possibilités existantes pour structurer un fonds documentaire et la partie qui lui succède, décrit les techniques pour le visualiser. Depuis l'invention de l'écriture et plus couramment depuis la création des bibliothèques, se pose le problème de l'organisation des documents. L'intérêt d'un fonds documentaire n'est pas de collectionner des documents mais de permettre à des individus d'accéder aux informations nécessaires (si elles existent) pour leur activité. Cet objectif implique tout d'abord, d'identifier les informations pertinentes et ensuite, de fournir les moyens pour y accéder. Ceci n'est possible qu'en exploitant la structuration du fonds documentaire. Il paraît alors évident que la qualité des résultats est directement fonction du type de structuration. Cependant les possibilités pour organiser, classer et structurer un ensemble de documents sont nombreuses (surtout depuis l'avènement de l'outil informatique et de sa puissance de traitement). De manière générale, structurer un fonds documentaire revient à identifier des sous-ensembles constitués d'éléments (les documents) répondant à une ou plusieurs propriétés. Ces sous-ensembles sont généralement nommés des « classes ». Le processus de structuration permet d'identifier la ou les classes d'appartenance de chaque élément. Nous pouvons distinguer deux grandes familles de méthodes de structuration : la structuration par sémantique distributionnelle et la structuration par sémantique « du domaine ». La sémantique distributionnelle. Le traitement pour structurer le fonds documentaire porte uniquement sur les documents eux -mêmes et les informations qu'ils contiennent. C'est le cas par exemple, avec les algorithmes de datamining comme le clustering : l'algorithme permet de calculer une distance entre les documents, basée sur leur contenu. Selon cette distance, les documents proches appartiennent au même cluster. La sémantique « du domaine ». La structuration du fonds documentaire ne repose pas uniquement sur le contenu des documents. Elle fait appel à des ressources externes, comme des connaissances relatives au domaine pour déterminer l'appartenance d'un élément à une classe. La classe est alors nommée « concept ». Cette structuration étant propre au domaine, on parle alors de « concepts métier ». La navigation et la recherche reposent sur la structuration du fonds documentaire sous forme de classes. Le passage d'une classe à une autre est effectué en parcourant la relation qui les lie. Les relations possibles entre des classes peuvent être variées mais généralement elles correspondent soit à un treillis soit à une hiérarchie. Par exemple, dans le cas du clustering, il s'agit d'une hiérarchie de clusters et dans le cas de la sémantique du domaine, il s'agit d'une hiérarchie de concepts. Après la structuration, il nous reste à présenter la deuxième partie de notre approche : la visualisation a proprement parlé du fonds documentaire. Face à de grandes quantités d'informations, les représentations graphiques sont privilégiées. Ceci s'explique par la capacité naturelle de l'homme à assimiler et traiter, instantanément et sans effort, des informations représentées graphiquement (par exemple la position relative de villes sur une carte routière). En effet, la vue est un des sens les plus performants de l' être humain. L' œil permet de percevoir un ensemble de signaux simultanément et d'effectuer un grand nombre de traitements instantanément avant même de mettre en jeu des mécanismes cognitifs comme le raisonnement ou la mémorisation (Barsalou, 1999). Cette économie des traitements cognitifs amplifie la cognition car l'utilisateur peut alors se concentrer sur l'exploitation des informations perçues. Dans le cadre de données abstraites (par opposition aux données physiques telles que les données géographiques), comme c'est le cas dans un fonds documentaire, on parle de « visualisation de l'information » (Card et al., 1999b). De plus, si leur visualisation a pour objectif de créer ou de partager des connaissances portant sur un domaine, on parle alors de « visualisation des connaissances » (Burkhard, 2004; Keller et al., 2005). À chaque entité et à chaque relation visualisées est associée au moins une représentation graphique codée avec différentes variables (couleur, taille, forme, position…) (Bertin, 1977, 1999 (orignal : 1967)). Les représentations sont ensuite assemblées dans un espace graphique nommé « la carte ». Le passage des entités et des relations à la carte en utilisant des techniques graphiques constitue le processus de cartographie. Chaque carte est alors équivalente à une extension de la mémoire humaine. On parle alors d ' « amplification de la cognition » où la carte joue le rôle de support de la pensée (Card et al., 1999b). Cependant, la carte ne peut pas se réduire à un assemblage de représentations graphiques. Elle doit répondre à des règles pour permettre à l'utilisateur d'avoir une vision claire et efficace de son contenu. Pour être en accord avec le mantra de Shneiderman (" Overview first, zoom and filter, then details on demand ") (Shneiderman, 1996), la carte doit tout d'abord proposer une vision globale de l'ensemble des éléments représentés en s'appuyant sur les connaissances du domaine. Puis, elle doit permettre de se concentrer sur un élément ou un sous-ensemble d'éléments et d'en visualiser les détails si besoin. L'étude des besoins a permis de mettre en évidence la nécessité de proposer deux approches visuelles complémentaires pour exploiter le fonds documentaire : par navigation et par recherche. Les parties suivantes décrivent l'étude de chacune de ces approches. Depuis des années, les travaux portant sur la navigation visuelle au sein d'un ensemble d'éléments ont permis de produire de nombreuses solutions et techniques très variées. Pour déterminer si une de ces solutions pouvait répondre (en totalité ou en partie) à notre problématique, nous avons étudié leurs propriétés. Les chapitres suivants présentent la synthèse chronologique de cette étude. Face au nombre important de solutions existantes, nous les avons tout d'abord réparties en deux familles : les solutions de visualisation intra-document et les solutions de visualisation d'une collection de documents. Cette répartition est déjà proposée dans plusieurs travaux (Card et al., 1999a; Jacquemin et al., 2005). Par exemple, pour illustrer le choix de cette répartition, prenons deux systèmes très représentatifs de ces deux familles : WebBook et DocCube. WebBook (Card et al., 2004; Card et al., 1996) est un système qui permet de représenter des documents avec une métaphore de livre en trois dimensions. DocCube quant à lui, (Mothe et al., 2003) représente un fonds documentaire avec des nuages de sphères où chaque sphère correspond à un ensemble de documents. Dans notre cas, celui d'un fonds documentaire, ce qui nous concerne c'est la représentation d'une collection de documents. Nous avons donc poursuivi nos travaux par l'étude des solutions de la deuxième famille. Nous avons scindé en deux l'ensemble des solutions de visualisations de collections de documents en prenant comme critère discriminant la représentation explicite ou non de la structuration du fonds documentaire. Il est important de souligner que le fonds documentaire est nécessairement structuré. Cependant, si cette structuration est explicitement représentée, elle est mise d'avantage en valeur. Cette distinction est importante par son impact sur l'utilisateur. Dans le cas d'une représentation explicite de la structuration, l'accès aux documents se fait par l'intermédiaire de leurs classes d'appartenance (indépendamment de la façon dont ont été construites les classes, sémantique distributionnelle ou propre au domaine). Par contre, dans le cas où la structuration ne serait pas représentée explicitement, l'accès aux documents est direct. Pour illustrer cette différence prenons comme exemple le système Lighthouse (Leuski et al., 2000) pour lequel la représentation de la structuration n'est pas explicite. Les documents sont représentés par des structures visuelles dans un espace en trois dimensions. La structuration du fonds documentaire concerné repose sur une fonction de distance (similarité entre les documents) qui donne une répartition spatiale des documents. L'utilisateur appréhende l'ensemble des documents à travers leur répartition dans la carte. Le système DocCube (Mothe et al., 2003) décrit précédemment, appartient lui aussi à cette catégorie. Pour illustrer l'autre cas, prenons l'exemple du système Grokker 1 pour lequel la représentation de la structuration des documents est explicite (ici des documents accessibles via Internet). Les documents sont structurés à l'aide d'une hiérarchie de clusters. La visualisation est constituée d'un cercle global correspondant au cluster le plus général. Ce cercle contient la représentation de ses sous-clusters et ceci de manière récursive jusqu'aux documents représentés par des carrés. Pour accéder aux documents, l'utilisateur est guidé par la structuration en parcourant les niveaux hiérarchiques de clusters. La représentation de la structuration favorise son apprentissage par les usagers. Un des besoins lié à notre problématique est d'avoir une navigation dans le fonds documentaire guidé par la structuration du domaine. Par conséquent, il est important d'aider les utilisateurs à comprendre et assimiler cette structuration. C'est pourquoi nous écartons les solutions qui ne représentent pas explicitement la structuration comme Data Mountain (Robertson et al., 1998), ThemeScapes (Wise et al., 1995), Galaxy Of News (Rennison, 1994), Bib3D (Cubaud et al., 1998; Cubaud et al., 2001) et Vibe System (Olsen et al., 1993). À ce stade de l'étude, il reste encore toutes les solutions qui permettent de visualiser une collection de documents en représentant explicitement leur structuration. La représentation explicite de la structuration peut se ramener à une représentation de type « nœud-lien » où les nœuds représentent les classes et les liens représentent les relations entre les classes. Ce constat nous a donc amenés à écarter toutes les solutions exploitant des techniques de pavage (Baker et al., 1995) comme les « treemaps » (Johnson et al., 1991; Wijk et al., 1999), les « cushion treemaps » (Wijk et al., 1999), les « beamtrees » (Ham et al., 2003) et les « information slices » (Andrews et al., 1998). Le choix d'une technique de visualisation dépend beaucoup de la structure des données à visualiser. Dans le cadre de la structuration d'un fonds documentaire, nous pouvons avoir principalement un treillis ou une hiérarchie. Par la suite, nous avons réparti les solutions restantes en solutions pour les treillis et solutions pour les hiérarchies. Les treillis. Les travaux dans le domaine de la visualisation d'information proposent de nombreuses solutions de dessin de treillis avec des représentations de type nœuds-liens (Tollis, 1996). Ces solutions varient principalement selon les algorithmes utilisés pour placer les nœuds et pour dessiner les liens. Les hiérarchies. Les travaux pour visualiser des hiérarchies sont extrêmement plus variés. Ils vont du « treeview simple » (présent dans les systèmes d'exploitation pour visualiser une arborescence de fichiers) aux arbres de cônes en 3D (Robertson et al., 1991) en passant par les arbres hyperboliques (Lamping et al., 1995). Notre objectif est également de proposer une solution pour permettre aux utilisateurs d'accéder à l'information pertinente pour leur activité. Pour cela, il faut lui fournir les outils pour construire une requête, puis la soumettre au système et enfin, lui présenter les résultats. Les utilisateurs sont habitués à effectuer des recherches d'informations (l'exemple le plus courant est la recherche sur Internet). Généralement ces recherches sont proposées via une interface possédant un champ de saisie, pour saisir dans un premier temps une requête en langage naturel et une zone pour afficher dans un deuxième temps les résultats. La requête doit exprimer les besoins de l'utilisateur et, tout comme la structuration du fonds documentaire, elle doit s'appuyer sur les connaissances du domaine. Par exemple, l'utilisateur doit pouvoir formuler une requête pour retrouver tous les documents traitant d'un thème donné. Une des principales difficultés pour les utilisateurs est de construire leurs requêtes et de déterminer les éléments qui doivent la constituer (Mothe et al., 2003). Un utilisateur même familier avec le domaine concerné, saura reconnaître un concept à partir de termes qui le dénotent alors qu'il ne saura pas toujours donner les termes qui dénotent un concept 2. Nous sommes généralement dans le deuxième cas où l'utilisateur sait quels sujets (thèmes ou concepts) il recherche sans nécessairement connaître tous les mots d'usage utilisés dans le corpus. Dès lors, il apparaît nécessaire d'aider l'utilisateur à construire sa requête en proposant de sélectionner des concepts métier parmi ceux déjà identifiés dans le domaine. La construction de la requête ainsi que l'exploitation des résultats associés, ne doit pas surcharger cognitivement l'utilisateur pour le laisser se concentrer sur sa tâche principale : exploiter la bonne information. Mais, face à un grand nombre de concepts métier, l'utilisateur ne peut plus sélectionner directement ceux qui vont constituer sa requête sans entraîner une surcharge cognitive. Pour permettre une économie cognitive, l'approche courante est d'utiliser des techniques de visualisation de l'information représentant graphiquement les classes du fonds documentaire. On retrouve cette approche dans le système OntoExplo (Hernandez, 2005; Hernandez et al., 2004) : Un treillis de concepts est représenté et lorsqu'un utilisateur sélectionne un concept, les documents associés sont affichés. L'étude préalable a permis de mettre en évidence la nécessité de combiner des techniques de structuration et de visualisation pour permettre à l'utilisateur d'exploiter au mieux les informations d'un fonds documentaire. Notre proposition reprend ces principes pour aboutir à une cartographie sémantique d'un corpus annoté par l'ontologie du domaine. La structuration du fonds documentaire, la navigation au sein de la base documentaire, tout comme l'expression de la requête, reposent sur la modélisation des concepts métier, c'est-à-dire sur l'ontologie du domaine. Bien que les ontologies connaissent depuis plusieurs années un succès qui ne se dément pas (Gomez-Perez et al., 2004), et qui s'explique principalement par ce qu'elles promettent, c'est-à-dire la possibilité de définir une conceptualisation d'un domaine qui soit à la fois consensuelle et partageable entre des acteurs humains et logiciels (Duineveld et al., 2000), il n'existe pas vraiment de consensus quant à leur définition (Gruber, 1993). Néanmoins la définition de T.R. Gruber reste la plus souvent citée en ingénierie des connaissances : « An ontology is an explicit specification of a conceptualization » (Gruber, 1993), c'est-à-dire une description, dans un formalisme compréhensible par un ordinateur, des concepts et des relations d'un domaine, partagée par une communauté d'agents ». Dans le cadre de nos travaux, notre choix s'est porté sur le modèle ontologique OK 3 (Roche, 2001) qui permet d'obtenir de la part des experts des définitions consensuelles, condition sine qua non de la réelle utilisation d'une ontologie. La structuration du fonds documentaire correspond à une classification des documents sur l'ontologie du domaine. Elle se fonde sur l'annotation sémantique des documents (Kiryakov et al., 2003), c'est-à-dire sur l'association pour chaque document des concepts référencés par son contenu. Pour cela il est nécessaire de définir au préalable la terminologie de l'entreprise, c'est-à-dire d'associer aux mots d'usage de ses différents vocabulaires (correspondants aux différentes communautés de pratique et langues utilisées) leurs significations en référence aux concepts métier de l'ontologie. L'analyse linguistique du contenu des documents, sur la base des mots d'usage apparaissant dans les textes, permet de les indexer sur les concepts appropriés. Il est à souligner que la classification obtenue est extralinguistique. Les documents, quelles que soient leurs langues d'écriture et quelles que soient les communautés de pratique qui les produisent, sont indexés sur la même ontologie. Ainsi une requête exprimée dans une langue donnée retournera tous les documents, quelles que soient leur langue, correspondant aux concepts associés à la requête. Comme nous l'avons vu précédemment, il existe de nombreuses techniques de visualisation de l'information qu'il est possible d'appliquer à un fonds documentaire. Nous définissons la visualisation des connaissances comme l ' « utilisation de représentations visuelles de données abstraites pour amplifier la cognition à finalité de création et/ou de partage de connaissances ». Cette définition reprend la définition généralement admise de la visualisation de l'information – « utilisation de représentations visuelles de données abstraites pour amplifier la cognition » (Card et al., 1999b) – mais à laquelle on adjoint un objectif de création et de partage de connaissances. Cette vision est proche de celles qui sont présentées par plusieurs auteurs dans leurs travaux récents (Burkhard, 2004; Burkhard, 2005; Keller et al., 2005). La conséquence directe de cette vision est d'obliger à tenir compte des connaissances du domaine et de leur sémantique pour guider le choix des techniques de visualisation. Notre problématique a pour finalité de mettre en œuvre un moteur de recherche exploitant la sémantique du domaine pour permettre aux usagers, d'accéder à un outil pérenne qui favorise la diffusion et l'échange de connaissances. Cet objectif est l'objet même de la visualisation des connaissances. Le domaine de la visualisation des connaissances offre de nombreuses techniques. Si le choix et la mise en œuvre de ces techniques sont guidés par les connaissances du domaine – on est donc dans le cadre de la visualisation des connaissances – on parle alors de « cartographie sémantique ». Nous la définissons comme l ' « ensemble des opérations de conception et d'élaboration de cartes (interactives) pour visualiser des connaissances ». Cette définition est basée sur la définition de la cartographie mais appliquée aux connaissances. À la lumière de ces éléments nous pouvons réécrire notre problématique comme la recherche de solutions pour cartographier sémantiquement un fonds documentaire scientifique et technique. La partie suivante présente la mise en œuvre de notre approche pour cartographier sémantiquement le fonds documentaire du GRETh. Ne disposant pas d'évaluations absolues des techniques de visualisation (Plaisant, 2004), nous n'avons pas pu déterminer la meilleure technique (si elle existe) pour cartographier un fonds documentaire annoté sémantiquement. C'est pourquoi, nous avons réalisé plusieurs cartographies à partir de techniques graphiques existantes et nous avons capitalisé les retours d'expérience des utilisateurs pour déterminer la meilleure solution (Tricot et al., 2006). Le choix des techniques a été guidé par l'analyse des retours des utilisateurs finaux. Par exemple, les utilisateurs reprochaient au « treeview simple » son manque de visibilité face à une grande hiérarchie; ils souhaitaient en avoir une vision globale. Pour prendre en compte cette remarque, nous avons ensuite proposé une cartographie en trois dimensions. Ainsi, dans le cadre de cette étude, nous avons réalisé des navigateurs basés sur des visualisations de type « treeview simple », puis arbres de cônes (Robertson et al., 1991) et arbres hyperboliques (Lamping et al., 1995). Les retours d'expérience de l'utilisation de ces différentes cartographies nous ont permis d'identifier, dans le cadre de notre application, quatre critères principaux pour la réalisation d'une carte sémantique interactive : utiliser une technique de type « focus + context » (Card et al., 1999c) pour permettre à l'utilisateur de se concentrer sur certains éléments tout en facilitant l'accès aux autres éléments; utiliser une géométrie euclidienne pour ne pas perturber la perception naturelle des manipulations du plan (par opposition aux arbres hyperboliques (Lamping et al .,1995)); proposer une vue globale de l'ontologie permettant à l'utilisateur de facilement appréhender l'ensemble des concepts du domaine; pouvoir parcourir la base de connaissances tout en gardant un point fixe de référence. Forts de ces résultats, nous avons été amenés à définir un nouveau paradigme basé sur une technique de visualisation de type « fisheye » avec un plan qui possède une géométrie euclidienne : la technique visuelle de « Fisheye Polaire » (Sarkar et al., 1992) prenant en compte les critères précédents. Voici le résultat obtenu avec un nœud sélectionné (figure ci-dessus). Cette technique fait partie des techniques de représentation avec déformation (Furnas, 1999; Leung et al., 1994; Sarkar et al., 1992). Pour cela, les nœuds sont répartis radialement dans l'espace euclidien avant de subir une transformation via une fonction d'amplification continue appliquée aux coordonnées polaires des nœuds. L'objectif est de permettre à l'utilisateur de construire une requête de concepts métier. Dans ce cas, l'utilisateur doit pouvoir sélectionner les concepts désirés depuis l'ontologie puis lancer sa recherche. Le résultat est alors l'ensemble des documents indexés sur tous les concepts de la requête (l'intersection des ensembles de documents associés à chaque concept). Tout comme l'EyeTree, OntoRequest exploite les capacités de perception de l'homme. Pour cela, il cartographie la requête par un disque au centre de la carte. En périphérie de ce disque sont représentés, par des disques plus petits, les concepts sélectionnés (initialement les catégories de l'ontologie). Voici ci-dessous une saisie d'écran d'une requête constituée de cinq concepts (« Condition de fonctionnement », « Fluide », « Objectif », « Mode de Fabrication » et « Transfert ») : Par opposition à l'EyeTree, l'ontologie entière n'est pas représentée mais uniquement les concepts sélectionnés. L'attention de l'utilisateur est alors concentrée sur sa requête à savoir les concepts sélectionnés. Si l'utilisateur souhaite modifier sa requête afin de l'étendre ou de la restreindre, il lui suffit de généraliser ou spécialiser les concepts en parcourant la relation de généralisation/spécialisation. Pour chaque concept à spécialiser (ou généraliser), l'utilisateur sélectionne sa représentation qui se place dynamiquement à droite de la requête et déploie ses sous-concepts. Il suffit ensuite à l'utilisateur de sélectionner le sous-concept désiré. La saisie d'écran ci-dessous représente le résultat de la sélection du concept « fluide » : Le résultat de la requête, représenté par le disque central, est l'intersection des ensembles de documents rattachés aux concepts situés en périphérie (à chaque concept est associée l'union des documents rattachés à tous les concepts qu'il subsume). Le « Groupement pour la Recherche sur les Échangeurs Thermiques » (GRETh) – à l'origine de ces travaux – a mis en place un site internet pour la diffusion des connaissances et des informations scientifiques et techniques au service de leurs adhérents qui sont principalement des industriels. Ces informations (articles, thèses, rapports techniques et scientifiques, etc.) sont regroupées au sein d'une base de données. Tous ces documents se rapportent aux métiers du GRETh, basés sur la mécanique des fluides et la thermique des échangeurs. Dans ce contexte -là, notre approche a été mise en œuvre dans le système MISTI (Moteur Internet Sémantique pour la Thermique Industrielle) : portail web de recherche et de navigation dans un fonds documentaire scientifique et technique. En tenant compte des résultats présentés précédemment, nous avons défini un système offrant à l'utilisateur trois approches pour retrouver l'information dont il a besoin pour son activité : une approche classique : l'interface principale, une approche par navigation : l'EyeTree, une approche par construction de requête : l'OntoRequest. Dans le système Misti, les trois approches sont accessibles par des onglets : un onglet par approche de recherche. Elles sont décrites dans les parties suivantes. Les utilisateurs sont habitués à effectuer des recherches d'informations en soumettant à un système une requête en langage naturel. Nous estimons que cette méthode de recherche « classique » est nécessaire pour ne pas perturber les utilisateurs habitués à cette méthode. C'est pourquoi, MISTI propose une méthode de recherche classique mais, tout comme l'EyeTree et l'OntoRequest, en exploitant l'ontologie du domaine. La recherche est effectuée en deux temps : la construction de la requête et l'affichage des résultats. La construction de la requête. L'utilisateur exprime sa requête en langage naturel dans un champ de saisie. Elle est constituée de termes qui dénotent pour l'utilisateur des concepts métier. La requête est ensuite soumise au système qui analyse les termes, identifie des concepts métier et retourne les documents associés. Par exemple, l'utilisateur va demander au système de trouver « les documents qui traitent des conditions de fonctionnement ». Le système identifie alors le concept métier « Condition de fonctionnement » et retourne les documents associés. Pour assister l'utilisateur, le système propose une vue arborescente classique de la hiérarchie de concepts métier du domaine. Lorsque l'utilisateur sélectionne un des concepts, le système l'ajoute au champ de saisie. L'affichage des résultats. Une fois la requête analysée, le système récupère un certain nombre de documents correspondants. À chaque document, il associe un « marqueur sémantique » sur la base de la fréquence d'apparition de chacun des concepts métier de la requête. La corrélation de ces fréquences fournit un niveau de pertinence. La liste des documents est ensuite affichée par ordre décroissant de pertinence. Voici une saisie d'écran de la recherche avec comme requête « condition de fonctionnement » : Les deux paradigmes, EyeTree et OntoRequest, décris précédemment sont intégrés à Misti. Ils constituent les deux approches complémentaires de recherche : navigation et construction de requête. Dans les deux cas, l'interface est divisée en deux avec à gauche, le paradigme concerné et à droite, un volet pour afficher les résultats. Ainsi l'utilisateur n'est pas perturbé en passant d'une interface à une autre. La saisie d'écran (ci-dessous) représente l'EyeTree avec le concept « Condition de fonctionnement » sélectionné. Le volet de droite contient la liste des documents associés à ce concept. La cartographie sémantique, que nous définissons comme l'ensemble des opérations de conception et d'élaboration de cartes (interactives) pour visualiser des connaissances, basée sur les connaissances du domaine permet une exploration de fonds documentaires qui répond aux besoins exprimés en termes de navigation, de vision globale et d'expression des besoins. La modélisation des connaissances du domaine sous la forme d'une ontologie a permis non seulement de structurer le fonds documentaire via une annotation sémantique de son contenu mais aussi, de spécifier et de réaliser deux nouvelles solutions graphiques dédiées à la cartographie de documents techniques annotés par une ontologie de domaine : L ' « EyeTree » et l ' « OntoRequest ». Ils ont été validés dans le cadre de la réalisation d'un système de cartographie sémantique de fonds documentaire MISTI (Moteur Internet Sémantique pour la Thermique Industrielle). L ' « EyeTree », navigateur graphique de type « fisheye polaire » (focus+context avec déformations linéaires) permet des interactions dédiées à l'exploration d'ontologies (parcours de sous éléments par rapport à un point fixe). L ' « OntoRequest » permet de construire graphiquement une requête, basée sur la structuration ontologique des concepts métier du domaine, sans obliger les utilisateurs de maîtriser les connaissances du domaine. Il a l'avantage de permettre aux utilisateurs de généraliser et spécialiser leur requête intuitivement et sans surcharge d'informations. La définition de ces deux outils n'a pas été immédiate. Elle a nécessité de nombreuses adaptations en accord avec les retours d'expérience des utilisateurs. Nous les avons donc obtenus suite à de nombreuses expérimentations et à plusieurs changements pouvant être de l'ordre de l'évolution (par exemple la modification des animations) ou de l'ordre du changement profond (comme le choix d'une toute nouvelle représentation). Ces travaux ont permis de mettre en lumière l'importance de réaliser des cartographies basées sur une structuration sémantique du fonds documentaire et sur les retours d'expérience. Cette conclusion est généralisable à d'autres domaines et il s'agit de l'objet même de la cartographie sémantique : cartographier les connaissances d'un domaine en exploitant sa structuration sémantique .
L'objectif de cet article est de présenter nos travaux sur la cartographie et la navigation thématique d'un fonds documentaire composé de documents numériques. La problématique était d'étudier et de fournir les moyens pour identifier et accéder à l'information contenue dans les documents nécessaires à une activité. Dans un premier temps, nous avons étudié les différentes solutions existantes et nous nous sommes alors rapidement orientés vers les techniques de visualisations interactives pour l'accès et la recherche d'informations annotées sémantiquement. Pour parvenir à notre objectif, il a fallu au préalable mettre en place un moteur d'indexation automatique s'appuyant sur la sémantique du domaine. Puis nous avons proposé des cartographies exploitant cette sémantique et le résultat de cette approche est la création et la mise en place d'un outil pérenne car il favorise la diffusion et l'échange de connaissances.
sciencesInfo_07-0413125_tei_DN_092_0013.tei.xml
termith-373-communication
DE NOMBREUSES BIBLIOTHEQUES ET CENTRES DE DOCUMENTATION bâtissent des portails riches et variés. Pour s'en convaincre, il suffit de consulter les sites de la Bibliothèque publique d'information, de la bibliothèque municipale de Lyon, de la Cité des sciences et de l'industrie ou de la Bibliothèque de documentation internationale contemporaine. .. Toutefois, force est de constater que les réalisations les plus abouties sont portées par des établissements plutôt bien dotés en moyens techniques et humains. Depuis quelque temps sont apparus sur le marché des logiciels portails pour les bibliothèques et les centres de documentation : les tableaux 1 et 2 présentent le cadre technique et les principales fonctionnalités de quelques-uns des produits disponibles en France [voir aussi le hors texte pages 244 et 247 ]. L'émergence de cette offre de logiciels portails laisse penser que les fournisseurs s'attendent à une généralisation de l'utilisation de ces outils par un grand nombre de clients, bien au-delà de la population des très grands établissements. Les arguments mis en avant par les commerciaux sont plus que séduisants : le portail rend possible la conquête d'un public distant, il fidélise l'usager et donne de la visibilité à l'offre de services… Alors ce portail est-il un nouveau miroir aux alouettes ou bien la solution miracle pour inverser le mouvement de désaffection du public ? S'il tient un peu des deux, le portail est avant tout un outil exigeant dont la mise en œuvre s'accompagne de quelques écueils que deux ou trois manœuvres élémentaires permettront d'éviter. S'il est difficile d'appréhender un portail de bibliothèque ou de centre de documentation sous l'angle de son offre de services – ceux -ci variant grandement d'un établissement à l'autre –, il est plus aisé d'en examiner les composants : le système de gestion de contenu d'une part et la recherche fédérée d'autre part. Le système de gestion de contenu (ou CMS pour content management system) est un logiciel permettant de gérer de manière aisée et efficace les pages statiques et dynamiques d'un site web. Il dispose de multiples fonctions : gérer l'intervention de plusieurs rédacteurs sur un document; séparer les opérations de rédaction et de mise en forme pour publication sur le Web; offrir l'accès à des services de communication entre les usagers et les bibliothécaires et documentalistes (forum de discussion, intervention dans un blog, fenêtre de chat, etc.); organiser l'accès des utilisateurs du site web à des contenus structurés (par exemple des listes de questions fréquemment posées, des fils RSS); structurer le portail en un ensemble de pages HTML, agréable à consulter et d'un usage facile. Les logiciels portails pour bibliothèques et centres de documentation : l'offre d'outils de recherche fédérée et de gestion de contenu Dans un ouvrage récemment paru sous ce titre, Marc Maisonneuve et Cécile Touitou (Tosca Consultants) analysent l'offre française de logiciels portails. La première partie de ce livre présente les composants et l'architecture fonctionnelle d'un portail, les logiciels qu'il faut éventuellement lui associer, ainsi qu'une sélection de sites portails de bibliothèques françaises et étrangères. Quelques tableaux de synthèse permettent de dégager les grandes lignes de l'offre de progiciels; deux d'entre eux illustrent cet article. La deuxième partie décrit les caractéristiques fonctionnelles et techniques de huit solutions disponibles sur le marché français. Les produits sélectionnés pour cette enquête menée en octobre 2006 sont ceux de sociétés intervenant dans le secteur des bibliothèques et des centres de documentation (celles qui diffusent des portails généralistes plutôt destinés aux entreprises commerciales n'ont pas été approchées). Tous ces produits offrent à la fois des fonctions de recherche fédérée (permettant la consultation simultanée de plusieurs sources) et celles d'un système de gestion de contenu (apportant une aide à la publication sur le Web). Il s'agit des sociétés et progiciels : Archimed pour ses produits Incipio et Ermes; Cadic pour son progiciel Cadic intégrale; Ever Ezida pour sa solution Flora; Ineo media system pour Mediaview; Infor-Extensity France pour son produit V-Spaces; Innovative Interfaces Ltd pour quatorze progiciels ou modules assurant des fonctions complémentaires; Jouve pour Portail Jouve; SirsiDynix pour Portail HIP 4 (puis EPS associé à Symphony) et les produits de Serials Solutions Les sociétés contactées correspondent à deux types d'entreprise avec d'un côté des filiales ou des divisions de grands groupes aux activités diversifiées (Infor - Extensity France, Ineo media system, Jouve et Ever Ezida) et de l'autre des fournisseurs spécialisés intervenant essentiellement dans le secteur de la documentation (Archimed, Cadic, Innovative Interfaces Ltd et SirsiDynix). Cinq de ces entreprises sont d'origine française (Archimed, Cadic, Ever Ezida, Ineo media system, Jouve) et deux d'entre elles sont américaines (Innovative Interfaces Ltd, SirsiDynix); la dernière (Infor - Extensity France) a des origines canadienne et belge. Les annexes de cet ouvrage comprennent un glossaire, un index de sigles, des listes de sites de référence et un commentaire détaillé du questionnaire soumis aux fournisseurs rencontrés.ADBS Éditions, 2007, 215 pages, Collection « Sciences et techniques de l'information », ISBN : 978-2-84365-091-8, 25 euros. Ces fonctions doivent permettre à l'administrateur du site tant de concevoir aisément la première version du portail que de faciliter par la suite sa mise à jour régulière. Elles doivent simplifier d'une part l'ajout de textes ou d'illustrations et d'autre part la mise en forme graphique de l'ensemble. L'un des attraits des CMS est également d'éviter la manipulation directe des balises HTML ou l'utilisation d'un éditeur HTML. Sans être une opération délicate, la mise en œuvre du CMS nécessite à la fois une adaptation de l'organisation et l'acquisition de compétences informatiques spécifiques. En effet, pour gérer au mieux l'intervention de plusieurs rédacteurs sur un document, le CMS a besoin de s'appuyer sur une procédure formalisée précisant qui peut proposer un article, qui peut y apporter des corrections, qui peut en valider le contenu ou la mise en forme, qui décide de sa mise en ligne, puis de sa mise à jour ou de son retrait… C'est la première difficulté organisationnelle : il faut définir les procédures de publication avant de penser au déploiement de l'outil. Si le portail donne également accès à des services en ligne, comme une fenêtre de chat pour dialoguer avec un bibliothécaire, nul besoin de souligner qu'il faudra également définir l'organisation support de ce service avant tout début de déploiement. Par ailleurs, si le CMS affranchit effectivement le webmestre de la manipulation des balises HTML, il lui demande néanmoins de sérieuses connaissances en informatique comme l'utilisation de XSL, le langage de description de feuilles de style, la maîtrise du langage XML ou de la technique de la syndication de contenu (Atom, RSS, etc.). La réussite du déploiement du CMS va donc mobiliser de multiples compétences : rédactionnelles, organisationnelles et informatiques. C'est un travail d'équipe pour lequel les savoir-faire des bibliothécaires et des documentalistes sont les bienvenus mais pas nécessairement au cœur des besoins. Deuxième composant essentiel du portail d'un centre de documentation ou d'une bibliothèque, la recherche fédérée est un service proposé à l'usager lui permettant en une seule requête de consulter plusieurs sources de données, hétérogènes tant du point de vue des formats que des contenus. Un logiciel de recherche fédérée dispose de trois fonctions essentielles : présentation structurée des sources d'information interrogeables afin de faciliter la sélection par l'usager des bases à solliciter; saisie de la requête de l'usager et transmission de celle -ci aux bases qu'il a sélectionnées dans une syntaxe adaptée aux caractéristiques de chacune; affichage des résultats de la recherche, avec ou sans dédoublonnage, avec ou sans regroupement des réponses apparentées. La traduction de la requête dans une syntaxe spécifique à chaque base s'appuie sur un connecteur développé par le fournisseur du logiciel ou plus rarement par un tiers. La charge et la complexité de l'exploitation de la recherche fédérée sont directement en rapport avec le nombre de bases auxquelles l'accès est proposé. Au-delà d'une dizaine de sites, les fréquentes et imprévisibles évolutions de ces bases vont nécessiter d'incessantes mises à niveau des connecteurs. Comme rien ne garantit que l'éditeur d'une base commerciale aura pris le soin de prévenir le fournisseur du portail – ou même la bibliothèque qui bénéficie pourtant d'un abonnement à cette base – des évolutions techniques qu'il a réalisées, il faudra sans cesse être à l'affût afin de repérer ces évolutions, de les qualifier et de trouver l'adaptation à apporter au connecteur. Horreur pour les informaticiens, le module de recherche fédérée est en fait un système jamais stabilisé ! Mieux vaut donc disposer non seulement d'un bon contrat de maintenance et d'assistance mais également des compétences internes nécessaires à la surveillance du service. Pour répondre à ces besoins, certains fournisseurs, comme WebFeat 1 ou Serials Solutions 2, proposent d'ailleurs d'héberger eux -mêmes le module de recherche fédérée. Même si les compétences documentaires sont tout à fait essentielles pour la qualité du service de recherche fédérée, notamment pour la présentation structurée des sources d'information, le paramétrage des logiques de dédoublonnage ou de grappage 3 des références, etc., ce sont les compétences informatiques, connaissances des technologies du Web et des spécificités des bases des éditeurs, qui pourront garantir dans la durée le bon fonctionnement du service. L'environnement technique des portails Navigateurs supportés par le poste client Environnement du serveur Société Progiciels commercialisés Microsoft Mozilla Autres Système SGBD Internet Firefox navigateurs d'exploitation Explorer cités Archimed Incipio, Ermes 5 1.0 Windows 2000 SQL Server et suivantes et suivantes ou 2003 Cadic Cadic intégrale 5.5 1.0.3 Windows 2000 et suivantes et suivantes ou 2003, Linux Sun Solaris , et HP-UX Ever Ezida Flora Oui Oui Opera , Serveur web frontal : SQL Server 2000 , Safari… Apache 2.0.44, IIS 5.0, 6.0 . Oracle 8.1.7, 9i et 10g , Serveur web d'applications : MySQL 4.1 et tout SGBD Tomcat 4.1.18, Tomcat 5.5 - proposant un driver JDBC 1.3 . WebLogic 7.0 ou 8.0 et tout autre serveur conforme J2EE - JVM 1.4 . Serveur de bases de donnée : Windows 2000, 2003 Server , Linux, Sun Solaris, AIX, HP-UX . Ineo media system Mediaview Oui Oui Windows ou Linux PostGreSQL Infor-Extensity France V-Spaces Oui Oui Opera, Safari… Linux, Unix, Windows et serveur http IIS ou Apache Innovative Interfaces Ltd Research Pro, WebBridge , Oui Oui Opera… Unix et Linux Web Access Management , Electronic Resource Management , MetadataBuilder, XML Harvester , Millennium Media Management , Support SSO, Interface LDAP , Symposia, RSS Feeds, Community Review , interface enfants, module gestion des activités . Jouve Portail Jouve 6 1.6 Netscape Linux et suivantes et suivantes Navigator v7 et suivantes SirsiDynix Portail HIP 4 (Horizon Information Portal) , Oui Oui Netscape Serveur Unix , puis EPS associé à Synphony Navigator Linux et Les produits de Serials Solutions Windows . WebFeat Serveur d'application Java JBoss/Tomcat Outre les difficultés associées aux deux principaux composants du portail, le CMS et la recherche fédérée, il faut également évoquer les exigences d'une bonne intégration du portail dans le système d'information de la bibliothèque ou du centre de documentation. Bien intégrer le portail, cela signifie qu'il n'y aura pas d'information à ressaisir dans l'un ou l'autre des outils, qu'il n'y aura pas de décalage dans les informations gérées par ces différents logiciels et que les informations utiles au portail mais hébergées par un autre système seront effectivement mises à sa disposition sans intervention humaine. Plus précisément, cela pose le problème du partage de trois types d'information : la base des usagers inscrits, utilisée à la fois par le portail et par le système de gestion de bibliothèque ou le système documentaire; le catalogue des ressources électroniques susceptibles d' être signalées dans le système de gestion de bibliothèque ou le système documentaire et nécessairement répertoriées par le module de recherche fédérée; les informations structurées décrivant pour chaque ressource électronique les droits de représentation et de reproduction que la bibliothèque ou le centre de documentation a pu acquérir et qui peuvent être stockées dans le système de gestion de bibliothèque ou dans un ERM 4 tiers. La couverture fonctionnelle des logiciels portails Cadic Ever Ezida Infor - Extensity France Innovative Interfaces Ltd Ineo media system Jouve Sirsi-Dynix Archimed Fonctions principales Publication automatique d'informations Oui Oui Oui Oui Oui Oui Oui Oui issues du catalogue Aide à la publication d'articles Oui Oui Oui Oui Oui Oui Oui Oui rédigés par la bibliothèque Syndication de contenus Oui Oui Oui Oui Oui Oui Oui Oui Customization du portail Oui Oui Oui Oui Oui Oui Oui Oui Personnalisation par l'usager du portail Oui Oui Oui Oui Oui Oui Oui Oui Définition d'alertes, de profils de Oui Oui Oui Oui Oui Oui Oui Oui diffusion sélective d'information Interrogation simultanée de l'opac , Oui Oui Oui Oui Oui Oui Oui Oui de bases locales et de bases web en ligne Assistance linguistique pour améliorer Oui Oui Oui Oui Oui Oui Oui Oui les performances de la recherche Rebond vers des moteurs de recherche Oui Oui Oui Oui Oui Oui Oui Oui Gestion des droits de consultation , En partie En partie Non En partie Oui Oui Oui Non d'impression et déchargement de données relatifs à l'opac et bases web sollicitées Autres fonctions importantes Référence en ligne Oui Non Non Non Non Oui Non Non Blog ou espace publication collaborative Non Non Oui Non Non Oui Oui Non Liste de diffusion Oui Non Oui Non Non Oui Oui Non Outil de suivi des échanges avec les usagers Oui Oui Oui Non Non Oui Oui Non Statistiques sur les fonctions utilisées Oui Oui Oui Oui Oui Oui Oui Non Statistiques sur les usagers de chaque fonction Oui Oui Oui Oui Oui Oui Oui Oui Relevant d'une réflexion initiale, avant tout début de réalisation, la définition de l'architecture est associée à d'importants enjeux car c'est d'elle que dépend au bout du compte une bonne partie de la charge d'exploitation de l'ensemble des applicatifs. Cette réflexion nécessite la mobilisation de deux types de compétences, celles du bibliothécaire ou du documentaliste, d'une part, pour définir ses priorités de service, et celles de l'informaticien, d'autre part, pour définir le domaine du possible et proposer les solutions techniques adaptées. L'exposé des quelques embûches qui pourraient jalonner le parcours du chef de projet ne doit pas décourager les bonnes volontés. Réussir la mise en œuvre du portail, le rendre attrayant lors de son lancement et dans la durée, cela demeure une entreprise passionnante et dont les enjeux justifient grandement les moyens à lui consacrer. La diversité des compétences nécessaires à une parfaite maîtrise du projet – bibliothécaire et/ou documentaliste, technicien du web, organisateur, rédacteur, concepteur d'architecture, etc. – fournit cependant quelques explications au constat effectué en introduction : ce n'est pas un hasard si le portail demeure aujourd'hui l'outil de grands établissements, bien dotés en compétences diverses. Le discours des fournisseurs : « Mon outil réglera vos problèmes; avec lui tout deviendra simple ! » doit donc probablement être nuancé…
Depuis quelque temps, des grands services et établissements documentaires proposent à leurs usagers des portails, supports d'une offre de services en ligne attrayante et diversifiée. La mise en oeuvre de tels portails est une opération délicate qui exige des moyens importants, quelques précautions, et une bonne maîtrise des composantes des outils logiciels disponibles sur le marché : le système de gestion de contenu (aide à la publication sur le Web) et la recherche fédérée (consultation simultanée de plusieurs sources).
sciencesInfo_07-0504918_tei_DOCSI_idPAS_D_ISBN_pu2007-03s_sa05_art05.tei.xml
termith-374-communication
L'utilisation de Pseudo-Relevance Feedback 1, dans la suite notée PRF, a fait l'objet d'un grand nombre d'études depuis plusieurs décennies et beaucoup de modèles ont été proposés dans ce cadre. Rappelons rapidement le fonctionnement du PRF : Partant d'une requête, une première recherche est faite à l'aide d'un système de recherche d'information (RI); ce système fournit une liste de documents triés suivant un score de pertinence; On considère les n premiers documents (qui constitueront l'ensemble de feedback), desquels on extrait tc termes significatifs; Ces termes sont ensuite ajoutés à la requête initiale, de façon à produire une nouvelle requête plus complète; Enfin, les documents retrouvés par cette nouvelle requête (à l'aide du système de RI) sont fournis à l'utilisateur comme résultats de sa recherche. Le terme pseudo-relevance exprime ici le fait que les n documents de l'ensemble de feedback ne sont pas nécessairement pertinents pour la requête; ce sont juste les documents jugés les meilleurs par le système de RI. L'utilisation de cette stratégie permet en général, mais pas toujours, d'améliorer les rsultats obtenus par la requête originale. Pour les modèles de langues, le modèle de mélange (Zhai, Lafferty, 2001) est considéré comme l'un des modèles de référence dans de nombreux travaux. En effet, il a été montré que ce modèle est un des plus performants et des plus robustes dans l'étude conduite par (Lv, Zhai, 2009b). Cependant, plusieurs études plus récentes sur les modèles de PRF montrent que ce modèle est surpassé par d'autres modèles comme ceux utilisant du bagging, des mélanges de distributions de type Dirichlet Compound Multinomial ou par le modèle log-logistique des modèles d'information (Collins-Thompson, Callan, 2007; Xu, Akella, 2008; Clinchant, Gaussier, 2010). Les performances de ces modèles varient néanmoins d'une étude à l'autre et différentes collections sont utilisées pour les évaluer. Il est donc très difficile de tirer des conclusions sur les caractéristiques des modèles car il n'existe pas de cadre théorique qui permettrait de comparer directement les modèles de PRF, indépendamment des collections utilisées. Le but de cette étude est précisément d'établir un tel cadre théorique, en établissant une liste de propriétés pour les modèles de PRF et en examinant les différents modèles de PRF au regard de ces propriétés. Cette analyse théorique fournit des explications sur les comportements expérimentaux pour plusieurs modèles de PRF et ouvre la voie à une évaluation théorique des modèles de PRF. Les notations que nous utilisons sont résumées dans le tableau 1, où w représente un mot. Nous notons n le nombre de documents utilisés en PRF, F l'ensemble de documents de feedback et tc le nombre de mots ajoutés à la requête. Un important changement de notations concerne TF et DF qui sont dans cet article calculés sur l'ensemble de feedback F. Notations Notations Description Général q, d, w ld RSV (q, d) c(w, d) t(w, d) avgl N Nw IDF (w) tdf r(w, d) p(w|C) Une requête, un document, un mot (ou terme) Longueur de d (tokens) Retrieval status value, score de d pour q Nombre d'occurrences de w dans d Nombre d'occurrences normalisé (e.g. c(w,d)) ld Longueur moyenne des documents dans la collection Nombre de documents dans la collection Nombre de documents contenant w IDF (Inverse Document Frequency) de w (e.g. − log(Nw /N)) c(w, d) log(1 + c avgl) (c paramètre) ld Modèle de langue du corpus Spécifiques au PRF n F tc TF (w) DF (w) Nbre de documents retenus pour le PRF Ensemble des documents retenus pour le PRF : F = (d1,…, dn) TermCount : Nbre de termes de F ajoutés à q = d∈F c(w, d) = d∈F I (c(w, d) > 0) Le reste de cet article est organisé comme suit. Nous donnons dans la section 2 quelques statistiques sur plusieurs modèles de PRF qui révèlent les tendances générales de ces modèles. Nous introduisons ensuite plusieurs propriétés de PRF dans la section 3, avant de passer en revue les modèles de PRF selon leur capacité à prendre en compte ces propriétés dans la section 4. Finalement, nous discutons de travaux connexes dans la section 5. Nous commençons par présenter une comparaison des performances de différents modèles de PRF en fonction du paramètre tc, c'est-à-dire du nombre de termes choisis pour étendre la requête initiale. Cette comparaison porte sur : (a) le modèle de mélange (Zhai, Lafferty, 2001), que nous noterons MIX dans la suite, (b) le modèle de divergence KL 2 (Zhai, Lafferty, 2001), que nous noterons DIV, (c) le modèle loglogistique (Clinchant, Gaussier, 2010), que nous noterons LL, et (d) le modèle de pertinence géométrique (Geometric Relevance Model), que nous noterons GRM. Ces modèles sont présentés en détail dans la section 4 et leur formulation exacte n'est pas nécessaire ici. Pour tous ces modèles, tous les paramètres sont optimisés (avec le paramètre d'interpolation) sur toutes les requêtes d'une collection. La figure 1 montre les performances de ces quatre modèles quand le nombre de mots ajoutés à la requête (tc) varie. Comme nous pouvons le constater, le modèle log-logistique surpasse les autres modèles avec une MAP proche de 0.3 sur ROBUST et TREC 1&2 alors que la majorité des autres modèles ne dépasse pas 28.5 sur TREC et 29.0 sur ROBUST. Ceci étant, le fait le plus remarquable est que le modèle log-logistique n'a besoin que de 20 nouveaux mots pour obtenir d'excellentes performances, alors que les autres modèles obtiennent leur meilleure performance avec 100 mots pour ROBUST et 150 mots pour TREC. C'est typiquement ce genre de comportement que nous voulons comprendre dans cette étude. Pour cela, nous avons analysé les mots choisis par les 4 modèles précédemment mentionnés quand peu de mots sont choisis, à travers deux configurations de PRF : le cas A, avec n = 10 et tc = 10, et le cas B, avec n = 20 et tc = 20. Plusieurs études choisissent de comparer les modèles de PRF en fixant ces paramètres. Par exemple, (Hawking et al., 1997) et (Lv, Zhai, 2010) utilisent n = 20 et tc = 30 dans leurs expériences. (Carpineto et al., 2001) et (Amati et al., 2004) utilisent n = 10 et tc = 40. Les modèles de pertinence sont eux utilisés avec différentes configurations : (Trevor et al., 2004) choisit n = 10 and tc = 15 alors que (Cronen-Townsend et al., 2004) prend n = 50 et tc = 1000. Nous choisissons le cas A et B afin de mieux comprendre les améliorations du modèle log-logistique. Tout d'abord, nous utilisons le même modèle de RI pour la première étape de PRF de sorte que tous les modèles de PRF soient comparés sur le même ensemble. Une fois les nouvelles requêtes construites, nous utilisons soit le modèle de langue avec lissage de Dirichlet pour les modèles de PRF fondés sur les modèles de langues, soit le modèle log-logistique pour la deuxième étape de recherche. Ceci permet donc de comparer les performances des différents modèles de PRF toutes choses étant égales par ailleurs. Nous comparons d'abord le modèle de mélange et le modèle log-logistique, en calculant l'accord sur les mots choisis par ces méthodes. Cela revient à calculer l'intersection de l'ensemble des mots choisis. Le tableau 2 indique la moyenne, médiane et variance de la taille de cette intersection pour toutes les requêtes d'une collection donnée. Comme on le voit, les méthodes s'accordent sur un peu plus de la moitié des mots. On peut obtenir une autre comparaison des mots choisis en regardant le profil d'un mot. Le profil d'un mot est constitué de son nombre d'occurrences dans l'ensemble de feedback TF (w), de sa fréquence documentaire dans l'ensemble de feedback (i.e. DF (w)) et de son IDF (w) dans la collection. Pour chaque requête, les statistiques TF, DF et IDF sont moyennées sur tous les mots sélectionnés, puis sur l'ensemble des requêtes : Statistique sur la taille de l'intersection des termes choisis par les modèles de mélange et log-logistique Collection n tc Moyenne Médiane Variance robust trec-12 robust trec-12 10 10 20 20 10 10 20 20 5.58 5.29 12 11.8 6.0 5.0 12 13 1.60 1.74 3.05 3.14 Le tableau 3 montre les statistiques précédentes pour les quatre modèles de PRF : modèle de mélange (MIX), log-logistique (LL), modèle de divergence (DIV) et le modèle de pertinence géométrique (GRM). Le modèle de mélange choisit en moyenne des mots qui ont un plus grand TF comparé au modèle log-logistique. Ces mots sont aussi plus fréquents dans la collection (IDF plus petit). En revanche, on observe que les modèles de divergence et de pertinence choisissent des mots très fréquents (faible IDF et grand DF), ce qui est un de leur principal inconvénient. Statistiques sur les mots extraits par diverses méthodes de PRF. Le suffixe - A correspond à n = 10 et tc = 10 alors que - B correspond à n = 20 et tc = 20Collection Statistique MIX LL DIV GRM robust-A μ(tf) μ(df) μ(idf) 62.9 6.4 4.33 46.7 7.21 5.095 53.9 8.55 2.20 52.33 8.4 2.40 trec-1&2-A μ(tf) μ(df) μ(idf) 114 .0 7.1 3.84 79.12 7.8 4.82 92.6 8.77 2.51 92.27 8.72 2.56 robust-B μ(tf) μ(df) μ(idf) 68.6 9.9 4.36 59.9 11.9 4.37 65.27 14.7 1.66 64.57 14.38 1.93 trec-1&2-B μ(tf) μ(df) μ(idf) 137.8 12.0 3.82 100.0 13.43 4.29 114.9 15.17 2.10 114.8 15.23 2.25 Enfin, nous évaluons la qualité des mots choisis dans quatre cas différents. Nous calculons d'abord la performance des mots choisis sans les mélanger avec la requête initiale, cas que nous appelons raw. Dans un deuxième temps, nous ne gardons que les mots qui appartiennent à l'intersection des deux modèles, avec les poids prédits par ces modèles; nous appelons ce cas interse. Le troisième cas, appelé diff, mesure la performance des mots n'appartenant pas à l'intersection. Enfin, le dernier cas, interpo pour interpolation, est le cas classique du PRF lorsque les mots sont ajoutés à la requête initiale. Le tableau 4 montre les résultats pour le modèle de mélange et log-logistique (les deux autres modèles se comportant comme le modèle de mélange). Ces résultats indiquent que le modèle log-logistique a tendance à choisir des termes plus intéressants pour le feedback que le modèle de mélange (cas diff). De plus, pour les termes choisis par les deux modèles (cas interse), le modèle log-logistique semble choisir une meilleure pondération que le modèle de mélange. Performances (MAP) des différentes méthodes. Le suffixe - B correspond à n = 20 et tc = 20Collection Ensemble de mots MIX LL robust-B raw interse diff interpo 23.7 25.3 3.0 28.2 25.7 26.2 10.0 28.5 trec-1&2-B raw interse diff interpo 25.1 26.1 2.1 27.3 27.0 26.5 11.2 29.4 Résumons nos observations : Le modèle log-logistique (LL) surpasse les autres modèles; Les autres modèles choisissent des mots avec un plus fort TF; Le modèle de mélange (MIX) choisit des mots avec un plus faible DF; Les modèles GRM et DIV choisissent des mots ayant un faible IDF. Nous introduisons dans cette section une caractérisation des modèles de PRF qui permet de mieux comprendre le comportement de ces modèles d'un point de vue théorique. Notre approche s'inspire des méthodes axiomatiques (Fang et al., 2004) et s'inscrit dans la lignée de plusieurs études (Fang, Zhai, 2006; Cummins, O'Riordan, 2007; Clinchant, Gaussier, 2010). Si l'approche axiomatique vise à décrire les fonctions d'ordonnancement en RI par des contraintes que ces dernières devraient satisfaire, nous considérons plutôt ici des propriétés générales qui permettent d'appréhender théoriquement les modèles de PRF. Selon (Clinchant, Gaussier, 2010), les propriétés principales caractérisant la fonction de pondération d'un modèle de RI sont le fait que cette fonction doit être croissante et concave suivant le nombre d'occurrences des mots, décroissante suivant l'IDF et pénaliser les documents longs. Nous allons par la suite adapter ces propriétés au cas du PRF. Soit FW (w; F, P w) la fonction de feedback pour le mot w, avec P w un ensemble de paramètres dépendant de w 3. Nous utilisons aussi la notation abrégée FW (w) mais il est important de garder à l'esprit que cette fonction dépend d'un ensemble de feedback et de paramètres. Nous pouvons alors formaliser les quatre effets principaux des modèles de RI pour le PRF par : [Effet TF] FW croît avec t (w, d) : [Effet CONC] Cette croissance est moins forte lorsque le nombre d'occurrences augmente, ce qui se traduit par le fait que la fonction doit être concave sur t (w, d) : [Effet IDF] Soit wa et wb deux mots tels que IDF (wb) > IDF (wa) et ∀ d ∈ F, t (wa, d) = t (wb, d). Alors [Effet LD] Le nombre d'occurrences des mots doit être normalisé par la longueur des documents, ce qui se traduit par : La condition sur l'effet IDF est guidée par la cadre du PRF dans lequel nous nous plaçons et où nous voulons étudier l'augmentation de la fonction de PRF ceteris paribus sic stantibus 4. Nous introduisons maintenant une nouvelle condition de PRF, qui se fonde sur les observations de la section précédente. En effet, nous avons vu que les meilleurs résultats de PRF étaient obtenus par le modèle log-logistique qui favorise les mots avec une grande fréquence documentaire (DF (w)), ce qui suggère que les mots avec un plus grand DF doivent être favorisés. [Effet DF] Soient ε > 0, et wa et wb deux mots tels que : IDF (a) = IDF (b) Les distributions des occurrences de wa et wb dans l'ensemble F sont telles que : En d'autres termes, FW doit être localement croissante en DF (w). Le théorème suivant permet d'établir si un modèle de PRF s'écrivant comme une somme de fonctions de pondération sur chacun des documents de feedback satisfait la contrainte DF. Théorème 1. — Supposons que FW puisse s'écrire comme : avec :. Alors : Si la fonction f est strictement concave, alors FW satisfait l'effet DF. Si la fonction f est strictement convexe, alors FW ne satisfait pas l'effet DF. Démonstration : Si f est strictement concave alors, la fonction f est sous-additive (f (a + b) < f (a) + f (b)). Soient a et b deux mots vérifiant les conditions de l'effet DF : Nous avons alors : Cette quantité est strictement positive si f est sous-additive. Si la fonction f est strictement convexe, alors f est super-additive (car f (0) = 0), ce qui montre que FW (b) − FW (a) < 0. On peut remarquer aussi que la somme de fonctions concaves est concave et les fonctions de feedback définies par l'équation 1 vérifient donc l'effet concave en même temps que l'effet DF. Nous verrons cependant qu'il existe des modèles qui satisfont la condition DF mais pas la condition de concavité. Avant de valider cet effet DF, nous voulons mentionner une dernière caractérisation, introduite dans (Lv, Zhai, 2009b) et qu'on appellera effet Document Score. Cet effet est pris en compte dans les modèles de pertinence (Lavrenko, Croft, 2001) et dans certains algorithmes inspirés de l'algorithme de Rocchio (Hoashi et al., 2001). Il se formule comme suit : [Effet Document Score (DS)] Quand FW (w; F, P w) dépend explicitement des documents de F où w apparaît, alors les documents avec un plus grand score (obtenu lors de la première recherche) devraient avoir plus d'importance. L'intérêt de cet effet est cependant limité et les modèles qui le prennent en compte ne figurent pas parmi les meilleurs modèles de PRF. Par exemple, dans l'étude conduite par (Lv, Zhai, 2009b), le modèle de mélange surpasse des modèles utilisant les scores des documents. Nous discuterons dans la section 5 des stratégies (Collins-Thompson, Callan, 2007) (Lee et al., 2008) qui consistent à échantillonner des documents de feedback et qui pourraient être plus adaptées pour rendre compte de cet effet. Une manière de valider l'effet DF est de déterminer si les valeurs de DF sont liées aux scores MAP dans la boucle de pertinence. L'effet DF stipule que, toutes choses étant égales par ailleurs, les mots avec un plus grand DF doivent être favorisés. Si cet effet est valide, on doit observer que les mots avec un fort DF contribuent à une augmentation du score MAP. Par conséquent, nous avons calculé l'impact sur la MAP des différents mots sélectionnés à partir des vrais jugements de pertinence et nous avons visualisé cet impact en fonction des variables TF et DF. Nous avons choisi d'utiliser de vrais document pertinents et non des documents de PRF, pour deux raisons : tout d'abord car le cadre PRF vise à approcher la vraie boucle de pertinence, et ensuite car il est plus difficile d'observer une tendance claire en PRF quand la précision à 10 et la MAP ont une large variance. L'utilisation de vrais documents pertinents est donc ici plus propre et facilite l'interprétation. Nous avons suivi le processus suivant : Faire une première recherche avec un modèle de langue avec lissage de Dirichlet; Soit Rq l'ensemble des documents pertinents pour la requête q; retenir les 10 premiers documentes pertinents si possible, sinon garder les |Rq| (|Rq| < 10) documents pertinents; Extraire sur cet ensemble une nouvelle requête de 50 mots avec le modèle de mélange; Faire de même avec le modèle log-logistique; Calculer les TF et DF normalisés, ainsi que Δ(MAP) (cf ci-dessous). Pour chacun des mots ainsi obtenus, nous calculons une version normalisée de DF, égale à DF (w )/ |Rq|, et une version normalisée de TF par la longueur des documents. Nous utilisons dans nos expériences la normalisation sur laquelle nous appliquons la transformation : log(1 + TF (w ))/ |Rq|. Cette transformation permet d'éviter une trop grande dispersion dans les graphiques. Chaque mot est ajouté indépendamment avec le poids prédit par le modèle de PRF. Pour chaque mot, on mesure alors la MAP de la requête initiale augmentée de ce dernier. La différence de performance avec la requête initiale est ensuite calculée par : Δ(MAP) = MAP( q ∪ w) − MAP( q). Nous obtenons donc, pour chaque mot, les statistiques suivantes : Les graphes de la figure 2 montrent une vue 3D de ces statistiques pour toutes les requêtes et deux collections : TREC1&2 et ROBUST. Afin d'avoir une meilleure vue des motifs obtenus, nous avons utilisé une grille 30x30 et des noyaux de lissage. L'utilisation d'un noyau de lissage K revient à lisser la valeur en chaque point par la valeur des points voisins comme suit : où i, 1 ≤ i ≤ p indexe l'ensemble des mots de feedback. Nous avons testé des noyaux exponentiel et gaussien, en obtenant à chaque fois une allure similaire. Nous ne présentons donc ici que les résultats avec un noyau gaussien. Comme on peut le remarquer, sur tous les graphes de la figure 2, les meilleures régions dans l'espace (TF,DF) correspondent à de grands DF. De plus, pour toutes les valeurs de TF, les mots avec un fort DF pour la boucle de pertinence. Afin de compléter cette validation des différents effets que nous avons examinés, nous considérons maintenant la famille de fonctions de feedback définie par : où tdf r est donné dans le tableau 1 et correspond à la normalisation dans les modèles DFR et d'information. Ces modèles encodent simplement une pondération du type tf-idf, avec un exposant k qui permet de contrôler la convexité/concavité des modèles de feedback. Du fait de la forme de t (w, d) et de la manière dont IDF( w) est pris en compte, cette famille de fonctions respecte les effets TF, IDF et LD. Si k > 1, alors la fonction est strictement convexe et, d'après le théorème 1, ne satisfait pas l'effet DF. Dans ce cas, nous avons également, et donc l'effet CONC n'est pas, alors la fonction est strictement concave et non plus vérifié. En revanche, si k < 1 satisfait les effets DF et CONC. On peut donc construire des modèles de PRF à partir de l'équation 4 en variant k et observer si les résultats concordent avec notre analyse théorique. Nous utilisons ensuite l'équation 4 avec l'équation 12 et un modèle log-logistique pour mesurer leur performance. Le tableau 5 montre les statistiques (μ (tf), μ (df), mean IDF) pour différentes valeurs de k. Comme on peut le voir, plus k est petit, plus μ (df) est grand. En d'autres termes, plus la fonction croît lentement, plus les termes avec un fort DF sont préférés. Le tableau 6 indique la MAP obtenue pour plusieurs valeurs de k. Au moins deux points importants se dégagent de ces résultats. D'abord, les fonctions convexes ont des performances moindres que les fonctions concaves, et moins un modèle respecte les conditions théoriques, moins il est performant. Ceci confirme encore la validité des conditions que nous avons introduites. Deuxièmement, la racine carrée (k = 0.5) obtient les meilleures performances sur toutes les collections : elle surpasse même le modèle log-logistique. Quand la fonction croît lentement, (k = 0.2), la statistique DF est privilégiée par rapport au TF. La racine carrée offre donc un meilleur compromis entre les informations TF et DF. Ceci est intéressant car cela montre que l'effet TF est important et qu'il ne faut pas trop l'atténuer au profit de l'effet DF. Statistiques des modèles avec différents exposants (équation 4) sur TREC-12-A Exposant k μ(tf) μ(df) μ(IDF) 0.2 0.5 0.8 1 1.2 1.5 2 70.46 85.70 88.56 89.7 91.0 90.3 89.2 7.4 7.1 6.82 6.6 6.35 6.1 5.8 5.21 5.09 5.14 5.1 5.1 5.0 4.9 Score MAP pour différents exposants (équation 4). Le suffixe - A correspond à n = 10 et tc = 10 et le suffixe - B à n = 20 et tc = 20. A titre de comparaison, nous donnons aussi les performances du modèle LL Exposant k robust-A trec-12-A robust-B trec-12-B 0.2 0.5 0.8 1 1.2 1.5 2 29.3 30.1 29.6 29.2 28.9 28.6 28.1 28.7 29.5 29.3 28.9 28.6 28.1 27.2 28.7 29.4 29.4 29.1 28.6 28.3 27.4 30.0 30.5 30.3 29.9 29.6 28.9 28.0 LL 29.4 28.7 28.5 29.9 Maintenant que nous avons introduit les conditions que doivent satisfaire les modèles de PRF, nous allons passer en revue différents modèles existants et regarder comment ils se situent par rapport à ces conditions. Nous examinons dans cette section différents modèles de PRF selon leur adéquation aux conditions que nous avons définies. Nous commençons par les modèles de langues avant de passer aux modèles issus du Probability Ranking Principle (PRP), puis aux modèles Divergence from Randomness (DFR) et aux modèles d'information. Les modèles de PRF pour les modèles de langues (LM) font l'hypothèse que les mots des documents de feedback suivent une distribution multinomiale, θF (la notation θF résume l'ensemble des paramètres P (w|θF)). Une fois les paramètres estimés, le modèle de langue θF est interpolé avec la requête initiale par : En pratique, on restreint θF aux tc mots les plus importants en annulant la contribution des autres mots. Les méthodes de feedback diffèrent sur leur façon d'estimer θF. Nous examinons les principales méthodes dans la suite. (Zhai, Lafferty, 2001) proposent un modèle génératif pour l'ensemble F. Tous les documents de F sont supposés être identiquement et indépendamment distribués (ce que l'on note i.i.d) et chaque document est considéré comme le résultat du mélange d'une distribution multinomiale propre à la requête et d'un modèle de langue de la collection : où λ est le paramètre de mélange. Enfin θF est appris en optimisant la vraisemblance des données avec un algorithme EM (Expectation-Maximization), dont les étapes E et M à l'itération (i) sont : où E [<hi rend="italic">w</hi>] dénote l'espérance d'observer w dans F. Ici FW (w) = P (w|θF). On peut remarquer qu'aucune de ces formules ne met en jeu DF (w), que ce soit directement ou indirectement. Le modèle de mélange est donc agnostique par rapport à DF et ne satisfait donc pas l'effet DF. Pour les autres propriétés, on peut voir que les poids des mots de feedback (P (w|θF)) augmentent avec TF (w) (qui est) et diminuent avec IDF( w) (l'argument est le même que celui développé dans (Fang et al., 2004)). Ainsi, les effets TF et IDF sont pris en compte par ce modèle. De plus, même si les occurrences sont normalisées par la longueur des documents de feedback (en fait une approximation de celle -ci), tous ces documents sont fusionnés, de sorte que l'effet LD portant sur la normalisation par la longueur des documents n'est pas pleinement pris en compte. Par rapport à la concavité, la situation est encore moins claire. Si l'on approche le dénominateur de l'étape M par la longueur des documents de feedback (en utilisant le fait que E [<hi rend="italic">w</hi>] correspond à l'espérance de w dans F), alors la seconde dérivée partielle de P (w|θF) par rapport c (w, d) est nulle. Ceci suggère que le modèle ne prend pas en compte l'effet CONC, et donc qu'il donne trop de poids aux mots avec un fort TF. C'est en effet ce que nous avons observé dans le tableau 3, où le modèle de mélange tend à choisir des mots avec un TF significativement plus grand que les autres modèles. Un modèle minimisant la divergence de Kullback-Leibler a été aussi proposé dans (Zhai, Lafferty, 2001) : où correspond au modèle de langue du document di. La minimisation de cette divergence fournit la solution suivante 5 : Ici encore, FW (w) = P (w|θF). Cette équation correspond à la forme donnée dans l'équation 1 avec une fonction strictement concave. Le théorème 1 nous permet donc de conclure que ce modèle respecte l'effet DF. Il prend de plus en compte les effets TF, CONC et LD. Toutefois, nos expériences précédentes ont montré que ce modèle obtient de moins bons résultats que les autres (cf tableau 4 et l'étude dans (Lv, Zhai, 2009b)). Le tableau 3 montre ainsi que l'effet IDF n'est pas assez pris en compte et ce modèle choisit trop souvent des mots fréquents. En effet, considérons deux mots wa and wb tels que : (a) ∀ d ∈ F, t (wa, d) = t (wb, d) = td et (b) p (wa |C) < p (wb |C). L'effet IDF stipule que dans ce cas FW (a) devrait être plus grand que FW (b). Avec le lissage de Jelinek Mercer (mais le raisonnement est le même pour celui de Dirichlet), log( FW (wa)) − log( FW (wb)) est égal à (nous ne présentons pas la dérivation ici, qui est purement technique) : Comme 0 < λ, δ ≤ 1, nous avons : Ainsi log( FW (wa)) − log( FW (wb)) > 0 et FW (wa) > FW (wb). Le modèle de minimisation de la divergence satisfait donc bien l'effet IDF. Cependant, cet effet n'est en réalité que faiblement pris en compte. En effet, supposons que P (wb|C) est K fois (K > 1) plus grand que P (wa|C) : P (wb|C) = KP (wa|C). Dans ce cas : et : Le facteur K originel se traduit finalement, pour la pondération des termes de PRF, en Kδ. En pratique, les valeurs obtenues pour δ snt proches de 0.1; dans ce cas, Kδ est proche de 1 (il est égal à 1.07 pour K = 2, 1.17 pour K = 5 et 1.58 pour K = 100) et il n'y a presque aucune différence entre FW (wa) et FW (wb). Ceci explique les faibles statistiques d'IDF dans le tableau 3, ainsi que les moins bons résultats obtenus par ce modèle. Une version régularisée du modèle de mélange, connue sous le nom de regularized mixture model (RMM), est proposée dans (Tao, Zhai, 2006) pour corriger certaines déficiences du modèle de mélange. RMM permet d'estimer conjointement les scores de pertinence des documents et des thèmes (distributions sur les mots), ce qui en fait a priori un modèle robuste par rapport aux paramètres de feedback. Cependant, les expériences menées dans (Lv, Zhai, 2009b) montrent que ce modèle est moins efficace que le modèle de mélange en terme de performance. Nous ne l'étudierons donc pas plus avant. Une autre famille intéressante est la famille des relevance models (modèles de pertinence), proposée (Lavrenko, Croft, 2001) et définie par : où PLM correspond au modèle de langue lissé du document. La formule ci-dessus correspond à la forme donnée dans l'équation 1 du théorème 1, avec une fonction linéaire, qui est ni strictement concave ni strictement convexe. Ce modèle est donc neutre par rapport à l'effet DF. De plus, il est direct de montrer que les modèles de pertinence échouent à prendre en compte l'effet IDF. Ces modèles ont été récemment étendus dans (Seo, Croft, 2010) en utilisant l'idée d'une moyenne géométrique, noté GRM et définie par : Nous montrons ici que ce modèle respecte bien l'effet DF. Considérons en effet ce modèle avec un lissage de Jelinek-Mercer (Zhai, Lafferty, 2004) : PLM (w|θd) =, où c (w, C) correspond au nombre d'occurrences de w dans la collection C et lC à la longueur de la collection. Soient wa et wb deux mots vérifiant les conditions de l'effet DF. Supposons que tous les documents de feedback ont la même longueur l et sont équiprobables étant donné q. Soient A, B et les quantités suivantes : où dj est le document défini dans l'efet DF. Nous avons : De plus : (A−ε′ )( B + ε′) = AB + ε′ [(<hi rend="italic">A−B</hi>) − <hi rend="italic">ε′</hi> ]. Or est une quantité strictement supérieure à d'après les hypothèses de l'effet DF. Le modèle GRM, avec lissage de Jelinek-Mercer, satisfait donc bien l'effet DF. Un développement similaire conduit à la même conclusion pour le lissage de Dirichlet. Cependant, un des défauts majeurs de ce modèle est qu'il ne satisfait pas l'effet IDF. En effet, soient wa et wb deux mots tels que : (a) ∀ d ∈ F, t (wa, d) = t (wb, d) = td et (b) p (wa|C) > p (wb|C). Alors, FW (wa) − FW (wb) a le signe de : qui est strictement positif. Ceci explique les résultats du tableau 3 indiquant que le modèle GRM choisit des mots avec un faible IDF. (Xu, Akella, 2008) utilisent le cadre du Probability Ranking Principle (PRP) (Robertson, 1977) dans lequel les documents pertinents sont supposés être générés à partir d'une distribution de type Dirichlet Compound Multinomial (DCM), ou l'approximation de celle -ci appelée eDCM et introduite dans (Elkan, 2006). L'extension au PRF de ce modèle suppose simplement que les documents de feedback sont pertinents et que les mots sont générés à partir d'un mélange de deux distributions eDCM. À chacune de ces distributions correspond une variable zFR pour la composante pertinente du mélange censée représenter les documents de feedback, et une variable zN pour capturer le modèle de langue général du corpus. Les paramètres de ce modèle sont ensuite estimés par des algorithmes plutôt coûteux de type descente de gradient ou algorithme EM (plusieurs modifications de l'algorithme EM, suivant les suggestions de (Tao, Zhai, 2006), sont en fait testées). Au final, en mettant de côté la partie non pertinente du modèle de mélange (zN), le poids affecté aux mots de de l'ensemble de feedback est donné par l'étape M de l'algorithme EM : Cette formule, fondée sur la présence/absence des termes dans l'ensemble de feedback, est bien compatible avec l'effet DF. En revanche, l'effet TF n'est pas pris en compte ici. Enfin, les étapes de l'algorithme EM suggèrent aussi que le modèle satisfait l'effet IDF, comme le modèle de mélange. Pour les modèles DFR et d'information, la requête initiale est modifiée pour prendre en compte les mots de F comme suit : où β est un paramètre contrôlant la modification apportée par F à la requête initiale (correspond au nouveau poids de w dans la nouvelle requête, et au poids de w dans la première requête). Dans ce cas : FW (w) = Info( w, F). Les modèles standard dans la famille DFR sont les modèles Bo (Amati et al., 2003), définis par : où pour le modèle Bo 1 et pour le modèle Bo 2. Autrement dit, les documents de F sont concaténés et une distribution géométrique 6 est utilisée pour mesurer le contenu informatif des mots. De par l'absence d'information de type DF (absence résultant ici de la concaténation des documents de feedback), ces modèles ne satisfont pas l'effet DF. De plus, le choix de la distribution géométrique implique que l'effet CONC n'est pas pris en compte car la deuxième dérivée de FW (w) en TF (w) est nulle. Enfin, ces modèles ne prennent pas en compte les longueurs des documents de feedback puisque ces documents sont fusionnés. Pour les modèles fondés sur l'information (Clinchant, Gaussier, 2010), l'information moyenne d'un mot w dans l'ensemble de feedback sert de critère pour sélectionner les mots : où t (w, d) est le nombre d'occurrences normalisé de w dans d, et λw un paramètre associé à w et égal à. Deux exemples de modèles d'information sont donnés dans (Clinchant, Gaussier, 2010), utilisant soit une loi log-logistique soit une loi de puissance lissée. Nous nous concentrons ici sur le modèle log-logistique qui fournit les meilleurs résultats dans les expériences décrites dans (Clinchant, Gaussier, 2010). Le modèle log-logistique (LL) est donné par : où tdf r (w, d) est donné dans le tableau 1. Comme le logarithme est une fonction concave, le modèle log-logistique prend en compte l'effet DF d'après le théorème 1. Il respecte de plus les effets TF, CONC et LD par construction (cf. (Clinchant, Gaussier, 2010)). Pour l'effet IDF, considérons deux mots wa et wb vérifiant les conditions de cet effet (en particulier, nous avons λb < λa). Alors : qui est toujours strictement négatif. L'effet IDF est donc bien pris en compte par ce modèle, qui vérifie toutes les propriétés théoriques développées dans la section 3. Notre étude théorique a révélé les éléments suivants sur les modèles de PRF, éléments qui sont résumés dans le tableau 7 : Pour les modèles fondés sur le modèle de langue, le modèle de mélange (MIX) ne satisfait ni l'effet DF ni l'effet LD. Le modèle de divergence (DIV) ne garantit pas suffisamment l'effet IDF. Étonnamment, les modèles de pertinence RM et GRM ne satisfont pas l'effet IDF. Le modèle RM ne satisfait pas non plus l'effet DF. Pour les modèles DFR, les modèles Bo ne respectent ni l'effet DF, ni les effets CONC et LD. Au contraire, le modèle d'information LL satisfait toutes les conditions de PRF. Cette analyse théorique fournit une bonne explication des statistiques collectées sur deux grandes collections et résumées dans le tableau 3. Elle permet aussi d'expliquer le bon comportement du modèle LL développé dans le cadre des modèles d'information, modèle qui surpasse les autres modèles dans le cadre du PRF. Prise en compte des différents effets dans les modèles de PRF Modèles de PRF vs effets TF CONC IDF LD DF MIX DIV GRM Bo LL oui oui oui oui oui partiellement oui oui non oui oui partiellement non partiellement oui non oui oui non oui non oui oui non oui Nous avons étudié ici les principales caractéristiques des fonctions de PRF à travers un certain nombres d'effets. C'est à notre connaissance la première étude qui propose un cadre théorique général pour les modèles de PRF. Il y a un certain nombres d'éléments, orthogonaux à ce que nous avons vu, qui permettent d'améliorer les performances d'un modèle de PRF. L'étude présentée dans (Lv, Zhai, 2009a), par exemple, propose une approche à base d'apprentissage pour estimer le mélange des termes originaux et des termes issus de l'ensemble de feedback. Ce paramètre peut être ajusté de façon optimale pour chaque requête, ce qui conduit à un système certes plus lourd, mais aussi plus performant. L'étude présentée dans (Lv, Zhai, 2010) se concentre elle sur l'utilisation d'information de position et de proximité dans les modèles de pertinence. Ici encore, la prise en compte d'une telle information permet d'améliorer les résultats en PRF. La prise en compte de ces informations dans d'autres modèles de PRF, comme ceux issus des modèles d'information, n'a pas encore été étudiée à notre connaissance. Un autre type d'information qui peut se révéler utile en PRF est celui lié à la prise en compte des différents aspects d'une requête. L'étude présentée dans (Crabtree et al., 2007), par exemple, propose un algorithme permettant d'identifier les différents aspects d'une requête et de l'étendre de façon à bien couvrir tous ces aspects. Une telle stratégie peut a priori être déployée sur tous les modèles de PRF. Une autre étude intéressante est celle présentée dans (Collins-Thompson, 2009) (Dillon, Collins-Thompson, 2010) où un cadre général d'optimisation est retenu pour le PRF. Les contraintes considérées diffèrent toutefois des effets que nous avons mis en avant dans la mesure où le but est ici encore de rendre compte de tous les aspects couverts par une requête. Le cadre général d'optimisation concave-convexe, pleinement détaillé dans (Collins-Thompson, 2008), est néanmoins intéressant car il établit des ponts entre plusieurs modèles. Enfin, plusieurs études (Collins-Thompson, Callan, 2007) ou (Lee et al., 2008) se sont récemment intéressées au problème de la modélisation de l'incertitude dans l'estimation des poids de PRF. Ces études montrent que le ré-échantillonnage des documents de feedback permet une meilleure estimation des poids de PRF. Un des intérêts de ces approches est qu'elles peuvent être facilement déployées sur tous les modèles de PRF. Elles permettent de plus une prise en compte simple et propre de l'effet DS que nous avons mentionné en section 3. Nous avons introduit l'effet DF dans (Clinchant, Gaussier, 2011). L'étude présentée ici va plus loin car elle considère un nombre plus important de propriétés (reliées aux propriétés de la recherche d'information ad hoc) et de modèles. C'est grâce à cet élargissement que nous avons pu mettre en évidence les déficiences, notamment sur l'effet IDF, de nombreux modèles utilisés en PRF et que nous avons pu expliquer le bon comportement des modèles d'information. Nous avons introduit dans cet article différents effets que les modèles de PRF doivent satisfaire. Ces effets peuvent être mis en parallèle avec les contraintes standard de la recherche d'information, avec toutefois un effet supplémentaire lié à la considération d'un ensemble de documents de feedback (effet DF). Nous avons ensuite analysé un certain nombre de modèles de PRF et observé leur comportement par rapport à ces effets. Cette analyse a révélé que les modèles directement issus du modèle de langue (à savoir le modèle de mélange et de minimisation de la divergence) sont déficients car le premier ne satisfait pas l'effet DF alors que le second ne garantit pas suffisamment l'effet IDF. Les modèles de pertinence, à la fois dans leur version standard et sous leur variante géométrique, sont également déficients car ils ne satisfont pas l'effet IDF. Pour les modèles issus du paradigme DRF, leur déficience est liée à la non satisfaction de l'effet DF. Seul le modèle LL, issu des modèles d'information, satisfait toutes les conditions .
Nous proposons dans ce papier une analyse théorique des modèles de Pseudo-Relevance Feedback (PRF), expliquant pourquoi certains modèles comme les modèles d'information sont plus performants. Pour ce faire, nous proposons un ensemble de propriétés pour les fonctions de PRF, dont une portant sur la fréquence documentaire (DF) qui est validée expérimentalement. Cette étude théorique révèle que plusieurs modèles de référence ne respectent pas la propriété sur l'effet IDF ou sur l'effet DF. Les modèles satisfaisant toutes les propriétés surpassent ces modèles en partie déficients.
sciencesInfo_12-0420386_tei_DN_id9782746239609_pu2012-01s_sa07_art07.tei.xml
termith-375-communication
La série d' « Échanges » initiée dans Questions decommunication pourrait bien susciter la réflexion et nous renseignerau-delà de la thématique du genre telle qu'elle est appréhendée par les premierscontributeurs. Elle invite à questionner les attendus disciplinaires d'un Gender Turn – dans les sciences de l'information et de lacommunication (sic) notamment – que certaines appellent deleurs vœux (Coulomb-Gully, 2009). La contribution que je souhaite apporter à cet« état de l'art » paraîtra sans doute iconoclaste à celles qui investissentremarquablement leur savoir et leur expérience dans un domaine qu'elles estimentinnovant et nécessaire : les études de genre. La recherche est ainsi faite :conviction, compromis, adhésion et contestation s'articulent à grand renfort dethéories, méthodes et – surtout – argumentation. La lecture de chacun des articlespubliés dans cette livraison peut ainsi faire osciller leur réception del'admiration à la consternation. Les terrains sont variés, les enquêtes fouillées ,les méthodes pointilleuses et les approches théoriques aussi piquantes quepertinentes. On peut certainement prendre du plaisir à lire ces papiers, y apprendrebeaucoup et élargir, grâce à chacune des rédactrices, son horizon scientifique tantempirique, que théorique ou méthodologique. Pourtant, je ne suis pas convaincue del'opportunité d'un Gender Turn dans nos disciplines. Alorspourquoi, puisque tout est brillamment agencé ici pour me faire adhérer à cettenécessité ? Pour tenter de répondre à ce paradoxe, je ferai état d'un certain nombred'objections, dont l'enjeu sera de déplacer le regard sur le genre. Selon leprincipe de cette rubrique, je m'inscrirai dans l'échange, non pas en présentant lesrésultats d'une étude en cours mais en discutant la position des collègues engagéessur ce sujet à partir de mes orientations de recherche. L'objet qui a accompagné monparcours dans le champ académique des sciences humaines et sociales (shs) n'est pas la femme mais les homosexualités et, plusspécifiquement, les constructions de leurs représentations dans les espaces sociaux ,médiatiques et/ou scientifiques. Lors d'une thèse, soutenue en 2002, je montrais, à contre-pied du sens commun, queles représentations télévisuelles liées aux sexualitésdites périphériques sont à interpréter davantage comme les effets d'unenormalisation des pratiques et conduites jugées déviantes, que dans les termes d'uneacceptation de ces sexualités par la société et les professionnels de télévision .Cette hypothèse se nourrissait d'un montage théorique élaboré au milieu des années90 : le dispositif de sexualité de Michel Foucault (1976), la domination masculinede Pierre Bourdieu (1990, 1998), la temporalité cyclique de Bruno Latour (1991) etla logique du pseudo-événement de Daniel. J. Boorstin (1961). Tous ces travauxinvitent, selon moi, à une réhistoricisation de certaines de nos conceptions tant enmatière de pouvoir et de contrôle que de temporalité et d'actualité. Mon approche ne revendique aucuneappartenance à une théorie féministe ou post-féministe, queer ou gender. Les représentations sociales et télévisuelles deshomosexualités sont appréhendées en tant qu'objet – et non finalité – destiné ànourrir la réflexion pluridisciplinaire sur la construction des questions desociété, notamment (mais pas exclusivement) dans le champ de la sexualité. Ce type d'analyses déborde vers des problématiques liées à la posture et la positiondu chercheur, à la filiation de ses emprunts théoriques, à sa perception d'unetemporalité relative à l'objet étudié et, plus globalement, aux dispositifs depouvoir induits par le jeu des catégories génériques, quelles qu'elles soient. Ilest vrai que les homosexualités ont cet « avantage » sur le sexe, dans les études degenres (sexué et sexuel), que l'analyse de leurs représentations tire initialementet nécessairement vers la distinction et la déconstruction des identités biologiquesde sexe (homme vs femme), sexuelles (homosexualité vs hétérosexualité) et culturelles (masculin vs féminin). Cette recherche en lien avec le genre sexuel m'apermis, en l'occurrence, de réfléchir à deux types de problématiques : l'engouementde la dernière décennie pour le genre ainsi que les appropriations possibles decette notion en sic (Gavillet, 2005) et l'usage duconstructivisme dans les sic (Gavillet, 2004b). Je tenteraide montrer la complémentarité que ces approches inopportunément disjointes, à monsens, dans les travaux récents. Ma contribution entend relativiser et tenter deréhistoriciser certains des apports théoriques revendiqués par les partisans d'unchamp – un domaine, une discipline – de recherche autonome sur le genre. Elle seveut une invite à un recul critique vis-à-vis des usages d'un « concept », le genre ,quelquefois peut-être, galvaudé et dépouillé de sa visée opératoire pour devenir unmodèle de « prêt-à-penser », celui des études de l'oppression des femmes par leshommes. Dans la première partie, il s'agira de mesurer l'articulation entre les modèlesthéoriques convoqués, exposés ou esquissés par la plupart des chercheuses ayantcontribué à la première livraison des « Échanges » sur le genre et la portéeeffective des résultats de leurs travaux. L'enjeu étant ici de soulever une questionpour le moins insolente par rapport au consensus observé par ces dernières en termesde percée épistémologique : l'apport théorique du concept de genre, pressenti parles auteurs, ne tendrait-il pas à s'effacer au profit d'études de cas sur lesrapports sociaux de sexes, d'études de femmes ? Autrement dit : qu'est -ce que legenre, ainsi posé – en tant que notion, synonyme de femme –, apporterait aux sic ? Dans une seconde partie, j'affinerai la distinctionproposée entre objet ou concept en me fondant sur des études tendant à affirmer ladimension heuristique du genre dans l'analyse de situations de pouvoir. Le genre ysera entendu comme ou outil stratégique, un instrument permettant de neutraliser ,voire de contrôler les effets de sexe, rejoignant en cela les propositions d'ErvingGoffman sur l'ordre structurel et l'ordre interactionnel (Zaidman, 2002; Goffman ,1977). D'emblée, la composition de cette livraison suggère une différenciation marquéeentre approches théoriques et études de cas. Si Marlène Coulomb-Gully (2009 :221-245) s'essaie à une cartographie des études de genre en sic, Marie-Josée Bertini (2009 : 155-173), dans la même discipline, etFrançoise Thébaud (2009 : 221-245), historienne, s'inscrivent plus frontalementdans la problématique du genre. Les contributions de Béatrice Damian-Gaillard ,Cégolène Frisque et Eugénie Saitta (2009 : 175-201), de Catherine Gravet (2009 :203-220) et Marie-Ève Thérenty (2009 : 247-260) relèvent, quant à elles, desétudes de cas et de l'approche empirique. Si le cadrage théorique du genredéveloppé par une minorité de contributrices laisse entrevoir uneréactualisation productive de nos pratiques de recherche, les études de casproposées dans la même livraison n'en illustrent pas la portée et lespotentialités. En outre, la question fondamentale de recherche incarnée par legenre, à la fois théorisée, étudiée et illustrée par chacune de nos collègues ,ne semble pas pouvoir, vouloir ou devoir s'abstraire d'une même quête : lareconnaissance de la différence inhérente d'aptitudes intellectuelles etprofessionnelles de « La femme ». On ne peut que déplorer le fait que tantd'érudition n'aboutisse finalement qu' à des résultats tendant à ratifier lesconditions de domination des hommes sur les femmes tout en réinscrivant cesdernières dans une nature biologique éternelle. Regretter que le terme « genre »soit finalement empoigné dans une acception rhétorique proche d'une esthétiquescientifique de « femme » ou de « sexe ». Car se faire l'écho des contraintes degenre revient à vider le concept genre de son fondement heuristique. En effet, àbien y regarder, aucune des chercheuses ne tente de dégager les femmes d'unsupposé destin en posant autrement sa question de recherche. Il est vrai etprovisoirement rassurant de constater que Françoise Thébaud (2009 : 239 )envisage le genre en tant qu'il serait une catégorie, une variable p armi d'autres : « Confronté àd'autres catégories d'analyse comme la classe sociale mais aussi l'appartenancenationale ou religieuse, le groupe d' âge, la ‘ ‘ race ' ' ou l'orientation sexuelle ,le genre invite enfin à réfléchir aux différences entres femmes ». Maisfait-elle usage de cette proposition épistémologique dans son appréhension dugenre en tant qu'objet ? Pas dans cette revue en tout cas. Et aussitôt, laconcession, toute relative soit-elle, d' être contredite par Marie-Josée Bertini( 2009 : 156-157) : « Dans cette optique, le Genre n'est plus une simplevariable, un critère d'analyse parmi d'autres, mais il bénéficie d'une pleinereconnaissance comme force structurante de la réalité sociale et politique. Parconséquent, il s'agit de prendre systématiquement en compte les besoinsspécifiques des femmes et des hommes dans l'évaluation de toute situation quellequ'elle soit, et ce avant toute intervention concrète. Cherchant à intégrerl'égalité des chances entre les femmes et les hommes dans l'ensemble despolitiques et actions communautaires, le Gender Mainstreamtrouve ses applications dans les domaines de l'économie, de l'éducation, dela formation, de la communication et de l'information, mais aussi de lapolitique, du développement, de la santé, du travail, pour ne citer qu'eux. Ilexprime une prise de conscience institutionnelle et internationale qui doitbeaucoup, si ce n'est tout, aux travaux anglo-saxons sur le Genre dont ilconstitue l'un des effets pratiques les plus considérables ». Exemplaires d'une pensée scolastique en voie d'institutionnalisation, ces travauxinvitent malheureusement à penser que ce qui compte avant tout en matière derecherche universitaire, c'est le sexe. .. pourvu qu'il soit féminin. Car si ,dans la série des concessions, on accepte aussi la prévalence du genre sur lacondition des hommes, aucune de nos collègues, dans les présentes contributions ,ne juge utile ou nécessaire de s'emparer de la question du masculin. Neserait -ce que pour dégager « La femme » de sa condition exclusive de victimetout autant que d'intelligence supérieure occulte et occultée. Mais peu importe ,après tout, les prouesses respectives des sexes étudiés. À travers le genre ,c'est à une révolution copernicienne des pratiques de la recherche que nousinvite cette première livraison des « Échanges ». Quelle serait donc laplus-value du genre pour nos disciplines ? Le genre, explique -t-on ici, est le fruit de constructions sociales etculturelles : « Enfin, au-delà de l'affirmation de la nécessité de l'ouverture à“ la pensée du genre” ou d'une réflexion sur “la spécificité de genre ”, il s'agitpour nous de cerner les constructions donnant des contenus historiquement etsocialement situés aux catégories de genre, dans toute leur diversité, selon lesépoques, les sociétés mais aussi selon les individus, et leur rapport au genre »( Damian-Gaillard, Frisque, Saitta : 176). Mais encore : « Le Genre n'existepas : il tient tout entier dans le mouvement des acteurs pour le faire (et ledéfaire), dans leurs interactions communicationnelles et sociales. Par ailleurs ,le Genre ne saurait être exécuté une fois pour toutes : les représentationssociales et culturelles se soutiennent des représentations du Genre, au sensdramaturgique du terme (Goffman, 1959) » (Bertini, 2009 : 167). Et surtout :« Inscrit dans un partage entre nature et culture et dans une perspectiveconstructiviste, le genre dit d'abord que la condition et l'identité des femmesne se comprend que dans la relation aux hommes et qu'elles sont le résultatd'une construction sociale et culturelle dans un contexte donné : ‘ ‘ la femme ' 'n'existe pas – sauf dans l'imaginaire des hommes ou… des femmes – et la tâche del'histoire est de comprendre l'évolution des systèmes de genre, ensembles derôles sociaux sexués et systèmes de représentation définissant le masculin et leféminin » (Thébaud, 2009 : 238). Il existe donc des rapports sociaux de sexe socialement et culturellement datés .La réalité sociale, effectivement, comme l'expliquent Peter L. Berger et ThomasLuckmann (1966 : 10), n'existe pas en dehors de notre propre volonté. Bien sûr ,comme le soulignent les théoriciens de la sociologie de la connaissance, « touteconnaissance [étant] développée, transmise et maintenue par des situationssociales », le chercheur se doit d'analyser les rapports à l'intérieur desquelscelle -ci apparaît. Dans les années 60, aux États-Unis, on cherchait à comprendrepourquoi la réalité sociale nous apparaissait comme évidente alors qu'elle étaitle fruit de constructions historiques. Les travaux américains de Peter L. Bergeret Thomas Luckmann se mêlent à nos raisonnements français au point d'en oublieraujourd'hui la substance. Influencés par Georges H. Mead et l'école del'interactionnisme symbolique, Peter L. Berger et Thomas Luckmann présupposentdonc un phénomène d'intériorisation de la réalité sociale. De Max Weber et ÉmileDurkheim, les auteurs retiennent que la société possède une dimensionartificielle objective construite par le biais d'une activité qui exprime unsens subjectif. La réalité sociale est ainsi initialement déterminée par lecaractère duel de la société en termes d'artificialité objective et designification subjective. Une lecture plus poussée des filiations théoriques denos modèles anglo-saxons révèle encore que l'Autrichien Alfred Schütz influençâtles théories constructivistes de nos auteurs américains; Alfred Schütz sefondant lui -même sur ses pairs européens (les Allemands Max Weber – contemporainde Georg Simmel et duFrançais Émile Durkheim –, Edmund Husserl et le Français Henri Bergson). Plus proche de nous, Pierre Bourdieu, également inspiré par la sociologie de MaxWeber et celle d' Émile Durkheim, développe en France leconstructivisme-structuraliste (Bonnewitz, 2002; Bourdieu 1980, 1987, 2002 ;Bourdieu, Wacquant, 1992) : « Si j'avais à caractériser mon travail en deux mots [… ], jeparlerais de constructivist structuralism ou de structuralist constructivism, en prenant le mot“ structuralisme” en un sens très différent de celui que lui donne la traditionsaussurienne ou lévi-straussienne. Par “structuralisme” ou “structuraliste ”, jeveux dire qu'il existe dans le monde social lui -même, et pas seulement dans lessystèmes symboliques, langages, mythes etc., des structures objectives ,indépendantes de la conscience et de la volonté des agents, qui sont capablesd'orienter ou de contraindre leurs pratiques ou leurs représentations. Par“ constructivisme ”, je veux dire qu'il y a une genèse sociale d'une part desschèmes de perception de pensée et d'action […] et d'autre part des structuressociales » (Bourdieu, 1987 : 147). Erving Goffman, influencé par la sociologie d' Émile Durkheim et celle de GeorgSimmel, fonde aux États-Unis, l'interactionnisme symbolique, où « l'observationdes scènes de face à face publics dans la vie quotidienne lui permet depromouvoir la situation d'interaction comme nouvel objet de la sociologie »( Zaidman, 2002). Sur les questions de déconstruction, je pense encore évidemmentà Michel Foucault qui, à travers la théorie du pouvoir et le concept dedispositif – dispositif de pouvoir d'abord (1975), et dispositif de sexualitéensuite (1976, 1977) –, a fourni à la communauté universitaire internationaledes outils fondamentaux pour penser les objets relatifs à la norme et aucontrôle social (Defert, Ewald, 2001). Les théories et concepts pour penser les relations sociales de pouvoir et dedomination en France, y compris au sein des sic, nenaissent donc pas avec le genre, comme certaines voudraient le penser, et quiplus est au moment de la traduction, en 2005, de Trouble dansle genre de Judith Butler (1990). Pas plus que les travaux français surle genre ne pêchent par une absence de références théoriques hexagonales pours'emparer de ces questions. Certains travaux américains sont certesremarquables, ils s'inspirent notamment de la FrenchTheory, incarnée, entre autres auteurs, par Michel Foucault, GillesDeleuze et Jacques Derrida. Comme le souligne Marie-Hélène Bourcier, les travauxaméricains se nourrissent de théories françaises pour les prolonger dans unevisée radicale politique, forme sous laquelle elles sont réintroduites en Francepar le courant Queer : « À cela, il faut ajouter un malentendu instructif : lesAméricains ont pris dans ce qu'ils ont appelé la FrenchTheory, après avoir inventé le French Feminism ,ce qu'il leur fallait pour asseoir leur peur ou leur critique de la politiquedes identités aux États-Unis en piochant dans la critique de l'identité gaieselon Foucault (lui -même placard plutôt qu'anti-identitaire au sens américain duterme). Le French Queer, assez « américain » de ce pointde vue, a fait exactement l'inverse. Il a utilisé le potentiel identitaireconstructiviste de la théorie queer de manièreidentitaire post-identitaire pour rompre avec le formalisme structuraliste, laparalysie politique (pour ne pas parler des politiques sexuelles) dans laquelleDerrida, Lacan et Foucault avaient plongé les gais et les lesbiennes depuis lesannées 80, mais aussi pour lutter contre l'universalisme et le républicanismefrançais abstraits et antiidentitaires » (Bourcier, in :Andrieu, 2008 : 10). De même peut-on lire dans la présentation de l'article de Jérôme Vidal (2006 :229) sur la réception de Trouble dans le genre enFrance : « Cet ouvrage, qui propose une généalogie du genre et sollicitedes auteurs comme Beauvoir, Wittig, Irigaray, Foucault, Lacan, Derrida ouKristeva pour penser les rapports entre sexe et genre, est donc parvenu aulectorat français “en différé” et après la traduction de plusieurs ouvragespostérieurs de son auteure. Ce délai même – auquel Judith Butler s'attendait –pose la question de la réception spécifique de ses travaux en France, alors mêmeque la philosophe s'appuie largement sur ce qu'on appelle aux États-Unis la“ french theory” ». S'agissant à présent du masculin et du féminin et des implications sociales deces catégories de genre, nous avons tous – chercheurs sur ces questions – unereprésentation plus ou moins précise des ramifications historiques de cesconstructions sociales. La formation des genres sexués (Beauvoir, 1949 ;Héritier, 1996, 2002), leur bivalence et leurs constructions dans la transaction( Mead, 1949; Goffman, 1977; Bourdieu, 1991, 1998), la complexité etl'indétermination des formes de sexualité (Godelier, 1982, 2005) ont déjà étéanalysées et théorisées par maints auteurs majeurs. Ces quelques lignes ne prétendent pas restituer l'ensemble des filiations etaffiliations qui ont concouru à l'élaboration et aux usages du concept de genre .Pour le moins, elles permettent de montrer que, en matière de Turn, ni un objet nouveau n'éclaire un courant, ni un courant nouveaun'éclaire un objet. Dans la perspective de la fondation d'un champ de rechercheou d'une discipline, quels sont alors, en 2009, les apports scientifiquesinédits du genre ? Le genre suppose une déconstruction, il appelle laréflexivité et suppose l'analyse des stratégies de pouvoir, nous disent lesinitiateurs d'un paradigme théorique du genre dans la précédente livraison deQuestions de communication. Trois principes que nousreconnaissons cependant comme étant déjà aux fondements d'un courant théorique :le constructivisme, lui -même empreint des courants théoriques qui dès le XIX e siècle constituent les prolégomènes des études sur lesrapports sociaux de sexe. Le genre apporte -t-il donc réellement une plus-valuedans nos disciplines et pourquoi ne pas s'inscrire, plutôt, dans un courantthéorique éprouvé pour analyser un objet devenu commun, la femme ? Les travauxsur les hommes, même s'ils restent marginaux, ne manquent pas non plus dans leparadigme des rapports sociaux de sexe (Mosse, 1999, Welzer-Lang, 2000). Alors ,pourquoi ne pas renverser le questionnement et interroger, peut-être, unetentative de domination féminine ? Nos collègues participeraient-elles, malgré elles, à transformer le dispositif desexualité (Foucault, 1976), un dispositif de contrôle social – fondé sur laclasse, l'économie, la sexualité, les caractéristiques biologiques, lesinstitutions, etc. – en un dispositif de genre, fondé sur la féminité ? MichelFoucault (1976 : 123), qui analysait les relations de pouvoir comme étant à lafois intentionnelles et non subjectives, évoquait en effet, dans un régimepouvoir-savoir, « de[s] grandes stratégies anonymes, presque muettes, quicoordonnent des tactiques loquaces dont les “inventeurs” ou les responsablessont souvent sans hypocrisie ». Selon que le chercheur se place du côté de l'objet (sexe, femme) – ce qui est lecas de nos collègues participant à la précédente livraison des « Échanges » surle genre dans Questions de communication – ou du concept( genre), il ne produira pas le même type de résultats. D'un côté la femme( objet) : l'analyse des conditions de domination des femmes; de l'autre, legenre (concept) : l'analyse des conditions de leur émancipation, voiredomination. La division terminologique établie par Erving Goffman entre l'ordrestructurel et l'ordre interactionnel (Zaidman, 2002 : 12). semble pertinentepour distinguer ce qui relève des études de femmes et du concept de genre. Lesétudes de femmes participent, selon moi, de la reconduction des présupposés del'oppression des femmes (ordre structurel), le concept de genre met en jeu despotentialités libératrices – voire dominatrices – à travers ses usages dansl'interaction (ordre interactionnel). Les partisanes ou activistes des étudesQueer en France ont bien compris et saisi cettepossibilité offerte par le genre conceptualisé. Elles radicalisent cependantcette posture dans une visée politique par l'inscription sur le corps (le leur )de la labilité du genre (Bourcier, 2001, 2005). Le genre est performance, iltraverse l'hexis corporelle et se cristallise dans l'expérience sexuelle horsnorme. Si Marie-Hélène Bourcier est capable d'une objectivation absolue, endistinguant les émotions et la logique pratique, politique, je ne partage pasles attendus de sa posture. À la performance ostensible de l ' hexis, je substituerais plus volontiers la discrétion sournoise de l 'ethos. Si le genre, concept, est synonyme de libertéou de domination, il est forcément synonyme d'intelligence et de stratégie .C'est dans cette perspective que je voyais le genre dans un article consacré auxfemmes en politique : « Plutôt que d'opposer une misandrie à une misogynie – ladomination du principe masculin sur le féminin et son vis-à-vis –, il seraquestion ici de penser l'idée plus globale d'une domination du principe devirilité, donc de pouvoir, sur le masculin autant que sur le féminin qui sontseulement des catégories pour classer les sexes biologiques. En politique, laféminité et le genre sexué pourraient bien prendre les allures de positionsstratégiques. Interroger des discours sur le corps et la beauté nous permettradès lors d'éclairer des tactiques, des instruments d'expression d'un mécanismeplus vaste de domination où les relations seraient mobiles et transitoiresplutôt que figées et masculinisées » (Gavillet, 2005 : 22). Je posais l'hypothèse d'une part d'un intérêt des chercheuses à reproduire l ' idée élémentaire de l'oppressiondes femmes en me fondant sur le courant constructiviste et sur le concept mème élaboré par Richard Dawkins, et je supposais ,d'autre part, que le genre était un concept qui permettait la neutralisation descatégories de sexe et de sexualité. Je m'appuyais, pour défendre cettehypothèse, à la fois sur des expériences publiées de femmes politiques et/oufranc-maçonnes et sur un entretien que j'avais conduit auprès de FrançoiseGaspard. Je me permets de reproduire ici un passage de cet article qui élucideramon appropriation du concept ethnologique : « Sur la question de la propagation d'une idée élémentaire, leconcept de mème fondé par Richard Dawkins (2003 :257-272) sur une analogie d'ordre structurel avec le gène nous semble éclairant .Considérant par exemple le mème “Dieu ”, le chercheurestime que la valeur de survie de cette idée provient de son fort attraitpsychologique. Selon ses termes, “Il fournit une réponse superficiellementplausible à des questions profondes et troublantes sur l'existence” (ibid. : 262). L'idée du feu de l'enfer, selon RichardDawkins, se perpétue d'elle -même à cause de sa simplicité et de son impactpsychologique important : “Les biologistes ont l'habitude de chercher desavantages au niveau du gène [… ]. Ce que nous n'avons pas encore pris en compte ,c'est qu'une caractéristique culturelle ait pu évoluer d'une certaine manièreparce qu'elle y a trouvé son avantage” (ibid. : 270). Un“ mème-idée pourrait être défini comme une entité capabled' être transmise d'un cerveau à un autre. Le mème de la théorie de Darwin formedonc la base essentielle de l'idée commune à tous les cerveaux qui comprennentla théorie. Les différences résidant dans la façon dont les gens se représententla théorie, ne font alors, par définition, pas partie du mème” (ibid. : 266). Dans la logique de l'ethnologue, un mème qui serait une idée scientifique verrait sareproduction dépendre de la façon dont il serait jugé acceptable par lesscientifiques. Sur la foi de ces considérations, il est possible d'envisager quele mème domination masculine trouve un avantage dans laréplication de sa forme la plus élémentaire dans le champ scientifique, parcequ'elle répondrait de façon superficielle à des questions existentiellescompliquées. Plutôt que d'imaginer les linéaments complexes d'une théorie fondéesur des rapports de pouvoir compliqués, l'idée mème de ladomination masculine offre l'avantage de l'explication à moindres frais »( Gavillet, 2005 : 31). Cette logique de reproduction d'une idée élémentaire et du genre comme stratégieest finement analysée et illustrée par Lucie Bargel, Éric Fassin et StéphaneLatté (2007 : 59-77) dans la restitution d'une enquête sur la parité menéedepuis 2001. Dans leur article, les auteurs se positionnent contre la« rhétorique de la déploration », autrement dit l'oppression des femmes. Ilsopposent les usages du genre aux contraintes du sexe. Le rapport entre le sexeet le genre est pensé à partir de deux entrées que sont la voix (entréebiologique) et le niveau social (entrée sociologique). La voix, comme le niveausocial, sont des principes de hiérarchisation dans l'univers politique. Ils sontdes moyens de poser les rapports de pouvoir, de construire des identitésstratégiques à travers l'usage de catégories. Selon ces auteurs, le genre dansle langage politique est une carte, un atout, une ressource. Le genre est tantôtexhibé (« les femmes font de la politique autrement »), tantôt réprimé (« lesfemmes sont des hommes politiques comme les autres »). L'habitus est tantôtcontraignant, tantôt de l'ordre de la culture et susceptible d'usages et dedétournements. Nul doute que le genre, analysé dans un cadre universitaire – et pourquoi pas ensic –, produirait le même type de résultats. Maisle travail reste à faire. On a fourni aux femmes – et aux hommes – les outils deleur liberté intellectuelle par rapport à leurs sexes respectifs il y a plus de40 ans. Pourquoi les femmes chercheuses n'appliquent-elles pas à elles -mêmes cesconcepts émancipateurs ? Quand produiront-elles, par exemple, des études sur leseffets positifs de l'usage de leur genre (concept) dans la progression de leurcarrière ? Sur leur recrutement ? Ou des usages productifs de la notion degenre – entendu comme objet (femme) – dans la progression de leur facteurh ? Si le genre notion (objet, femme) rencontre un succès incontestable chez leschercheuses, le concept semble en revanche connaître quelques réticences oupeut-être méconnaissances. La réception très controversée des traductions destravaux d'Erving Goffman (Zaidman, 2002) ou de Judith Butler (Vidal, 2006 )indique que les mouvements féministes – au moins autant que la conceptionrépublicaine de la recherche française et la tradition universaliste qu'ellesdénoncent pour expliquer la « lenteur » du genre en France – résistent à ladiffusion d'un concept complexe et bivalent, qui peut se retourner contre lesreprésentations des carrières des femmes autant qu'il peut les servir. Si le genre, tel qu'il est communément empoigné (la femme) n'apporte riend'innovant aux sic, théoriquement parlant, qu'est -ceque les sic apportent au genre ? Les sic ne seraient-elles pas aveugles au constructivisme ,à la sociologie, l'anthropologie, la philosophie, la phénoménologie, lestructuralisme, l'interactionnisme symbolique, etc. ? N'en déplaise aux promoteurs du genre dans les sic, lesanalyses sur ces questions ne naissent pas en France dans les années 2000 et àla suite de la parution de la traduction de Gender Truble de Judith Butler. Une découverte personnelle n'est pas une révolutionépistémologique. Le genre, contrairement au sexe biologique, n'est pas uneassignation. Il est un concept du constructivisme. Dans nos professions, en toutcas, il est un choix. Et s'il ne l'est pas, ne parlons plus de genre, alors ,mais soyons honnêtes et parlons de sexe. Les travaux de l'ethnopsychanalyseapprennent que l'objectivation de notre position et de notre posture derecherche est constitutive d'une méthode de recherche réfléchie, intelligente etoriginale (Devereux, 1967). J'adhère totalement à cette démarche réflexive. Maisde là à en conclure que l'affirmation de son appartenance à une classe de sexe ,la femme, est un gage d'intelligence et d'originalité dans la recherche, il y aun abîme. Dans la dernière livraison de Questions decommunication, s'appuyant sur les théories Queer, Marie-Josée Bertini conclut son texte sur la position située duchercheur : « Les théories Queer, en allant bien au-delàdes études de Genre, participent ainsi à renouveler profondément les rapportsentre théories et pratiques ainsi que les formes de l'engagement politique ,comme le montrent leur exigence de penser le savoir de manière politique, doncsituée, en se référant aux standpoint theories outhéories de la « connaissance située » (Harding, 1991; Hartsock, 1997), paropposition au mythe moderne de la connaissance objective et universalisante »( Bertini, 2009 : 169). Mais que nous disent les contributrices aux « Échanges »sur leur « connaissance située », sinon qu'elles sont femmes et chercheuses ?N'est -ce pas, là aussi, une posture universalisante qui n'élucide en rien leursprédispositions et prénotions ? Claude Zaidman (2002 : 21) éclaire les prémices d'une croyance féministe àl'objectivité par l'exposition d'une subjectivité (mais toute relative) :« D'autres sociologues américaines, bien que critiquant l'interactionnisme qui ,selon elles, néglige les relations de pouvoir, utilisent l'apport del'ethnométhodologie comme ouverture du champ de l'observation sociologique audomaine du quotidien et du corps. Cette rapide mise en perspective du contextede publication de l'article de Goffman suscite une première réflexion sur lacritique sociologique de la science positive, critique qui se développe à partirde la conceptualisation du genre. Pour les féministes, la connaissancescientifique et, plus particulièrement, la sociologie sont limitées à uneperspective des dominants [. .. ]. Elles doivent y opposer “le point de vue desfemmes” ou encore “un point de vue féministe” ». Le point de vue féminin ouféministe n'annonce -t-il pas les prémisses de l'opinion de l'homme de la rue ? Aussi, pour une conclusion possible sur la substitution de la dominationhomosexuelle masculine à la domination hétérosexuelle masculine – sur lesfemmes, toujours ! –, j'invite mes collègues à lire l'opinion de l'homme de larue (qui en vaudrait une autre, selon certaines) dans le fameux Le premier sexe, d' Éric Zemmour (2009) .
Si les sciences de l'information et de la communication (SIC) ont manqué le Turn, peut-être ce dernier n'est-il pas celui auquel on pense dans la dernière livraison des « Échanges » de Questions de communication. Au tournant du genre, nous opposerons celui de la philosophie, de la phénoménologie, de l'anthropologie et de la sociologie. En effet, la première série des « Échanges » sur le genre invite à distinguer, en retour de ces contributions inaugurales, une approche fondée sur l'objet - en l'occurrence le genre et, plus trivialement ici, la femme - d'un courant théorique (le constructivisme) et, ce faisant, à pointer une des limites mêmes de ce courant ou en tout cas de ses (non)appropriations abusives: l'amalgame de la théorie, des études et de l'opinion. Pour finir de se demander si, par le biais du « genre », les SIC ne réclameraient pas, tout simplement, l'usage des théories, concepts et méthodes promus et portés par la philosophie, l'anthropologie et la sociologie. Si le genre devait se fonder en discipline autonome, il conviendrait alors sans doute de renverser la direction de l'analyse et, plutôt que de se demander ce que le genre apporterait aux SIC, se demander ce que les SIC apporteraient au genre.
sciencesInfo_11-0031650_tei_1060.xml
termith-376-communication
Les technologies émergentes font presque toujours appel, pour désigner les concepts nouveaux qu'elles mettent en œuvre, à des métaphores évoquant les usages traditionnels. L'informatique ne fait pas exception. Le terme de « document » est ainsi très largement utilisé aujourd'hui, tel un « joker », dans le champ de l'informatique, de l'informatique de la santé en particulier. En l'occurrence, on lui accole d'ailleurs volontiers l'épithète « électronique », ce qui constitue la plupart du temps un abus de langage masquant un certain abus conceptuel : si l'électronique intervient dans le traitement des données, elle n'intervient de fait qu'indirectement dans leur conservation, leur entreposage ou leur archivage. Les métaphores trouvent toujours leurs limites. Quel concept – quels concepts – l'expression « document électronique » recouvre -t-elle en réalité ? Sous cette question d'apparence technique se cachent néanmoins des conséquences d'une grande importance pratique : conséquences en termes de compréhension, de perception et d'acceptabilité, conséquences en matière de « re-conception des activités » (business redesign). L'élaboration des applications que l'on souhaite voir utiliser par des médecins ou autre professionnels de santé dans leur exercice quotidien ne prend pas assez en compte la nature et les besoins réels de l'exercice médical. Et ce, pour deux raisons principales, pas forcément indépendantes : la plupart des médecins ne conçoivent pas les bénéfices qu'ils pourraient obtenir de l'informatisation de leur pratique; ils ne font, par conséquent, pas l'effort suffisant d'analyse pour rédiger des cahiers des charges précis et complets; les besoins auxquels l'informatisation de l'exercice médical est censée répondre sont définis par des non-médecins qui projettent sur cet exercice des concepts d'organisation et de fonctionnement auxquels ils sont accoutumés mais qui lui sont étrangers et relèvent même parfois du fantasme. Nous nous efforçons ici de montrer pourquoi et en quoi l'usage de la notion de document électronique dans le domaine des soins de santé devrait le plus souvent être révisée, en centrant notre propos sur les usages de documents dans les systèmes d'information de santé cliniques et sur le contenu de ces documents. Dans son acception usuelle, un document est un élément matériel comprenant un support et un tracé et contenant une information – de fait une ou plusieurs feuilles de papier, support d'un écrit – et servant de preuve (une pièce justificative) ou de renseignement. Un document peut prendre plusieurs formes, notamment correspondance, note, livre, plan, carte, dessin, etc. Malgré son assimilation fréquente à son seul support physique dans le langage courant (par exemple, « Avez -vous vos papiers ? »), on le perçoit en fait plutôt comme ayant un contenu informatif. Cependant, la notion de « document » est toujours relativement emphatique. Elle a été progressivement étendue, particulièrement en matière de support physique, et l'on admet légalement aujourd'hui qu'un document peut être dématérialisé. Cette notion de « dématérialisation » signifie essentiellement que l' œil (puis le cerveau) humains ne peuvent accéder au contenu informatif que par l'intermédiaire d'un outil (un « medium ») : le « document » doit être traité par machine avant d' être lu. Mais en réalité, elle ne porte concrètement – si l'on peut dire – que sur la transmission. Car en pratique la dématérialisation consiste à (1) numériser l'information, d'une manière ou d'une autre, puis à (2) l'entreposer (« l'enregistrer ») sur un support physique sous la forme, par exemple, de signaux magnétiques ou à lecture optique, de manière, le moment venu, à (3) la transmettre sous la forme de signaux électroniques ou optiques. Donc la notion de document prend en compte dans sa définition trois dimensions, qui interfèrent entre elles : son usage (preuve ou information – renseignement), lié à sa communication, sa forme physique et sa présentation, et son contenu, nécessairement structuré en fonction du sens (information) qu'il est censé véhiculer. Exemples, parmi d'autres, de documents usités dans le système de santé : lettres accompagnant l'adressage d'un patient par un médecin à un autre médecin, en vue d'un examen spécialisé ou d'un examen paraclinique; comptes rendus d'examens spécialisés, d'examens biologiques, d'examens d'imagerie; comptes rendus de séjours hospitaliers, lettres de sortie. Dans le document de travail pour la spécification technique ISO 27527, un système d'information est défini comme un « ensemble organisé de personnes, de processus et d'équipements permettant, dans un but décisionnel et avec des objectifs explicites, le recueil et l'entreposage des données décrivant une situation réelle et son évolution, leur traitement en informations et la transmission de ces informations ». À ce titre, un système de dossiers médicaux mis en œuvre dans un cabinet médical constitue déjà un système d'information et le concept de système d'information en santé ne se limite pas aux gros systèmes destinés à accompagner la gestion d'établissements hospitaliers, par exemple. Dans un système d'information de santé, la documentation peut jouer plusieurs rôles, entre autres : suppléer la mémoire du patient, ou celle du professionnel de santé, et constituer un « réservoir » de données à l'appui de raisonnements cliniques à venir; conserver la trace des faits et des actes survenus en rapport avec une prise en charge de patient, soit pour en communiquer la teneur à d'autres parties intéressées, un autre professionnel de santé (comptes rendus, lettres de sortie, lettres d'adressage, etc.) – ou le patient lui -même –, par exemple; justifier l'usage de ressources et appuyer une demande de financement, etc. On peut, cependant, distinguer d'ores et déjà deux catégories de documents : des documents rigides et a priori insécables, conçus dans un but immédiat précis (lettre de sortie, compte rendu opératoire); parce que leur format n'a pas été choisi pour cela, l'extraction de certains éléments (données) en vue de leur réutilisation dans un autre contexte ne peut s'effectuer que manuellement à l'issue d'une analyse visuelle approfondie; automatiser cette analyse de textes non standardisés, en particulier quant à leur terminologie, relèvera longtemps encore du mythe; des documents à visée cliniquement « opérationnelle » dans un environnement informatisé, signifiants dans le contexte de leur élaboration et de leur emploi primordial, mais pouvant ou non conserver leur sens et leur valeur informative en dehors des circonstances de leur constitution, dont les données constitutives peuvent aisément être extraites de manière automatisée, accompagnées de la description (normalisée) de leur contexte d'origine, en vue d'une réutilisation. Si l'exercice de la médecine, en ses diverses spécialités, de même qu' à des degrés divers celui des autres professions de santé, présente indubitablement des aspects manuels, cette discipline est principalement de nature intellectuelle. Schématiquement, elle met en œuvre des mécanismes mentaux récursifs d'acquisition (mise en évidence de faits et recueil de données), comparaison (notamment à des connaissances de référence), déduction (hypothèses et conclusions). Bien que peu de cliniciens en aient clairement conscience, le fond de leur métier consiste essentiellement, et en permanence, à gérer de l'information, c'est-à-dire à recueillir, à acquérir ou à extraire des données et de l'information, à les traiter, les conserver ou les entreposer, et ultérieurement à les archiver à diverses fins éventuelles. Ils les groupent, les trient ou les classent, puis les consolident à l'appui de leur raisonnement pour constituer des informations utiles. Les sources de données sont des signaux, des faits consignés (issus de leur observation ou de déclarations de tiers, particulièrement du patient), des informations préexistantes (des documents). Pour un clinicien très peu de documents possèdent une valeur intrinsèque, définitive et a priori indiscutable. Si la démarche clinique consiste essentiellement à gérer de l'information, elle ne peut en aucun cas être assimilée à la gestion documentaire. Car fort peu d'informations dont il peut disposer sont utilisées telles quelles; elles sont le plus souvent analysées, parfois démantelées sous la forme de données « granulaires » pour être traitées à nouveau, discutées voire contestées. Le domaine de la clinique est par excellence le royaume de l'incertitude. Et, par ailleurs, depuis le premier jour de ses études, tout médecin sait que chacun de ses actes engage sa responsabilité personnelle sans qu'il puisse se défausser sur qui que ce soit. Dans l'ancien temps, c'est-à-dire celui où, majoritairement, nous vivons encore, l'acquisition des données se fait grâce aux cinq sens dont la nature nous a pourvus, avant que notre cerveau ne les traite. Lorsqu'un medium s'intercale dans le processus d'observation, une machine qui détecte des signaux que nos cinq sens ne peuvent capter ou de manière trop fugitive, c'est généralement la vue (pour la lecture d'un signal écrit ou d'un compte rendu), parfois l'ouie, qui relaient ces données vers notre cerveau. À tout instant, un opérateur peut ressentir le besoin de consigner par écrit soit le contenu d'une donnée, soit un stade intermédiaire du traitement de l'information – hypothèse diagnostique, par exemple –, soit un palier dans le raisonnement – diagnostic, par exemple, le plus souvent provisoire par nature –. Tout écrit ne constitue pas un « document ». Seules une synthèse, une conclusion – compte rendu d'examen, de consultation ou d'hospitalisation – présentent un contenu informatif suffisamment consolidé pour être considéré comme tel. Mais en ces temps -là, ce sont l' œil et le cerveau et eux seuls qui assurent la décomposition d'une information (ou d'un document) en données élémentaires, puis leur traitement et leur recomposition en informations élaborées. Certes, dans les temps émergents du numérique, de la dématérialisation et de l'informatique, l' œil est encore le plus souvent l'intermédiaire ultime de notre cerveau, par le truchement d'un moniteur vidéo ou d'une impression sur papier. Mais une part croissante du traitement de l'information et des données utilise (utilisera ?) les capacités de calcul de machines dont les capacités d'adaptation spontanées sont beaucoup moins développées que celles des organes, et en particulier du cerveau, humains. Pour pouvoir être utilisées et traitées par ces machines, d'origine et de conception diverses, les données et les informations doivent leur être présentées dans des formats qu'elles peuvent toutes reconnaître. C'est le fondement du concept d'interopérabilité, et plus précisément d'interopérabilité sémantique. En fait, deux exigences de nature sensiblement différente pèsent sur les spécifications à respecter en matière d'interopérabilité : la lecture par l' œil humain suivie du traitement par le cerveau humain, ce qui constitue dans la plupart des cas le stade ultime d'un processus de gestion de l'information, mais aussi, particulièrement dans le cadre de cette étude, un traitement par ordinateur, au moins partiel ou pour une partie du processus. « L'interopérabilité est l'état qui existe entre au moins deux applications lorsque, pour une tâche définie, l'une des applications accepte des données provenant des autres et accomplit cette tâche d'une manière jugée appropriée et satisfaisante par les utilisateurs sans nécessiter l'intervention d'un opérateur externe » (CEN Report, 1999). Par conséquent, l'interopérabilité s'apprécie (1) au regard d'une tâche et (2) entre au moins deux applications déterminées, et l'interopérabilité entre systèmes implique que les tâches à effectuer aient été clairement définies. L'interopérabilité est le seul moyen permettant à des partenaires exerçant en des lieux divers, disposant de compétences, de perspectives, de statuts et d'ordres du jour différents, de même qu'éventuellement d'une culture et d'une langue différentes, et utilisant des systèmes d'information distincts provenant de divers vendeurs, de collaborer de manière harmonieuse pour dispenser des soins de qualité (CEN/ISSS, 2005). Il existe plusieurs niveaux d'interopérabilité et plusieurs taxinomies de ces différents niveaux, plus ou moins détaillées, ont été ou sont proposées. En voici un premier exemple (ISO, 2004) : Au sommet d'une « échelle des interopérabilités », se trouvent trois niveaux : fonctionnel, syntaxique et sémantique, chacun pouvant à son tour être subdivisé. Le partage complet de l'information impose que les deux niveaux supérieurs soient atteints : interopérabilité fonctionnelle et syntaxique : la capacité de deux systèmes au moins à échanger de l'information (de telle sorte qu'elle soit lisible par le récepteur humain); interopérabilité sémantique : la capacité pour une information partagée par ces systèmes à être comprise au niveau des concepts d'un domaine formellement défini (de telle sorte que l'information puisse être traitée par un ordinateur du système récepteur). Ce qui est en cause ici, ce n'est pas seulement l'échange de données et d'informations, mais leur réutilisation et leur traitement; l'objectif qu'il faut atteindre est bien l'interopérabilité sémantique. Voici un autre exemple de taxinomie des différents niveaux d'interopérabilité (SemanticHEALTH, 2009) : Niveau 0 : aucune interopérabilité Niveau 1 : interopérabilité technique et syntaxique (pas d'interopérabilité sémantique) Niveau 2 : deux niveaux d'interopérabilité sémantique partielle orthogonaux Niveau 3 : interopérabilité sémantique complète (la description du contexte peut être partagée, la coopération est possible sans solution de continuité). En pratique, quatre pré-requis sont nécessaires pour permettre l'interopérabilité sémantique : l'utilisation d'un même modèle de référence normalisé pour le dossier de santé informatisé (c'est-à-dire une architecture de base commune) chez l'émetteur et chez le destinataire de l'information (condition également requise pour l'interopérabilité syntaxique); des modèles d'interfaces normalisés entre services (tels que bases de données personnelles d'identification détaillées, service terminologique, gestion des accès et sécurité, etc.) permettant l'interopérabilité entre le dossier informatisé de santé et tous les autres composants d'un système d'information clinique complet (condition également requise pour l'interopérabilité syntaxique); un ensemble normalisé de modèles conceptuels spécifiques pour chacun des domaines couverts, consistant, par exemple, en des « archétypes » ou des « canevas » (templates) pour la représentation des concepts cliniques, démographiques, etc.; des terminologies normalisées, à l'appui de ces « archétypes ». Il est patent que le projet passé de dossier médical personnel (DMP) ne constituait qu'une accumulation documentaire dont, pas plus que la gestion pratique, l'utilité réelle et l'utilisation au long cours n'ont jamais été testées. Quels peuvent être les usages réels d'un empilement centralisé de « documents », conteneurs de données non interopérables dont le traitement en vue de leur éventuelle réutilisation ne pourra qu' être manuel ? Recevoir des résultats d'analyses de laboratoire sous forme « électronique », c'est bien, mais mis à part leur entreposage, comment les faire interagir dans n'importe quel système d'aide à la décision, ne serait -ce qu'un simple outil de présentation graphique, s'ils ne sont pas présentés dans un format normalisé ? C'est bien d'un « système » (un système de dossiers informatisés de santé) dont on a besoin, même au niveau d'un poste de travail de praticien (Tarac et al., 1998). Deux applications font, surtout depuis quelques années, l'objet de déclarations d'intention, en particulier dans les services de la Commission Européenne qui y voient une exigence essentielle de la libre circulation des personnes au sein de l'Union, et qui ont fini par convaincre les gouvernements des États membres qu'elles constitueraient une étape majeure de l'informatisation des systèmes de santé nationaux : l'ensemble de données d'urgence (emergency data set) et le résumé des données d'un patient (patient summary), en quelque sorte une extension du précédent, en somme, deux variantes du concept de « dossier minimum » dont l'utilité opérationnelle n'a jamais été prouvée sur le terrain 1. Or, de même que, de manière regrettable, le DMP français, ces applications ne sont généralement perçues que sous l'angle restrictif de la seule gestion documentaire, plus précisément en termes de « gestion électronique de documents ». Car en raison même des considérations qui précèdent quant à la nature et aux modalités de la démarche clinique, elles risquent fort de passer à côté des vrais besoins, de s'avérer sans utilité réelle et de ne constituer, en définitive, qu'un exercice coûteux mais sans réel lendemain. La question primordiale est celle de la responsabilité du médecin en rapport aux données sur lesquelles il fonde son raisonnement. De même que le médecin est responsable de ses décisions, la sélection et le choix des informations et données pertinentes qui lui sont nécessaires relèvent en propre de sa responsabilité. Ces données ne doivent lui être toutes imposées a priori par un dispositif générique, conçu par essence sans rapport au contexte clinique actuel. En effet, un tel dispositif s'avère toujours soit limitatif s'il ne propose que des informations générales donc vagues, soit excessivement holistique s'il propose, à l'inverse, une large quantité de données disponibles, parfois très précises, mais seulement utiles en certaines circonstances. Soulignons également que le degré de précision utile et nécessaire diffère d'une spécialité médicale à l'autre. Plus précisément, certaines données et informations s'imposent au médecin, tels les faits qui motivent le recours aux soins. Ensuite, un nombre très réduit d'informations générales relatives à certains antécédents personnels avérés du patient peut éventuellement l'aider à préciser le contexte clinique. Au-delà, il lui faut identifier et rechercher ce dont il a besoin pour nourrir son raisonnement. Lui apporter tout ce qui est disponible ne lui est, dans l'immédiat, d'aucune utilité, car cela ne le dispense pas de devoir raisonner. De plus, comme nous l'avons vu, la complétude et l'actualisation des données dont il ne contrôle pas l'origine ne peuvent lui être garanties. Le médecin ne peut donc engager pleinement sa responsabilité de clinicien que s'il maîtrise l'ensemble de la démarche. Même dans une équipe de soins, il n'existe pas de responsabilité collective. Chacun assume ses actes et personne ne peut se défausser de sa responsabilité sur les autres en raison de la mauvaise qualité de l'information, sauf lorsqu'il est prouvé qu'elle est délibérément erronée ou incomplète 2. Examinons un cas d'utilisation assez général. Lorsqu'un patient se présente à un médecin (particulièrement s'ils ne se connaissent pas), celui -ci entreprend immédiatement un raisonnement qui lui permettra, par étapes successives et récursives d'élaborer un diagnostic. Inévitablement, après un interrogatoire bref ou prolongé et un examen du patient plus ou moins approfondi, il éprouve très vite le besoin de disposer d'informations complémentaires à sa seule observation, les plus précises et complètes possibles. Les antécédents du patient sont importants, ainsi que, en cas d'affection chronique ou d'affection aiguë en cours de traitement, mais dans tous les cas il a besoin de données récentes et à jour. La valeur informative de données obsolètes ou soupçonnées de l' être n'est pas nulle – elle peuvent orienter la réflexion (ou parfois la leurrer) –, mais elle peut s'avérer très réduite devant la nécessité d'une réaction rapide. La clinique procède d'une démarche intellectuelle souvent complexe où les données relatives au passé ne jouent qu'un rôle variable à côté des données de l'observation (sous toutes ses formes) et des référentiels de connaissances, lesquels ne cessent de s'étendre. Dans un temps réduit, le médecin va s'efforcer d'accéder, avec ou sans l'aide du patient, à ces données complémentaires, précises, récentes, les plus complètes possibles et à jour. À défaut d'y parvenir, il fondera son raisonnement, comme tous les médecins l'ont toujours fait jusqu' à présent, sur une information parcellaire et incertaine. L'absence de données d'antécédents n'a jamais entraîné de refus de soins, pas plus que la disposition de données douteuses. Une personne étendue sur le sol dans la rue est-elle alcoolique, épileptique ou dans un coma hypoglycémique ? La conduite à tenir est un classique de l'urgence. Mais la plupart des spécialités médicales, au premier rang desquelles la médecine générale et la médecine d'urgence, ont l'habitude, par nécessité et par nature, d'évoluer et de décider en pleine incertitude. Donc le raisonnement du médecin lui a très vite permis d'identifier des pistes de recherche diagnostique. Il a déjà commencé à délimiter le champ du possible, du vraisemblable et même du probable. Et, urgence ou pas, il ne dispose que d'un temps limité. Il souhaite accéder immédiatement à une information ciblée et fiable. Un ensemble de données d'urgence ou un résumé des données d'un patient portées par des documents qui ne peuvent, par nature, qu' être obsolètes ou seront soupçonnés de l' être seront de peu d'utilité, voire dangereux. Un médecin ne pourra accorder à ce type de « documents » qu'une confiance circonspecte. Elle sera d'autant circonspecte que les données qu'ils mentionnent émanent de personnes qu'il ne connaît pas et qu'il en ignore le contexte : le fait de savoir que chacun de ses actes engage sa responsabilité personnelle fait profondément partie de sa culture professionnelle. Aussi, dans un premier mouvement spontané, la crédibilité de données dont la source n'est pas connue est systématiquement mise en doute. Mais, par opposition à des données dont l'actualité ou l'obsolescence ne sont pas établies, et sous réserve de cette méfiance « culturelle », le vrai bénéfice pour la sécurité du patient et le confort intellectuel du médecin, serait apporté par la disposition quasi instantanée de données incontestables. Ce qui pourrait aider le médecin, ce serait d'accéder dans l'instant, sur le lieu des soins, à des informations par nature éparses car par nature réparties dans tous les cabinets ou les unités de soins fréquentés par le patient au cours d'une période plus moins longue, qu'il définit lui -même. L'expression de cette exigence définit un système d'information profondément différent de la simple mise à disposition non orientée de documents seulement jugés potentiellement utiles par d'autres acteurs, à distance en dehors du contexte actuel. Alors qu'une approche simplement documentaire, sous couvert d'aider le clinicien, l'embarrasse en le dépouillant en fait d'une partie de sa capacité d'initiative et d'orientation, lui offrir l'accès direct rien qu' à ce qu'il a décidé de chercher accroîtrait considérablement ses capacités de raisonnement diagnostique. Il s'agit bien de laisser au clinicien la liberté et la responsabilité de son choix de données utiles au lieu de les restreindre pour lui faciliter la tâche. Ce serait une évolution majeure des systèmes d'information cliniques et cela répondrait aux besoins opérationnels de chaque clinicien, que de permettre un accès instantané à celles des données – réparties – qu' à chaque étape de sa démarche diagnostique, il identifie comme pertinentes et utiles à l'étape suivante, et à elles seules. Ce que ce tableau laisse entrevoir, ce n'est pas un dispositif de gestion documentaire, avec les problèmes d'indexation complexe 3 et de gestion des versions que cela pose, mais une infrastructure permettant l'accès protégé et sécurisé à des données d'origines diverses, réparties par nature, a priori à jour parce que recueillies et conservées sous la responsabilité de leur auteur pour son usage personnel, lequel n'a, pour cette raison, aucun intérêt à proposer des données non validées. Cette infrastructure doit identifier et localiser les données désirées, en gérer l'accès de manière sûre, notamment en ce qui concerne les droits d'accès, de manière fine, non pas au niveau de documents blocs non dissécables, mais jusqu'au niveau des données élémentaires. En somme, on peut opposer l'élaboration d'un document a priori et sa constitution à la demande. Dans un cas, on fait, en quelque sorte, du « push » (préconception du contenu et de son organisation), dans l'autre du « pull » (élaboration par l'utilisateur qui « grappille » des éléments d'information en fonction de ses besoins du moment). Mais la documentation d'un processus clinique peut également viser à : constituer un « réservoir » de données à l'appui de raisonnements cliniques à venir; conserver la trace des faits et des actes survenus en rapport avec une prise en charge de patient, soit pour en communiquer la teneur à d'autres parties intéressées, un autre professionnel de santé (comptes rendus, lettres de sortie, lettres d'adressage, etc.) – ou le patient lui -même –, par exemple. Ceci amène à envisager la documentation clinique sous un autre angle. Il est ici question de gérer (de traiter) des données « atomes d'information » de manière à permettre leur réutilisation dans une combinaison différente, dans un autre environnement et dans un autre système. Aborder la documentation dans cette perspective amène, tout simplement, à définir l'interopérabilité sémantique (cf. section 3.1.1. Définition de l'interopérabilité). La gestion (le « traitement ») de ces données consiste d'abord ici le plus souvent à les grouper, les juxtaposer, les relier de manière pertinente pour en dériver une information signifiante, pas nécessairement d'en faire une synthèse. Par la suite, la conservation de cette information implique en quelque sorte, de (re)constituer des « documents ». En somme, ces données que l'on a identifiées pour leur intérêt particulier au cours du processus clinique « de base », parfois dans des documents préexistants dont on les a extraites, vont être regroupées dans de nouveaux ensembles pouvant être considérés comme de nouveaux « documents ». À visée cliniquement « opérationnelle », dans un environnement informatisé, signifiants dans le contexte de leur élaboration et de leur emploi primordial, ils devront conserver leur sens et leur valeur informative en dehors de ce contexte. Ils pourront alors être éventuellement réutilisés si leurs données constitutives peuvent aisément en être extraites de manière automatisée, accompagnées de la description de leur contexte d'origine. La permanence (« persistence ») de tels documents dans lesquels les circonstances détaillées du recueil des données sont sauvegardées en vue de la réutilisation à terme de leur contenu en toute sécurité va conceptuellement de pair avec leur adaptabilité à de nouvelles circonstances d'utilisation, donc leur évolutivité, leur malléabilité. C'est ainsi qu'ont été définies les spécifications de deux modalités voisines de structuration contextuellement signifiante du regroupement de données à usage clinique. Au cours d'une succession de projets et d'applications initialement développés en Europe avec des extensions notamment en Australie a été défini un modèle d ' « archétypes ». Celui -ci constitue aujourd'hui une norme européenne et internationale (ISO EN 13606) et, il est notamment mis en œuvre par la fondation « Open EHR » (logiciel libre) (Open EHR.org). Un modèle de « canevas » (ou « templates ») est en cours de développement dans une visée similaire par le consortium HL7 (HL7.org). Il ne doit pas être confondu avec la spécification dite CDA (Clinical Document Architecture) du même consortium, dont les ambitions sont plus limitées puisqu'elles ne définissent qu'une structure de documents certes échangeables mais sans viser à l'interopérabilité sémantique. L'utilisation de « documents cliniques » au cours de la pratique médicale ne répondra aux besoins réels des praticiens que dans la mesure où elle correspondra véritablement à leur démarche… clinique. Aucun dispositif de « conduite du changement » ne les convaincra durablement du contraire. Plutôt qu' à un empilement de documents figés, un clinicien doit pouvoir accéder en un temps très court aux données précises, exactes et à jour dont il a immédiatement besoin. Ce résultat ne sera atteint que lorsque l'organisation des systèmes d'information et la structure des documents permettra la sélection et l'extraction des seules données jugées nécessaires par le clinicien, accompagnées de la description du contexte de leur recueil. Ceci ne définit aucunement un dispositif de gestion électronique de documents. Ce sont des données « granulaires » qu'il s'agit d'identifier et d'extraire à la demande d'un système réparti, en toute sécurité et en plein respect de la confidentialité. Et ceci nécessite que soit mise en œuvre une interopérabilité sémantique bien comprise. D'ores et déjà, des concepts de structuration des données ont été élaborés, auxquels correspondent déjà des normes européennes et internationales répondant à ces préoccupations. Les tentatives de constituer d'énormes bases documentaires centralisées sont très probablement vouées à l'échec. Ce que l'on doit attendre des pouvoirs publics se résume à la définition de formats et de procédures normalisés. Le reste se construira à partir d'une offre diversifiée et en collant aux réalités du terrain .
L'utilisation de documents cliniques au cours de la pratique médicale ne répondra aux besoins réels des praticiens que dans la mesure où elle correspondra véritablement à leur démarche clinique. Plutôt qu'à un dispositif de gestion électronique de documents ou à un empilement de documents figé, un clinicien doit pouvoir accéder en un temps très court aux données précises, à jour et exactes dont il a immédiatement besoin. L'organisation des systèmes d'information et la structure des documents doivent permettre la sélection et l'extraction des seules données jugées nécessaires par le clinicien, accompagnées de la description du contexte de leur recueil. Ce sont des données « granulaires » qu'il s'agit, à la demande, en toute sécurité et en plein respect de la confidentialité, d'identifier et d'extraire d'un système réparti.
sciencesInfo_11-0059500_tei_DN_123_0009.tei.xml
termith-377-communication
De nombreux chercheurs – anthropologues, philosophes, historiens de l'écriture ,psychologues, cogniticiens, psychopédagogues, théoriciens des médias et de lacommunication, technologues de l'éducation, ergonomes, sociologues et historiens destechnologies. .. – ont tenté de répondre à la question de l'articulation entredifférentes instances : les instances technologiques – les outils matériels maisaussi symboliques –, les instances sociales et relationnelles – « les gens, leursliens, leurs échanges, leurs rapports de force » (Levy, 1997 : 23) –, et enfin lesinstances culturelles – « la dynamique des représentations » (ibid.), les valeurs et les productions culturelles. De ces travaux ,souvent multidisciplinaires, nous retiendrons les concepts clés suivants, quiconstituent notre cadre théorique et fondent notre réflexion : outil cognitif( Bruner, 1966; Vygotsky, 1963 : Derry, 1990; Jonassen, 1992; Norman, 1993 ;Linard, 1996), dispositifs dans leurs différentes acceptions (Jacquinot et al., 1999; Peraya, 1999; Flichy, 2003; Blandin, 2004 ;Bonfils, Dumas, 2007; Appel et al., 2010), artefact ,instrument et schèmes d'usage, enfin activité instrumentée (Rabardel, 1995 ;Rabardel et al., 2001). Dans ce cadre, la conception dusavoir n'échappe pas à l'influence de la mutation technologique. Dans son ouvragevisionnaire La condition postmoderne, Jean-François Lyotard( 1979 : 11) pose comme hypothèse de travail le fait que « le savoir change de statuten même temps que les sociétés entrent dans l' âge dit postindustriel et les culturesdans l' âge dit postmoderne ». Or, tous les développements industriels et techniquesde pointe ont porté, depuis le début de l' âge post-moderne, sur le langage : lalinguistique et la phonologie, mais aussi la cybernétique, la communication, lesordinateurs et leurs langages, la compatibilité entre les langages-machines, etc .Puisque le savoir scientifique constitue un discours particulier ,« une espèce de discours, […] il s'en trouve ou s'en trouvera affecté dans ces deuxprincipales fonctions : la recherche et la transmission des connaissances » (ibid. : 12). L'impact des machines informationnelles sur lacirculation des connaissances est comparable, nous dit l'auteur, à celui qu'ontproduit le développement des moyens de transport puis celui des images et de médias .Nous voici donc bien au cœur de notre problématique : quel pourrait être l'impactdes technologies actuelles, celles de l'internet, du Web et particulièrement du Web2.0, sur les pratiques de production et de diffusion des connaissances en milieuacadémique, qu'il s'agisse de celles des enseignants comme de celles des étudiants ?En quoi et comment ces technologies pourraient-elles modifier les conceptionsépistémiques des enseignants et des étudiants ainsi que leurs pratiquesprofessionnelles ? Les technologies ne doivent pas être considérées comme la cause directe desphénomènes que nous observons aujourd'hui. Certes, elles y participent : ellesont renforcé et rendu plus patents des comportements existants, elles en ontaccéléré et accru d'autres permettant dès lors un changement de leur nature etde leur qualité. Internet et le Web constituent aujourd'hui une source colossaled'informations, mais ils offrent également une multitude de connaissances detous genres (scientifiques, professionnelles, littéraires et artistiques ,journalistiques, personnelles, etc.) et de toutes natures (textes écrits ,documents visuels, multi - et hypermédias, informations sonores, langageoral, musique, etc.). Ces technologies ont radicalement modifié les modes detransmission, de consultation et d'exploitation de l'information. Ainsi lesressources disponibles sur le Web dépassent-elles, du moins en nombre ,celles de nos grandes bibliothèques. Kevin Kelly, le co-fondateur dumagazine Wired, estime lenombre de pages Web disponibles à 1 billion (1000milliards) (Sanyas, 2011). Le premier écueilparaît donc être la surcharge d'informations – l'infobésité –qui constitue pour l'usager l'une des difficultés à sélectionner ce qui estpertinent pour lui. À la surinformation s'ajoute la diversité desinformations disponibles, de nature et de qualité très différentes, dont ladistinction peut s'avérer complexe pour un usager novice. En effet, à partird'une équation de recherche comprenant un ou plusieurs mots clés, on obtientdes textes scientifiques (articles, chapitres, etc.) issus de publicationsimprimées ou en ligne, des textes de vulgarisation, des articles de presse( quotidiens et magazines), des articles de revues professionnelles, destravaux d'étudiants, des textes personnels tels que des billets de blogues ,des fils de discussions dans des forums et/ou des listes de distributionrelatifs à des communautés de pratique ou d'intérêt, ou encore des sites Webet des portails. Loin d' être exhaustive, cette énumération témoigne de la diversité dessources disponibles et laisse entrevoir la difficulté d'appréhender lanature, la provenance et la qualité de ces informations numériques. Par sonexpérience et sa connaissance des sources faisant partie de sa sphèreprofessionnelle, un usager expert – comme un chercheur ou un enseignant –est à même d'identifier par exemple ce qui, sur une page Web, relève desinformations statutaires (type de publication, appartenance institutionnellede l'auteur, date de publication, etc.) et qui, habituellement rassembléessur le paratexte ou/et le péritexte des ouvrages imprimés, font ici souventdéfaut (Belisle, 2005). D'emblée, il y a donc une perte d'informationessentielle pour fonder une critique externe des textes. Comment, dès lors ,un étudiant peu aguerri aux méthodologies de recherche d'information peut-ilévaluer la qualité des connaissances et des informations qui lui sontproposées ? La propension, souvent observée chez les étudiants, à considérerque la connaissance ainsi fournie est « prête à l'emploi » est aisémentcompréhensible. Certains y voient d'ailleurs une opportunité commerciale ,comme en témoigne le succès de sites Web tels qu ' Oboulo.com ou Capmemo.com qui monnaientl'accès à des ressources académiques (synthèses, travaux d'étudiants ,mémoires, etc.) et participent ainsi au processus de marchandisation de laformation. Dans le monde de la formation en ligne, la métaphore de laformation self-service est par ailleurs courante et souligne avec acuité lapertinence de cette prévision : « Ce rapport des fournisseurs et des usagersde la connaissance avec celle -ci tend et tendra à revêtir la forme que lesproducteurs et les consommateurs de marchandises ont avec ces dernières »( Lyotard, ibid. : 14). Un peu plus de dix après l'invention du Web au Centre européen de recherchenucléaire (cern) – qualifié aujourd'hui de Web 1.0 – lui succèdele Web 2.0, dénomination proposée par Dale Dougherty et Tim O'Reilly en2004, pour désigner une nouvelle conception du Web (O'Reilly, 2005). Selonces auteurs, le Web 2.0 serait à l'origine d'une réelle mutation qualitativedu Web qui, participant à « la transformation du paysage technologique », ettoucherait « l'articulation même entre médias de communication etsociabilités » (Smoreda et al., 2007 : 22). Pourtant ,donner à ces termes une claire définition demeure difficile. En effet, en cequi concerne le Web 2.0, les définitions oscillent entre des listes detechnologies particulières, d'applications ou de services informatiques, desdescriptions d'usages et de pratiques caractéristiques, des principes deconception et d'usage relevant d'une philosophie globale. Il existecependant un consensus attribuant au Web de la seconde génération un certainnombre de caractéristiques communes. Le Web 2.0 constitueraitessentiellement une plateforme de services informatiques tels que lesapplications de création de réseaux sociaux (MySpace, Ning, Facebook ,etc.), les blogs, les outils de partage de documents et de médias (textes ,musique, photos, vidéos, etc.), les wikis, les outilsde marquage, d'agrégation, de structuration, de syndication ou de partage enligne de ressources (références, liens web), etc. Tous ces outils ouservices favorisent et soutiennent la participation, la collaboration entreles internautes, mais aussi la communication ainsi que l'expression digitalesous toutes ses formes, le réseautage social et le développement decommunautés (Lankshear et al., 2003; Palfrey et al., 2008; Greenhow etal., 2009). Sur les technologies et le modèle socioculturel du Web 2.0se greffe la conception d'environnements personnels de travail – Personal Learning Environment (ple) – (Downes, 2008; van Harmelen, 2007) et d'écologie del'apprentissage – learning ecology – (Barron, 2006) .Un ple s'apparente à un environnement Web 2.0 commele montre la définition proposée par Stephen Downes (2008 : 16) : « Thepersonal learning environment, however, is not based on the principle ofaccess to resources. It should more accurately be viewed as a mechanismto interact with multiple services […] It is best to think of theinterfaces facilitated by a personal learning environment as ways tocreate and manipulate content, as applications rather thanresources ». Ainsi le Web 2.0 constituerait-il avant tout unephilosophie, une culture et un ensemble de comportements communicationnels ,cognitifs et relationnels, « an attitude not atechnology » (O'Reilly, 2005), étroitement associés à de nouveaux services numériques .Quels sont alors les principes sur lesquels se construit le Web 2.0 ? Lepremier Web favorisait des formes de communication et de diffusioncentralisées et hiérarchiques (one to many) à lamanière des médias de masse classiques, tandis que le second se construitdans et par le partage et l'échange multidirectionnel de contenus et desavoirs (many to many). De plus, contrairement auWeb de la première génération, conçu comme un dispositif de transmission etde diffusion de contenus (read-only), le Web 2.0 sedéfinit comme un environnement participatif de lecture mais aussi deproduction (read-and-write), au sein duquel chaqueutilisateur, en principe tout au moins, peut devenir un usager, unproducteur actif de contenus. Autrement dit, les dimensions technologiques ,culturelles, relationnelles et cognitives du nouveau Web faciliteraientl'instanciation d'un « modèle " participatif " où l'usager, de simpleconsommateur, se mue en " véritable générateur de contenus " » (Bouquillionet al., 2010 : 5-6). On se souviendra d'Emerec ,le personnage imaginé par Jean Cloutier (1973) qui assume, tour à tour, lespostions symétriques d'émetteur et de récepteur en communiquant par le biaisdes self-médias. Les médias audio-scripto-visuels analogiques classiquesn'ont pas réussi à faire sortir Emerec de l'utopie. Aujourd'hui, lestechnologies, les contextes économiques, industriels et sociaux, leslégitimations idéologiques et scientifiques sont complètements différents( Bouquillion et al., 2010 : ibid.). Les affordances caractéristiques des environnements Web2.0 qui suggèrent et encouragent l'interactivité, l'interconnexion, lacréation de contenus par des procédures de remixing et de réutilisation de fragments d'informations ou de contenus (Greenhow et al., 2009 : 49) pourraient dès lors contribuer àdévelopper des pratiques communicationnelles médiatisées plus conformes aumodèle idéal de Jean Cloutier. Nous nous intéresserons encore à une dernièrecaractéristique de ces environnements et aux pratiques auxquelles ils ontdonné naissance : la folksonomie ou le socialbookmarking – le « marque-page » social – (Del.icio.us, Flickr, YouTube, par exemple). Il s'agit d'un mode d'indexationpersonnelle, libre et décentralisée des documents numériques par les usagersdu Web à travers des mots clés, des balises ou des tags : « Folksonomy is the result of personalfree tagging of information and objects (anything with a url) forone's own retrival » (Vander Wal, 2005). Laparticularité de ce type d'indexation est qu'il ne relève pas del'utilisation de langages systématiques (systèmes de classifications) oualphabétiques (thésaurus généraux ou spécialisés) contrôlés; tout aucontraire, les folksonomies sont le produit numérique « de notre activité deproduction de " catégories ordinaires " » (Crépel, 2010 : 284). Cette formed'indexation qui s'inscrit dans la vision collaborative et participative duWeb 2.0 induit des effets communautaires importants : « Pour une ressourcedonnée sa classification est l'union des classifications de cette ressourcepar les différents contributeurs. Ainsi, partant d'une ressource, et suivantde proche en proche les terminologies des autres contributeurs il estpossible d'explorer et de découvrir des ressources connexes ». La folksonomie, en tant que moyen deconsultation hypertextuelle, conduit alors souvent à la découverted'informations pertinentes pour l'utilisateur bien que celles -ci soient lefruit du hasard et d'une démarche non intentionnelle et non planifiée ,phénomène connu sous le nom de « sérendipité ». Comment les sciences del'information et de la communication peuvent-elles rendre compte de cetteévolution ? Quel cadre théorique peuvent-elles offrir pour comprendre cetteévolution des pratiques informationnelles, communicationnelles etépistémiques ? C'est à cette question que nous tenterons de répondre dans lasection suivante. Jean-François Lyotard considère le savoir comme un discours. Autrement dit, ausens strict, comme un processus de production discursive ou encore d'énoncésdiscursifs. Aussi les énoncés de savoir, comme tout autre énoncé, peuvent-ilsfaire l'objet d'une analyse pragmatique qui chercherait à élucider les rapportset les enjeux entre les énonciateurs, les destinataires et le référent. Selonlui, la science constitue un sous-ensemble de connaissances répondant à descritères d'acceptabilité particuliers et constituées exclusivement d'énoncésdénotatifs. Mais à côté des énoncés dénotatifs, il existe des énoncésprescriptifs et/ou évaluatifs qui relèvent d'une compétence qui « excède ladétermination et l'application du seul critère de vérité » (Lyotard, 1979 : 36) pour s'étendre à d'autres critèresd'efficience, de justesse, de bonheur, de beauté. C'est cette dernière distinction – la nature vériconditionnelle ou évaluativedes énoncés – qui fonde l'opposition entre savoirs scientifiques etnarratifs. Commençons par les énoncés scientifiques. Afin de définir lesprescriptions qui en règlent la validité scientifique, l'auteur construitune « pragmatique du savoir scientifique », en d'autres termes, les rapportsentre les énoncés scientifiques, leurs référents (les phénomènes dont ilstraitent) et les tensions qu'entretiennent à travers eux les destinataires( les pairs) et les destinateurs (les scientifiques producteurs deconnaissances et donc d'énoncés scientifiques). En résumé, Jean-FrançoisLyotard attribue aux savoirs scientifiques cinq caractéristiques quipermettront de les opposer, dans un second temps, aux savoirs narratifs : 1 )le statut discursif de ces énoncés; 2) la catégorie des sujets légitimés àles produire; 3) la nature du rapport au référent; 4) le mode devalidation de ces derniers, et enfin 5) le caractère diachronique etcumulatif du savoir (connaissance des énoncés précédents) auquel est lié larecherche du nouveau (pertinence scientifique). Le savoir scientifique seconstruit principalement à partir d'énoncés dénotatifs et la valeur devérité de l'énoncé constitue son critère d'acceptabilité. Le scientifiqueest donc censé dire vrai à propos des objets, des phénomènes, du« référent » dont il traite; il peut donc apporter les preuves de ce qu'ilaffirme et réfuter toute argumentation contradictoire relative à ce mêmeréférent. Deuxièmement, le savoir scientifique, dans les formes queconnaissent les sociétés modernes, est devenu l'apanage des spécialistes, deprofessionnels, de « partenaires qualifiés », regroupés au seind'institutions dont les universités ont longtemps constitué le modèle. Danscette mesure, explique Jean-François Lyotard, ce savoir n'est plus unecomposante « immédiate et partagée » du lien social, et l'action pédagogiqueconstituerait la stratégie que se sont données nos sociétés pour résorber ladistance entre scientifiques et non scientifiques. Ceci suppose que lacompétence scientifique se transmette et que l'on forme des pairs afin de lapartager. Tel est encore le rôle des universités. Enfin, explique -t-il, lesavoir scientifique isole et exclut la dialectique qui lie les scientifiquesau référent, à la réalité dont ils parlent. Autrement dit, le savoirscientifique se veut objectif et objectivant; il ne tolère aucuneimplication (éthique, morale, comportementale) du chercheur par rapport à laréalité décrite, et ce, même dans les sciences sociales : le chercheur « nedoit pas savoir être ce que le savoir dit qu'il est » (Lyotard, ibid. : 46). Les quatrième et cinquièmecaractéristiques du savoir scientifique ne demandent pas de commentairesparticuliers car elles paraissent largement connues et partagées : lapragmatique du discours scientifique exige une validation par les pairs etune accumulation des énoncés à travers le processus diachronique deconstruction de la science. La pragmatique du savoir narratif est toutedifférente et nous n'en retiendrons ici que les aspects directement enrelation avec notre problématique. La nature vériconditionelle de ce type desavoir et ses modes de validation ne sont plus de mise dans ce contexte .Quel que soit le contenu des propositions énoncées, celui -ci n'est jamaisargumenté en termes de preuve, au sens où nous l'avons défini pour le savoirscientifique; il se réfère peu à la dimension historique et cumulative dusavoir qui peut le fonder : « Un énoncé de science ne tire aucune validitéde ce qu'il est rapporté » (ibid. : 44), alors qu'unénoncé relevant du savoir narratif trouve sa validation – sa valeur devérité – dans le fait d' être rapporté, répété et réaffirmé au sein d'unecommunauté sociale qui en constitue l'espace de légitimation. On observealors une inversion du rapport entre vérité et consensus. Si l'on peut direà propos d'un énoncé scientifique que « tout consensus n'est pas indice devérité, mais on suppose que la vérité d'un énoncé ne peut manquer desusciter le consensus » (ibid.), on doit admettrequ'il existe d'autres types de savoir pour lesquels le consensus d'un corpssocial en fonderait la valeur de vérité. L'importance du consensus a pourconséquence l'interchangeabilité des pôles du dispositif énonciatif : toutepersonne qui se trouve être destinataire de ces énoncés peut devenir à toutmoment leur (re)producteur, sinon le processus de circulation ne pourraitexister. Il n'y a donc aucune institution légitime pour assumer, pourproduire de tels savoirs qui se créent dans et par le lien social. Pourpoursuivre la comparaison, Jean-François Lyotard s'attache à montrer quel'extériorité par rapport au référent n'existe pas dans le cadre des savoirsnarratifs : l'énonciateur doit être, partiellement en tous, cas l'objet – etdonc le référent – de son propre discours. Le savoir narratif apparaît donccomme une « forme incarnée » au sein de laquelle le sujet et ses diversescompétences se cristallisent. On aura compris l'intérêt de cette analyse pour notre propos. Les pratiquesde production, de diffusion et de circulation des contenus qui sedéveloppent dans les espaces Web, principalement dans leur version 2.0 ,relèvent plus des savoirs narratifs que des savoirs scientifiques, dans lamesure où elles respectent les règles discursives des savoirs du premiertype. Les énoncés produits ne doivent pas être exclusivement dénotés; ilssont au contraire empreints de subjectivité, d'expression personnelle, dejugements de valeurs, de prescriptions, etc. Ils intègrent ou font coexisterplusieurs jeux de langage différents. La relation d'extériorité del'émetteur par rapport au référent de ses énoncés ne constitue en rien unerègle pragmatique dans ces contextes. En revanche, la double posturediscursive des usagers qui fait de chacun d'eux à la fois un lecteur et unproducteur y est de règle. Cette posture particulière permet d'expliquer leprocessus de circulation et de répétition des contenus au sein d'un réseauou d'une communauté, la répétition assurant leur validation au sein deceux -ci. Par ailleurs, cette symétrie des pôles de l'énonciation ainsi queles pratiques de remixing et de re-use – la réutilisation – de fragments et de contenus ,entretiennent un rapport privilégié, chacune pouvant être considérée à lafois comme la cause et la conséquence de l'autre dans un processusd'auto-renforcement. L'effet communautaire de la folksonomie que nous avonsévoqué ci-dessus est bien de cet ordre. Ce dernier exemple, qui fait de plusl'objet d'un débat contradictoire parmi les professionnels de l'information( Le Deuff, 2006) – bibliothécaires, mais aussi architectes del'information –, montre bien le déplacement des lieux de décision, devalidation et de structuration des informations et des contenus qui s'opèredans le cadre des pratiques basées sur les environnements et les principesdu Web 2.0. Ces pratiques font apparaître un éclatement des espacesspécialisés de production d'information et de connaissances, habituellementréservés à la production de savoirs, au profit de nouveaux espaces sociauxde communication, d'échange et de mutualisation. Ces technologies qui sontaussi des technologies de l'intelligence constituent la base techniquenécessaire à la construction d'une intelligence collective qui est « uneintelligence partout distribuée, sans cesse valorisée, coordonnée en tempsréel, qui aboutit à une mobilisation effective des compétences » (Lévy ,1994 : 29). Cette analyse montre qu'il existe et que coexistent dans les différentes« instances d'interactions sociales » (Peraya, 1999; Meunier, Peraya, 2004) desformes particulières de savoirs et des connaissances relevant de règlespragmatiques particulières, et parfois contradictoires, quant à leur production ,leur validation et leur diffusion. Cependant, nous pensons qu'il faut allerau-delà de cette analyse et considérer que les acteurs eux -mêmes, lesenseignants comme les apprenants, sont autant d' « hommes pluriels » (Lahire ,2001) qui appartiennent à de multiples instances d'interactions à travers leurvie professionnelle et personnelle, pouvant être considérées comme des sphèressociales distinctes. Le choix d'environnements technologiques que posent lesdifférents acteurs, les usages qu'ils en font, les comportementscommunicationnels – comme les conceptions épistémiques qui leurs sont associées–, varient donc selon les instances d'interactions sociales ou les sphèresauxquelles ils participent. En conséquence, ils se trouvent l'objet d'enjeux etde tensions induites par la coexistence de ces pragmatiques différentes. Prenonsle cas des enseignants universitaires et analysons succinctement leursdifférents rôles, leurs différentes facettes. Ils ont bien sûr une vie personnelle etfamiliale, des loisirs et entretiennent des réseaux de relations personnelles etamicales. Dans ce contexte, les usages correspondants relèveraientvraisemblablement des savoirs narratifs. Du point de vue professionnel, cesenseignants sont aussi des chercheurs dont les pratiques ressortissent de lapragmatique des savoirs scientifiques. Leurs pratiques semblent alorsessentiellement influencées par ce cadre de référence, même si l'on observequelques variations dont la teneur diverge selon les disciplines : recherche etpublication en réseau, publication à plusieurs mains, émergence de pratiques depublication en ligne, conjointement à une publication papier ou exclusivement enligne – dans des revues à modèle économique alternatif – comme par exemple, Plos One, une revue scientifique en ligne en accès libreet ouvert, consacrée à la recherche scientifique et médicale .Citons également la participation des enseignants et des chercheurs à certainsblogues comme Everyone, le blog de la communauté Plos One, ou encore à des wikis tels EduTech Wiki .Dans le même ordre d'idées, la production et l'édition de Wikilivres, recueilspersonnalisés d'articles en ligne issus de wikis, au format pdf ou imprimé (PediaPress) ,constituent une pratique qui rompt avec les usages éditoriaux du mondeacadémique. On pourrait citer encore, mais pour l'enseignement secondaire desmathématiques cette fois, le processus éditorial participatif et évolutif duréseau Sésamath. Cependant, cesnouvelles pratiques semblent encore partagées par une minorité d'innovateurs .Enfin, il importe de distinguer, d'une part, l'enseignant qui prépare ses cours ,rassemble les ressources nécessaires, rédige exercices et documents deréférence, scénarise les séquences d'apprentissages puis, éventuellement ,implémente le tout dans un environnement numérique et, d'autre part, celui quidonne son cours, les séminaires, les travaux dirigés, etc. en présentielintégrant probablement au passage des technologies et certains de leurs usages .Cette dernière distinction entre la culture, les compétences et les usagestechnologiques des enseignants selon qu'ils agissent en back ou en front office est aujourd'huidocumentée dans la littérature (Peraya et al., 2008) .Quant aux étudiants, bien que leurs compétences soient loin d' être homogènes ,les usages qu'ils développent au sein de leurs environnements personnelsinduiraient des comportements communicationnels et des conceptions épistémiquesplus conformes à la pragmatique des savoirs narratifs : personnalisation desenvironnements, agrégation de services et de contenus, réseautage social ,partage de médias parmi lesquels le textuel n'occupe plus nécessairement uneplace centrale, « taggage », remixing et réutilisation de documents disponibles sur le réseau ,conversations synchrones et asynchrones, messagerie directe, etc. Les étudiantsimporteraient ces comportements issus de leur sphère privée dans la sphèreacadémique, provoquant alors des contradictions et des tensions décelablesnotamment dans le développement de pratiques de plagiat dont les universités sefont de plus en plus souvent l'écho (Bergadàa et al. ,2008; Peraya et al., 2011). Cette situation a suscité denombreux stéréotypes bien souvent relayés par la presse et les médias; le plusrépandu d'entre eux consiste à considérer le copier-coller et l'internet commeresponsables directs des pratiques déviantes des étudiants. La réalité est évidemment plus complexe. Cette percolation des usages et cetteporosité des sphères sociales que l'on observe auprès de certains publicsd'étudiants s'explique partiellement par le fait que ces environnementsnumériques sont non seulement multifonctionnels mais sont aussi communs auxdifférentes sphères d'usages que nous avons identifiées (Bonfils et al., 2011). Ensuite, les environnements numériquesinstitutionnels spécifiques, déployés et maintenus par les universités tels queles campus virtuels, appartiennent encore, dans leur grande majorité, à lagénération du Web 1.0. Les usages qui y sont proposés aux étudiants leursemblent souvent être en dissonance par rapport à leur propre expérience. Lesétudiants imposeraient alors aux environnements offerts par l'université desmécanismes de catachrèses ou de détournements (Rabardel, 1995), allant parfoisjusqu' à intégrer, dans un environnement institutionnel, un environnement« privé » plus conforme à leurs usages et leurs comportements communicationnelsnon académiques. On peut citer comme premier exemple l'imposition, en 2003, parun groupe d'étudiants inscrits au diplôme d'études de troisième cycle entechnologies éducatives staf (sciences et technologiesde l'apprentissage et de la formation), de la messagerie msn en lieu et place du moo (mud Oriented Object), unenvironnement virtuel textuel utilisé par tecfa commedispositif de communication synchrone. Les comportements des étudiants de l ' ufr Ingémédia de l'université de Toulon que nousobservons depuis plus d'un an (Bonfils et al., ibid.) constituent un second exemple récent. L'étudemontre qu'une majorité d'étudiants choisit des environnements virtuels detravail ainsi que des dispositifs de communication issus de leur sphèred'activités personnelle et de loisirs parce que ce sont, avant tout, des outilsqu'ils connaissent et dont ils maîtrisent les usages. Les analyses ont montréque les dispositifs non institutionnels gratuits comme Google Docs, Google Apps, Google Agenda, Google Group ouencore Google Wave, sont choisis 6fois plus fréquemment que les outils institutionnels. Outre l'intérêt departiciper à une certaine logique de l'immédiateté, ces dispositifs doivent êtreaccessibles en ligne, flexibles, efficaces, faciles d'utilisation, ouverts ,personnalisables et offrir des possibilités de personnalisation, denotification, de réseautage social. Le fossé déjà mis en évidence à propos de latélévision éducative, il y a plus de 40 ans, entre le monde académique et lessphères professionnelles, sociales, relationnelles, privées, etc. – plusglobalement entre l'école et la vie – constituerait vraisemblablement un secondfacteur explicatif. La pragmatique des savoirs scientifiques implique la nécessité d'un transfert decompétences et d'une intervention éducative pour résorber la distance entrescientifiques et non scientifiques et ajouterions -nous entre usagesscientifiques – académiques – et non scientifiques – privés, personnels, etc. –des technologies, de l'internet et du Web. Il faut donc considérer que lesnouvelles compétences informationnelles et communicationnelles constituentaujourd'hui des compétences fondamentales pour les étudiants comme pour lesenseignants. Il existe aujourd'hui un certain nombre de formations déployéessoit au niveau national autour de référentiels de compétences (les B2i et C2i français en constituent desexemples connus) soit, plus localement, en articulation avec certains coursspécifiques comme c'est le cas du cours sfa (Savoirfaire académique), proposé conjointement avec le cours de méthodologiequantitative en psychologie au sein de la section de psychologie de la facultéde psychologie et des sciences de l'éducation de l'université de Genève. AuQuébec, les compétences informatiques, dont la maîtrise participe auxcompétences informationnelles et communicationnelles, figurent parmi lescompétences requises pour l'exercice de la fonction enseignante depuis 2001( Larose, 2007). Le nouveau curriculum prescrit par le gouvernement québécois dès2001 et 2003 pour la formation du personnel enseignant la formation à cescompétences afin de rendre les enseignants capables « de faciliter laconstruction par les élèves des compétences instrumentales, méthodologiques etintellectuelles associées aux technologies de l'information et de lacommunication (tic) » (Larose, ibid. : 221). Dans une perspective éducative, il faut mentionner aussila mutation progressive du rôle des bibliothèques universitaires dont le rapportde la Commission Éthique-plagiat de l'université de Genève propose en synthèsequelques perspectives actuelles (McAdam, 2008; Scariati, 2008). D'abord, il y ala volonté des bibliothèques de jouer un rôle social « dans une société del'information plus juste et plus équitable » (McAdam, 2008 : 58). Telle est laposition de l ' International Federation of LibraryAssociations and Institutions (ifla) : « Lesbibliothèques et les services d'information jouent un rôle clé dans ledéveloppement économique et culturel en donnant le libre accès aux ressourcesessentielles de l'information du savoir. Par leur contribution au maintien de laliberté intellectuelle, à la sauvegarde des valeurs démocratiques et aux droitscivils universels, ils encouragent la cohésion sociale en veillant à lasatisfaction de toutes les communautés d'usagers sans aucune discrimination »( Déclaration de principe, citée par Mc Adam, ibid.) .Autrement dit, les bibliothèques devraient se développer comme un réel espace deformation autant que comme un lieu d'accès et d'échanges d'informations. ÀGenève, la Haute école de gestion, filière Information documentaire (heg-id) et ses partenaires ont conçu et mis en œuvre ,dans le cadre du programme Campus Virtuel Suisse, le logicielcalis (Computer-AssistedLearning for Information Searching). Celogiciel vise à apprendre aux étudiants à chercher l'information pertinente defaçon efficace, mais aussi à utiliser celle -ci dans le respect des règleséthiques du savoir scientifique. Une première version modifiée a été réalisée en2005 par la bibliothèque des sciences économiques et sociales (bses) pour mieux l'adapter à l'ensemble des matièresenseignées au sein de la faculté. La formation calis est aujourd'hui obligatoire pour tout étudiant inscrit à un baccalauréatuniversitaire en sciences économiques et sociales à l'université de Genève( Angeloz, Bessero, 2010). En 2009, calis est devenu unprojet institutionnel de l'université de Genève : le logiciel est donc en coursd'adaptation pour d'autres facultés, en fonction de leurs particularitésdisciplinaires. Sans un fort soutien institutionnel et sans l'engagement desacteurs de terrain (bibliothécaires, documentalistes, etc.), de tellesinitiatives n'ont aucune chance de se développer et encore moins de sepérenniser. On l'aura compris, c'est bien de littéracie dont il est question icien tant que compétence en matière de lecture, de compréhension ,d'interprétation, de validation et d'écriture, dans le domaine l'informationécrite mais aussi des médias classiques ou, aujourd'hui, numériques. Les termessont nombreux tant en anglais (computer literacy, it literacy ,ict literacy, information technology literacy) qu'en français( alphabétisation informatique, littéracie numérique ou digitale, eCulture ,culture et pratiques digitales ,etc.). L'essentiel serait, dans notre perspective que la littéracie puisseprendre en compte la diversité des instances sociales de coopération, lespragmatiques et les pratiques qui leurs sont propres afin d'en définir lesterritoires, les chemins de traverse, les points communs et les différences etfinalement d'établir des ponts entre celles -ci. Dans cet ordre d'idées, citonsun dernier exemple : le projet eCulture, mené par la fondation suisseYnernet.org et le cepec (Lyon) ,qui s'était donné pour objectif de proposer un référentiel de compétencescouvrant les sphères académiques mais aussi professionnelles, personnelles ouprivées. Les classifications d'acteurs, évoquées dans les sections précédentes, enfonction de leur exposition aux technologies et de leurs compétences dans ledomaine ne paraissent pas entièrement convaincantes à la lueur de nos analyses .Chaque sujet appartient à des sphères différentes et évolue dans des instancessociales de coopération différentes : ses comportements, les usages destechnologies et les conceptions qu'il développe varient donc nécessairement etpeuvent être forts différents selon les sphères considérées. Il pourra agirtantôt selon les règles pragmatiques du savoir scientifique tantôt selon cellesdu savoir narratif. De plus les enseignants, pas plus que les apprenants, neconstituent pas une catégorie homogène : le niveau d'enseignement, la disciplinepeuvent constituer des variables explicatives au même titre que le facteurgénérationnel. Il paraît donc indispensable de poursuivre la recherche afin demieux comprendre les enjeux et les tensions entre les pratiques et les usages deproduction, de diffusion et de validation de connaissances que développent, ausein des différents environnements numériques, les enseignants et les apprenantsselon les différentes instances sociales de coopération ou des sphères de vieauxquels ils participent. Pour comprendre ces phénomènes, il s'agirait toutd'abord de caractériser les environnements personnels et les environnementsacadémiques, prenant en compte le fait que les environnements personnels, pe (Personal Environment) sontsouvent le lieu d'apprentissages non formels et informels (ple). Ensuite, il s'agirait d'observer quelscomportements, quelles pratiques et quelles conceptions émergent dans chacun deces contextes. En effet, nous pensons que ces environnements, en fonction deleur configuration, autrement dit leur nature, des fonctions, de la diversité etdu poids relatif de certaines de leur composantes technologiques Web 2.0 ,peuvent induire des conceptions épistémiques et des pratiques différentes decelles qui fondent la culture et les valeurs académiques traditionnelles etprovoquant par conséquent des tensions à divers niveaux. Ces conceptionsdépendent notamment du statut des acteurs, de leur discipline de rattachementmais aussi de leur niveau de maîtrise – de littéracie – de ces composantes .Enfin, il doit être possible d'identifier des « objets frontières » permettantl'évolution des niches d'usages et donc le transfert de certains usages versd'autres lieux, d'autres temps et d'autres activités. L'analyse des conditionsde ces évolutions et des ces transferts peut guider les enseignants du supérieurvers une meilleure compréhension des comportements étudiants, dans le but deconcevoir et d'implémenter des environnements numériques plus adaptés aux usagesexistants, mais aussi de proposer aux étudiants une formation ciblée sur lerespect des contraintes et des usages académiques des technologies del'information et de la communication .
Cet article propose quelques hypothèses relatives à l'impact des technologies de l'information et de la communication, en particulier celles communément appelées Web 2.0, sur les processus de construction et de diffusion des connaissances. L'approche choisie se fonde sur la mise en perspective des travaux de François Lyotard, consacrés à la pragmatique des savoirs narratifs et scientifiques, avec le développement de ces « dernières » technologies et de leurs usages. L'analyse s'appuie sur l'observation de phénomènes tels que la percolation des usages et la porosité des sphères privées, professionnelles et académiques. Elle montre comment se développent, chez les apprenants comme chez les enseignants universitaires, des conceptions épistémiques qui semblent héritées des leurs pratiques et de leurs usages privés de ces technologies.
sciencesInfo_13-0090570_tei_1022.xml
termith-378-communication
Personne ne sait ce qu'est le journalisme, en tant qu'activité professionnelle .Les journalistes eux -mêmes ne le savent certainement pas. Ils ne se demandent guères'ils sont une profession, une science appliquée, un art, un divertissement ou unebureaucratie industrielle. Mais parfois, il devient évident que cette question estimportante – même pour les journalistes. Quand le quart ou le cinquième desautomobiles en Israël porte un autocollant sur le pare-chocs qui proclame : « Lepeuple est contre les médias hostiles », ou quand le président de l' État laissefortement entendre que les journalistes de télévision sont coupables de mauvaisespratiques dans leur couverture du soulèvement palestinien, il est temps des'interroger sur ce qu'ils considèrent être le journalisme et de pointer ce qui estéventuellement erroné dans leur définition. Il y a eu plusieurs tentatives de faire entrer le journalisme dans le modèle desprofessions libérales. En effet, il répond à quelques-uns de ses critères majeurs .C'est avant tout un métier fondé sur la prééminence du service au public, bien quela majorité des journalistes travaillent dans des entreprises de presse privées .L'étude des raisons avancées par les individus pour choisir une profession libérale( Johnstone, Slawski, Bowman, 1976) montre clairement que le désir de participer à lasociété est une motivation essentielle. Rendre service au client est unecaractéristique majeure de cette profession (Blau, Scott, 1963). L'autorité dujournalisme, comme les autres professions, est ancrée dans la rationalité plutôt quedans la tradition ou le charisme (Parson, 1968). Plus encore, le journalisme peut être considéré comme une activité qui se développe àpartir du « désordre », comme c'est le cas dans d'autres professions libérales .Everett Hugues (1964) a défini ces dernières comme étant composée de spécialistesqui « fabriquent de routines à partir des urgences des autres ». Dans son étude desconversations à l'intérieur des rédactions, Gaye Tuchman (1973) a montré comment lesjournalistes conduisent ce tra vail de routinisation. Cette recherche des troubles implique la réalisation dediagnostics, bien sûr, et le journalisme parvient également à ce résultat. Les journalistes partagent aussi la norme de la communication privilégiée. Lespersonnes qui parlent de façon confidentielle à des journalistes peuvent s'attendreà ce que cette confidentialité soit respectée aussi bien par les journalistes quepar les tribunaux. Il est aussi considéré comme opportun que les plaintes contre lesjournalistes soient gérées par des institutions désignées par les journalisteseux -mêmes. Il y a un code professionnel d' ' éthique, implicite ou explicite, quiguide le travail. Par conséquent, il est évident que, d'une certaine manière, lejournalisme est une profession autonome. Mais adopter ce modèle des professions libérales n'est pas sans poser problème. Lesmédecins et les juristes ont des clients, tandis que les journalistes ne peuventdire qu'ils en ont qu'en étendant cette catégorie à l'ensemble de la société. Lesmembres du clergé et les enseignants ont également pour clients l'ensemble de lasociété, mais leur autorité est fortement tempérée par la tradition ou le charisme .À la différence des autres professions, les clients du journalisme se présententrarement devant le journaliste ou dans les locaux du journal pour recevoir une aidepersonnelle. Il est vrai que le journalisme satisfait un large éventail de besoins ,mais ce processus ne commence pas avec la présentation de symptômes, une demande dediagnostic, et encore moins un traitement. On peut émettre l'idée selon laquelle lesjournalistes proposent un traitement, seulement dans le sens où la confrontationavec des informations – et parfois des informations « hostiles » – peut êtreconsidérée comme thérapeutique en soi. Après tout, la psychanalyse croit égalementen la vertu thérapeutique de la confrontation d'informations. Une autre différence consiste en ce que le journalisme rend l'information publique .Comme dans le cas des professions libérales, les professionnels peuvent recevoir desinformations privilégiées, mais leur vraie vocation est de les publier. « Publier ,et être damné », disait Horace Greeley, indépendamment des conséquences. L'idée quecela puisse n' être que bénéfique est profondément enracinée dans l'idéal libertairede la démocratie. La façon dont le journalisme s'organise l'éloigne également dumodèle professionnel des médecins ou juristes. Enfin, les professions libéraless'adossent à un important volume de connaissances accumulées et à une périodeintensive de formation qui fait encore défaut au journalisme d'aujourd'hui. Pourtoutes ces raisons, le journalisme n'est pas assimilable au modèle des professionslibérales. Entre-temps, d'importantes transformations se sont produites au sein dela sociologie des professions libérales. D'une part, la définition du professionnellibéral a été modifiée et s'est en quelque sorte « libéralisé ». D'autre part ,l'idéal des professions libérales s'est dégradé si bien que si le journalisme peutêtre qualifié de profession libérale selon le premier critère, il peut désirerrefuser de l' être à partir du second. En effet, les professions libérales sontsujettes aux mouvements induits par les transformations des organisations. L'idéaldu professionnel solitaire – avec tous ses droits à un jugement indépendant dans lesrègles de l'éthique et dans les limites de ses connaissances – s'est maintenantbureaucratisé dans les hôpitaux, les cabinets d'avocats, etc., sans parler desorganismes de travail social, des écoles et les institutions qui ont toujours étébureaucratisées. Le savoir des professions libérales a également été déclassé, alors que des analysesdistinguent les connaissances véritables des mystifications que les professionnelsutilisent pour se protéger des clients et de ceux qui pourraient avoir une mauvaiseopinion d'eux. Aujourd'hui, de grands combats sont menés contre les petitscaractères et les mots imprononçables dans les contrats légaux ou contre le latindes médecins. Ils sont considérés comme autant de conspirations contre le client etle public. S'il reste un peu de sympathie pour ces sortes d'argots, c'est seulementdans la mesure où ils pourraient effectivement servir de raccourcis dans lacommunication professionnelle. L'actuel développement des poursuites judiciaires pour faute professionnelle est liéà la mystification du langage et à l'affirmation péremptoire d'une autoritéautonome. Le public refuse d'accepter l'autorité des professionnels ou ledésintéressement de ses pairs pour décider de ce qui est, ou non, adéquat et fondésur un plan éthique. Tout compte fait, l'altruisme des professions libérales estcontinuellement remis en cause et cela remise au rayon de la nostalgie l'image dumédecin dévoué jusqu'au sacrifice. Si les journalistes se qualifient en tant quemembres d'une profession libérale, ils se trouvent maintenant dans la meilleure – oudevrait-on dire la pire ? – des compagnies. Les professions libérales évoluent dansle sens du journalisme. L'exclusivité de leur savoir est mise en question, leurscompétences placées sous surveillance, la primauté de leur dévouement et de leuraltruiste questionnée, leur autonomie individuelle compromise par l'autoritébureaucratique. Il apparaît que « les gens sont également hostiles envers lesprofessions libérales », mais ils sont aussi conscients que, pour l'instant, n'y apas d'alternative disponible aux médecins et aux avocats. Les journalistes ont unepart de responsabilité dans ce processus de dégradation des professions libérales .Peut-être même que certains d'entre eux y trouvent quelque réconfort. Mais la comparaison est loin d' être satisfaisante. Il demeure que le journalisme n'apas un corpus de connaissances sur lequel il peut s'appuyer ou, si c'est le cas, iln'en est pas explicitement conscient. De même, il n'a pas de procéduresréglementaires, et, d'ailleurs, les normes démocratiques rendent celles -ciindésirables. Le journalisme n'a pas de client identifiable, à part peut-être lasociété dans son ensemble comme cela a été dit. Son but est la publicisation, pas lesecret. Le modèle du scientifique est une variante du modèle des professions libérales ;une variante de celui -ci est le modèle des sciences appliquées. Aussi étrangeque cela puisse paraître, je voudrais suggérer que le journalisme répondpeut-être plutôt mieux au modèle des sciences appliquée qu' à celui desprofessions libérales. À première vue, cela semble étrange, non seulement àcause de l'évident manque de cohérence chez les journalistes d'un ensemble deconnaissances exigé par la science, mais aussi du fait de l'absence d'unensemble organisé de propositions – une théorie – et de l'absence de moyens devérifier ou de tester les implications de la théorie. Néanmoins, testons cerapprochement. En suivant Edward J. Epstein (1975), considérons le journaliste comme unconcepteur de cartes géographiques. Le monde est divisé en zones où desévénements importants peuvent survenir et requérir l'attention. Parfois, cesespaces géographiques sont des lieux réels comme Washington, New York ouJérusalem. Parfois, ce sont des institutions : le ministère des Affairesétrangères, l'armée, la police, les universités et les hôpitaux. Chaque espacecomprend une population d'acteurs qui sont détenteurs de pouvoirs – légitimes ounon – et dont la plupart sont spécialisés dans la gestion de conflit. Ainsi lesinformations quotidiennes consistent-elles à donner des indications sur leschangements de situation dans ces foyers de pouvoir, habituellement représentéesen termes d'événements et accompagnée d'évaluations sur les raisons de ceschangements de situation, sur qui ou quoi les a provoqués, qui en est affecté ets'il correspond à des normes socialement acceptées (Alexander, 1982). De tempsen temps, les journalistes sont contraints de refaire la carte elle -même quandde nouveaux lieux et conflits attirent l'attention. En d'autres termes, le journalisme a d'abord une fonction de mise à l'agenda enrepérant ce qui vaut la peine d' être observé, où et quand. Le journalisme estaussi un baromètre qui indique les changements, habituellement définis comme desévénements irruptifs – parfois positifs (une percée scientifique dans le domainemédical), mais la plupart du temps négatifs (émeute, mort, famine, impôt…). Defaçon moins apparente mais tout aussi importante, le rôle du journalisme est dedéfinir et de labelliser les déviances. En attirant l'attention sur les entorsesaux normes, il oblige les acteurs politiques à y répondre, soit en punissant ladéviance, soit en changeant la norme (Alexander, 1982). Le journalisme donneégalement la parole aux autres aspects d'un conflit, accordant parfois un« temps égal » aux porte-parole officiels et aux minorités dissidentes. C'estdans cette relation entre conflit et déviation que le journalisme peut êtreimpliqué dans le changement social. Une assez bonne définition du journalisme est de le comparer à quelque-chosecomme la météorologie; elle parle des entorses à la normalité et des menacespour le bien-être de la société, ce qu'Harold Lasswell (1948) a appelé la« surveillance ». Les météorologues explorent le climat physique; lesjournalistes explorent le climat social, économique et politique et recherchentles écarts avec le normal ou l'attendu. La société est le client, le diagnosticest la clé d'explication et le traitement n'est généralement pas compliqué. Ence sens, peut-être, le journalisme peut être utilement considéré comme unescience, ou, mieux, une science appliquée, comme la météorologie. Le journalisme ressemble à la science d'une autre façon, via le subtil équilibre entre coopération et compétition parmi lescommunautés professionnelles. Il y a beaucoup – trop, selon certains (voirNoelle-Neumann, 1982) – de coopération parmi les journalistes apparemment encompétition qui partagent des observations, discutent des interprétations etéchangent leurs impressions de différentes manières. Il y a également le scoop –la course pour être le premier sur une nouvelle importante – qui pousse lesjournalistes, comme les scientifiques, à s'empresser de publier, très souventtrop vite, comme l'estiment leurs collègues et les critiques. Mais quel ensemble de connaissances est mis en œuvre, quelle méthoded'observation est développée, comment sont vérifiées les observations ? Nousrevenons au lancinant problème de la théorie, des méthodes et de la question dela recherche expérimentale. Il serait absurde d'affirmer que les journalistesdisposent d'une théorie abstraite et codifiée, de méthodes sûres et d'uneprocédure à même de tester les propositions qui dérivent de la théorie .Pourtant, il y a quelque chose à dire à propos du journalisme y compris dans cedomaine. Je pense qu'on peut suggérer que les journalistes avancent des « théories » surles gens et la société – en fait, chacun de nous en a – mais elles sontlatentes, non formulées et non codifiées. Même si les journalistes peuvent êtreconsidérés comme envahissants – et je crois qu'ils le sont –, il est néanmoinséquitable de se demander quel genre de science cela représente ? Étonnamment, onpeut trouver une réponse adéquate en théorie de l'art, et même en physique. Lesthéories de l'art et de la musique suivent la pratiquemusicale sur plusieurs années : ce sont des déductions théoriques fondées sur letravail des compositeurs et des artistes du champ. Quelque chose de semblable –je le comprends ainsi – peut être dit à propos de la philosophie des sciencesqui codifie à nouveau ce que les scientifiques pensent avoir fait. Il est vrai –je suppose – que les compositeurs et les physiciens ont des connaissances et unethéorie beaucoup mieux articulés que celles des journalistes. Sans donner raisonau journalisme qui ne serait pas respectueux de certaines règles, on ne peutmettre cet aspect de côté. Je ne voudrais pas exclure la possibilité que lesjournalistes réalisent des déductions théoriques et les soumettent à des testsempiriques. Permettez -moi d'avancer quelques exemples de théories que je penseêtre implicites à la pratique actuelle du journalisme. Par exemple, les journalistes peuvent être considérés comme détenteurs d'unethéorie volontariste de l'action. À la différence des chercheurs en scienceshumaines ou des historiens qui cherchent les contraintes situationnelles et lesdéterminismes de différentes sortes, ils donnent beaucoup de crédit à l'actionhumaine autonome. L'idée que des grands hommes, comme Anouar el-Sadate, puissentse retirer dans le désert, prendre une décision et agir pour la mettre en œuvre ,est souvent visible dans les journaux, la plupart du temps à une échelle moindreque cet exemple, et c'est valable aussi bien pour les gens malveillants que pourles gens bienveillants. Cependant, nous pourrions faire la distinction – qui, enpsychologie sociale, est au centre de la théorie de l'attribution – selonlaquelle chaque observateur ordinaire attribue pour les gens bienveillants desmotivations « dispositionnelles » à leurs bonnes actions, et des motivations« situationnelles » à leurs mauvaises (l'inverse étant vrai pour les gensmalveillants). On peut se demander si les journalistes font cette distinctiondans leurs observations. Il serait intéressant de comparer les théories del'action et de la motivation des journalistes à celles des hommes de loi, parexemple. Les journalistes croient que le changement social n'est pas seulement l'affairede personnalités mais d'événements marquants, ce que Victor Turner (1977 )appelle les drames sociaux, impliquant l'éclatement de conflits et leurrésolution. Quand ils surviennent, les événements sont un anathème pour laplupart des sciences : ce sont des disruptions imprévisibles, alors que lascience recherche au contraire la régularité et la prévisibilité. Il y a desévénements critiques dans certains domaines, telle la psychanalyse, qui ont étéroutinisés et régularisés par la théorie. D'autres sciences – la météorologiepeut-être – sont plutôt moins préparées à l'inattendu. Mais les journalistessont également préparés de manière plus ou moins méthodique à l'inattendu. Ilsdisposent de théories sur les types d'événements et même sur leur périodicité ;ils peuvent même prédire la durée de certains genres d'événement (Tuchman ,1973). Ils savent quels événements vont « expulser » les autres de l'agendapublic. Il y a une régularité marquée dans l'organisation de la première paged'un quotidien du matin ou dans le conducteur d'un journal télévisé du soir : laguerre, l'émeute, la catastrophe naturelle, la grève, la compétition sportive ,le défilé de mode, etc. (Hilgartner, Bosk, 1988). Ceci est aussi une théorie dela société, quels que soient ses précurseurs. Les journalistes ont également unethéorie sur la dynamique des événements (voir supra), etils prédisent ce qui va se passer. Par exemple, je crois que les journalistes« attendent » des troubles civils dans les territoires occupés par Israël, cequi pourrait expliquer leur attention « exagérée » aux pneus brûlés enCisjordanie longtemps avant que l'Intifada n'ait commencé. Bien qu'il soit acquis que les journalistes fabriquent des théories latentes surles motivations et les actions sociales dans leur façon de construire et dediagnostiquer la « réalité », l'analogie quasi-scientifique exige que nous nousposions deux autres questions : 1) Les journalistes contribuent-ils à uneaccumulation de connaissances dans leur domaine ? 2) Ces théories sont-ellessusceptibles d' être remises en question et modifiées ? Pour la première, jevoudrais suggérer que fureter dans les théories latentes des journalistes peutégalement montrer qu'une telle théorie consiste continuellement à faire face àla dynamique des conflits sociaux. Je ne voudrais pas exclure la possibilitéqu'il y ait une certaine accumulation de sagesse non exprimée sur le sujet quimérite une codification. Mais, parce que la théorie et ses possiblesdéveloppements sont manifestement peu formulés, on ne peut pas en dire grandchose. Les formations universitaires en journalisme devraient faire de leurmieux pour rendre ces théories latentes manifestes et les confronter auxactuelles théories de la psychologie sociale et de la sociologie. Lesjournalistes devraient être informés de la théorie de l'attribution ou du débat ,chez les sociologues, entre la théorie fonctionnaliste et la théorie du conflit .J'ose suggérer qu'il est également possible qu'un professionnel des sciencessociales ait des choses à apprendre de l'enquête journalistique, du point de vuedes éléments de connaissance (à propos des journalistes comme observateurs etdes observations des journalistes), mais aussi, autant que possible, de celuides changements de tendance dans la théorie (latente) des journalistes (surlaquelle je suis seulement en train de conjecturer). Les journalistes ont-ils quelque chose qui puisse être appelé une méthode ?Apparemment, une fois encore, la réponse doit être négative. On ne peut dire desjournalistes qu'ils ont un esprit systématique pour la mise au jour de lavérité. Ils ne disposent pas des outils de diagnostic du médecin, des outilsthéoriques de l'homme de loi et certainement pas des instruments ni de laméthodologie du scientifique, ni même du chercheur (empirique) en sciencessociales. J'offenserais les sciences humaines qualitatives comme l'anthropologieou la psychologie clinique si je laissais entendre qu'il y a des similarités .Mais les journalistes pensent des méthodes à même de produire de la vérité .L'entretien est peut-être la première de ces méthodes. Dans le sillage duWatergate, des conditions préalables rigoureuses sont demandées par laprofession (et ses précepteurs légaux) avant que des faits fondés sur de simplesentretiens soient acceptés comme des évidences. Des journalistes saventégalement lire les indicateurs économiques et sociaux, et plus l'usage est faitde ce genre de méthodologie, plus leur façon d'écrire le monde s'éloigne despersonnalités et des événements pour se porter sur les tendances à long terme ,comme c'est le cas dans les rubriques économique ou médicales. Une nouvelle fois, on pourrait penser que les études universitaires dejournalisme – tout particulièrement celles dans les écoles professionnelles decommunication – devraient présenter au journaliste ce que le chercheur ensciences sociales connaît de l'entretien ou de la psychologie du témoignage ouencore aborder la question des transformations sociales sur la longue durée .Beaucoup de travail a été fait dans ce domaine (e.g. Trope, 1982) et on peut se demander pourquoi il y a si peu de confrontations etd'échanges entre ces méthodes des sciences sociales et les méthodestraditionnelles de recherche de la vérité dans le journalisme. J'espère que ces notes – encore inabouties – sur la comparaison entre lejournalisme et les professions libérales, d'une part, entre le journalisme et lascience, d'autre part, illustrent l'utilité de ce type d'exercice. Cependant ,son intérêt n'est pas seulement celui -ci : il suggère plutôt la mise ne placed'un programme de recherche théorique et méthodologique pour l'enseignementuniversitaire et la recherche en journalisme et communication. La valeur decette approche peut être illustrée par la référence à la position décourageanteet condescendante d'Edward J. Espstein (1975) sur l'incompatibilité essentielleentre journalisme et vérité. Si notre récapitulatif a quelque valeur, il offreune base pour réfuter ce dernier. Edward Jay Epstein estime que le journalisme est incapable de dire la vérité. Prenez le cas d'une épidémie de grippe, dit ce dernier. À ladifférence du médecin, le journaliste est incapable de diagnostiquer la maladiepar lui -même : il doit se référer au témoignage d'une autre personne. Cela neserait pas grave, continue -t-il, si le journaliste avait la capacité de recouperses sources. Mais non, il doit prendre sa source au pied de la lettre, parcequ'il est incapable de poser les bonnes questions de peur de perdre la confiancede son informateur ou parce que l'heure du bouclage le presse. Il ne peut pasnon plus contrôler cette information auprès de collègues reporters de peur demanquer un scoop. Ce qu'il y a d'implicite dans la position d'Edward J. Epstein, c'est bien sûrl'idéalisation de la profession et de la science. Les médecins eux aussi sontsouvent incompétents pour réaliser des diagnostics sans l'aide de collèguesinformés; ils sont également souvent autant pressés par le temps et lacompétition que les journalistes. En effet, le sens de l'urgence est une descaractéristiques de la culture professionnelle, et le scoop est une descaractéristiques essentielles de la culture scientifique. Si Edward J. Epsteinsurestime le médecin, il sous-estime le journaliste. Bien sûr, il est vrai queles journalistes ont besoin d'un expert pour dire qu'il a une épidémie degrippe, mais ils sont suffisamment compétents – à la condition d' être sur leslieux – pour voir par eux -mêmes s'il y a une Intifada. Il y a beaucoup de chosesque les journalistes peuvent voir par eux -mêmes, même si l'on doit prendre encompte l'inadéquation typique de leur savoir spécialisé. Même si nous supposions qu'Edward J. Epstein a raison quand il dit que lesjournalistes ne font que rapporter ce que les sources établies leurcommuniquent – ou, s'ils sont des journalistes d'investigation, qu'ils diffusentce que les sources subversives leur disent –, nous ne devrions pas être siprompts à dévaloriser cet aspect de leur travail. Si un homme dans un costumetrois-pièces monte sur une estrade et dit : « je déclare la guerre », le travaildu journaliste est de rapporter cette déclaration performative, peut-être decommenter le droit de l'orateur à dire cela, et d'en observer les conséquences .En effet, une partie du travail du journaliste est de diffuser ce que les élitesdisent et d'en faire un commentaire. Edward J. Epstein élude l'idée que lavérité peut résider dans l'attention professionnelle aux déclarationssignificatives – indépendamment de la vérité de la déclaration elle -même. Il y ades mots et des actions qui constituent des données objectives que lesjournalistes sont chargées de collecter et de communiquer. La capacité desjournalistes à recouper ses sources est également sous-estimée par Edward JayEpstein. Effectivement, les journalistes sont souvent dépendants de leurssources, mais la réciproque est également vraie. Ces dernières années, nousavons vu un important regain dans l'examen critique public des sources dans lesinterviews en direct à la radio et à la télévision. Quelle ironique de constaterque cet examen critique soit plus courant à propos du journalisme audiovisuelqu'imprimé, peut-être à cause du caractère irrésistible du passage à latélévision. Edward J. Epstein explique que la validation par consensus et la vérificationindépendante qui caractérisent les professions libérales ne sont pas présentesdans le journalisme. De ce fait, comment expliquer que des auteurs commeElisabeth Noelle-Neumann (1982) se plaignent que les journalistes soient tropliés les uns aux autres dans une communauté interprétative monolithique de tellesorte qu'ils voient tous les choses de la même façon ? Il y a trop de partage ,affirme -t-elle, remettant ainsi en cause la représentation d'Edward J. Esptein àpropos du journaliste isolé et en compétition avec le temps ou sescollègues. Nous ne devrions pas seulement prendre en compte la validation par consensus, quiest approprié pour les scientifiques en tant qu'individus, mais prendre aussi encompte la validation institutionnelle, qui est appropriée pour les professionslibérales. Finalement, ce peut être un hôpital – avec sa division du travail etsa séparation des pouvoir– et un système de confrontation (pas seulement lesavocats en tant qu'individus) qui sont capables de trouver la vérité. C'est uneorganisation (un hôpital ou un laboratoire scientifique) ou un système (une courde justice) qui approchent la vérité, mieux que ne le font un praticien privé ouun scientifique isolé. La même chose peut être dite du journalisme. Le journalpermet de dire la vérité des faits bien plus que le récit individuel ou lejournaliste isolé. Revenant au modèle des professions libérales, on pourraitdire qu'ayant la société comme « client collectif », le journal ou le programmed'information est un « praticien collectif » .
Ces notes tentent de définir la profession journalistique au moyen d'une comparaison avec les professions libérales et les professions scientifiques. Comme les professions libérales, les journalistes ont le sens du service public et s'occupent des désordres vécus par les individus. Cependant, ils n'ont pas de contacts directs avec leurs clients et ne proposent ni diagnostic ni traitement. La comparaison avec les scientifiques (en particulier les sciences appliquées) parait plus pertinente. Les journalistes ont une théorie intuitive du monde social (une théorie volontariste de l'action, avec des « grands hommes » et des événements décisifs), ils connaissent la dynamique des événements et parviennent à anticiper sur l'inattendu. Cependant, bien qu'ils produisent une forme de vérité socialement construite, ils manquent de méthodes scientifiques, éléments que les écoles formant à la communication pourraient mieux leur transmettre.
sciencesInfo_11-0025183_tei_1066.xml
termith-379-communication
« Longue vie aux réalisations des Lumières, de la Modernité et de laGlobalisation ! Grâce à leurs résultats – l'innovation, la science et la technologie– tous les citoyens de notre cité globale utilisent l'information qui était jadisseulement disponible à l'Ouest et dans les autres nations avancées. Grâce àl'expansion mondiale des idéaux occidentaux de démocratie et de capitalisme, chaquecitoyen de notre cité globale a la possibilité d'avoir accès aux services vitaux dela vie moderne. Cependant, il subsiste des controverses auxquelles doit répondre lathéorie de la modernité. Les promesses de ces développements sont-elles à la hauteurde leurs attentes ? Ces possibilités sont-elles une réalité pour tous ? Lesdéveloppements de la science et de la technologie vont-ils de pair avecl'amélioration des conditions de vies humaines et mettent-ils fin aux disparitésentre les peuples ? » (Une jeune femme turque dans un de ses écrits de master ,janvier 2006). Je développerai mon argumentation en quatre étapes, en commençant par un court exposésur le passage du soutien public au mécénat privé en science avec lacommercialisation de la recherche scientifique qui en découle. Je montrerai que celaaccentue certains risques pour la communication scientifique : peut-être davantagede fraude, probablement plus de battage médiatique. Cette question oblige àreconnaître l'atout que représente un public critique de la science et de latechnologie et qu'il ne s'agit pas d'un problème d'acceptation. L'article conclutpar des observations sur la localisation sociale et les tendances des attitudessceptiques envers la science à travers l'Europe pour rendre cet atout un peu plustangible. Durant les 30 dernières années, une tendance marquante dans les relationsscience-société est l'augmentation du mécénat privé dans la recherchescientifique. Le mécénat privé de la science n'est pas nouveau sur le planhistorique, au contraire c'était probablement la situation normale avant laSeconde Guerre mondiale. Après 1945, le financement généreux des États aconcentré les activités de recherche dans les universités publiques du mondedéveloppé et a établi un idéal de la science comme « bien commun », dans latradition des Lumières du XVIII e siècle. Cet état de choses'inverse depuis les années 70. Les chiffres de l ' ocde sur la recherche et développement (r&d) rapportentque la r&d industrielle est financée par dessources publiques, privées ou caritatives, ces dernières comprenant desfondations comme Rockfeller (États-Unis) et Welcome Trust (Grande Bretagne). Lar&d se fait dans l'industrie, les universitésou les gouvernements. Les deux derniers pourraient être considérés comme« publics », même si le statut des universités devient plus hybride. La plupartdu financement en r&d provient maintenant desources privées et elle est aussi réalisée par des acteurs privés. Les leadersmondiaux sont les États-Unis et le Japon où 63 % et 74 % de la r&d sont financés par l'industrie, et 69 % et 74 %de la r&d se font dans l'industrie. Mais c'estaussi une réalité dans l'Europe des 25 où 55 % de la r&d est financée par l'industrie et 64 % de la r&d s'est faite dans l'industrie en 2002, malgré quelquesvariations entre les différents pays de l ' ue .Toutefois, les choses ont changé. Depuis 1981, le financement public global dansles pays de l ' ocde a reculé de 44 % à 29 %, tandis queles fonds privés augmentaient de 52 % à 65 %, et les sources caritatives de 4 %à 7 % en 2000. Ces observations étayent ma première affirmation : la recherchescientifique s'exprime de plus en plus sous mécénat privé. Nombreux sont doncceux qui parlent de manière convaincante de l' « économie de la connaissance » ,une économie dominée par une industrie de haute technologie faisant des r&d intensives et un secteur de service employantdes personnes très diplômées et créatives dans des laboratoires de rechercheprivés. Ce qui a été considéré durant la plus grande période post-guerre commeun « bien public », la connaissance valide et universellement accessible sur lanature et la société produite sous « mécénat d' État » (mais largement pour desbesoins de sécurité, voir Mirowski, Sent, 2005), devient de plus en plus un« bien privé ». La privatisation pourrait atteindre sa limite maximum. Bien sûr ,depuis 2000, la tendance semble ralentir. Cependant, le mécénat privé a pour conséquence inévitable la commercialisation dela science. Le modèle managérial envahit la science à la fois privée etpublique. On voit déjà apparaître une littérature qui cartographie lesconséquences inattendues de cette science Mode II (Nowotny, Scott, Gibbons ,2003). La commercialisation de la science encourage le développement de laproduction de connaissances mais elle dévie aussi la recherche en faveur deprojets à court terme avec des retours sur investissement immédiats ,l'innovation et l'amélioration des produits supplantent la curiositédésintéressée. Elle transforme ce qui reste des institutions publiques en deshybrides publics-privés, des universités à la culture des retombéescommerciales, et restreint les contributions des acteurs dominants à unelittérature ouverte, via une politique du secret pour protéger des brevetspotentiels (Tijssen, 2004). Elle exerce des influences corruptrices dans larecherche académique et érode les compétences indépendantes dans des domainesd'intérêt public comme la médecine du travail (Krimsky, 2003; Greenberg, 2007) .Mais la plupart de ces observations sur la production de connaissance en reste àun stade préliminaire ou de controverse. Ce qui semble ne pas faire l'objet decontroverse, et est même considéré comme acquis, c'est l'acceptation universelledu modèle des affaires (business model) pour lacommunication des idées. Certains suggèrent même que les écoles de commerce sontun modèle de production et de marketing des idées (Woolgar, 2004) : « Laconnaissance est co-construite » dans l'acte de marketing et de réseautage; etla seule règle de conduite est « profit = les revenus dépassent les coûts » à lafin de la journée. J'aimerais explorer quelques conséquences indésirables qu'ily aurait à normaliser cette logique de marketing et de relations publiques dansle domaine de la science. Nous pourrions poser la question suivante : la commercialisation de larecherche scientifique a -t-elle des conséquences sur la communicationscientifique ? Les aspirateurs, les meubles, les tapis, les voitures, lespâtes dentifrices, les poudres à laver et les parfums sont des produits deconsommation très différents mais ont ceci en commun : tous ces biens deconsommation sont sujets à la logique puissante du marketing deconsommation, une expertise professionnelle fabriquée pour l'essentieldurant le XX e siècle. La logique du marketing de biensenvers des groupes-cibles, comprenant la publicité et les relationspubliques, s'étend à la connaissance et aux idées, au domaine de la science .Cela crée de nouveaux enjeux pour la communication scientifique. Les affiches récentes de la campagne de DuPont, une multinationale enbiochimie, sous le titre commercial : Le miracle de lascience offre un exemple de cette tendance vers le marketing de laconnaissance. La science n'est pas une toile de fond dans l'ombre desproduits, mais elle est à l'avant-garde dans la politique d'image del'entreprise. Les entreprises nationales et internationales entrent encompétition pour être associées aux pouvoirs « magiques » et aux succès dela science (voir encadré 1). Peu importent les tensions entre magie, mythe ,miracle et science, le faiseur d'image ignore la tradition des Lumières pourdémystifier la science, et re-mystifie joyeusement le « miracle ». Les économistes considèrent « les atouts et investissements immatériels » etfont à la fois référence aux efforts de r&d età la gestion des marchés. De plus en plus d'expertises et d'efforts sontdépensés à décoder les signaux du marché et à informer et guider la demandede nouveaux produits de la connaissance. D'après le principe de stabilitérelative (principle of relative constancy ou prc), les dépenses en publicité suivent de manièreétroite le cycle économique, mais se développent plus vite dans les périodesfastes et se contractent plus vite dans les mauvaises périodes. Globalement ,elles restent liées à un paramètre relativement constant sur des périodesplus longues (bien qu'il y ait un accroissement plus rapide de la publicitéque du pib dans les pays asiatiques, voir Chang ,Chan-Olmsted, 2005). Si les affirmations d'une « économie de laconnaissance », une économie où l'industrie de haute technologie et lesservices prennent une place croissante, sont vraies, et si le principe destabilité relative de la publicité est valide, il s'ensuit que les montantsrelatifs et absolus dépensés pour la publicité de produits intégrantbeaucoup de connaissance augmenteront avec la croissance économique. Ces montants croissants des investissements publicitaires iront au marketingdes idées et des produits et à la fabrication de l'image des producteursd'idées. La dépense globale en publicité représente déjà environ la moitiéde celle de la r&d. En 2005, les dépensesmondiales en publicité ont été de 385 milliards de dollars, quand les paysde l ' ocde ont dépensé environ 650 milliards delivres sterling en r&d. La publicité par têted'habitant aux États-Unis est déjà environ trois fois celle des payseuropéens. En Grande-Bretagne, la dépense globale en publicité est de 1,4 %du pib, quand celles en r&d sont juste en dessous de 2 %; aux États-Unis, 2,4 % dupib va au marketing et 2,8 % à la r&d (ocde, 2004); leJapon dépense 1,2 % de son pib en publicité et unpeu plus de 3 % à la r&d. La plupart de cesdépenses se déplaceront des produits de masse à ceux de haute technologie etaux services au fur et à mesure que ces secteurs requerront plus deconnaissances. Dans les années 80, l'industrie hightech a dépensé entre un dixième et un tiers (par exemple en Italie )de ce qui a été dépensé en r&d pour promouvoirses produits (voir ocde, 1992 : 114). Même si cetteproportion reste la même – et elle est susceptible d'augmenter avec laconcurrence –, le montant total dépensé pour la publicité de la connaissancese développera avec l'expansion du secteur de haute technologie. Le battagemédiatique autour de l'internet et la bulle boursière de la fin des années90 ne sont qu'un exemple récent et un avant-goût de ce qui pourraitadvenir. L'association toujours plus étroite des marchés et de la recherchescientifique est susceptible de conduire à une querelle d'ethos : l'activitéscientifique est tournée de manière normative vers des « affirmations devérité objective », alors que l'entreprenariat et sa logique marketing sontorientés vers l'attention du marché et la performance des retours surinvestissement, la « vérité est ce qui rapporte ». L'intellectuel public etl'entrepreneur privé, qui peuvent tous deux être des scientifiques, suiventdes logiques différentes. La logique du marché appelle le marketingprofessionnel, les relations publiques et la gestion de l'image de marque .Cela défie la communication scientifique qui se tourne de plus en plus versdes « relations publiques scientifiques » (Bauer, Bucchi, 2007). Cetteobservation n'est pas entièrement nouvelle (Nelkin, 1987), mais latransition a atteint une masse critique ces 20 dernières années. Pour les spécialistes du marketing des idées, le battage médiatique et lesensationnalisme ne sont pas disqualifiant, comme ils le sont pour lescommunicants scientifiques traditionnels, mais sont une méthode normale pourpromouvoir un produit. L'hyperbole est un trope calculé pour gérerl'attention et les attentes d'un marché; la construction de relationsclients durables est un moyen pour modeler les cœurs et les esprits dupublic, et apporter sous condition de nouvelles idées à diffuser en contextede compétition globale (certains scientifiques inventent là une sociologiedes attentes, voir Brown, Michael, 2002). Récemment, j'ai parcouru de courts pamphlets, dont j'ai rendu la lectureobligatoire pour mes étudiants. Ils explorent certaines implications del'extension de la logique de marché à tout ce qui existe sous le soleil .Leurs titres parlent d'eux -mêmes : Fraude innocente et On Bullshit. Cespamphlets pointent les risques potentiels qui pèsent sur la communicationscientifique. Le dernier coup de plume de Kenneth Galbraith (2004), économiste américain etcommentateur des affaires publiques, est paru sous le titre Fraude innocente. Kenneth Galbraith est mal à l'aisepar rapport au fait que le pouvoir de l'entreprise soit devenu dominant etpolitiquement incontrôlable, ce qui se manifeste à travers un jargonjournalistique orwellien (par exemple du « capitalisme » au « système demarché ») et l'érosion de la force critique du langage. Cette tendanceconduit à une perte de clarté et de contrôle public sur ce qui constitue la« fraude » dans un climat qui encense la poursuite des intérêts propres surtout le reste. Sans frontières morales, la fraude d'entreprise est« innocente », ne peut être prise en considération et l'impunité règne. Laseule responsabilité des spécialistes du marketing est envers eux -mêmes ,tant que les intérêts des détenteurs d'actions et les investissements enbourse se font à court terme. Kenneth Galbraith ne pensait pas à larecherche scientifique en faisant ces observations, il pensait plusprobablement à la comptabilité créative d ' enron età d'autres scandales récents du super-capitalisme (highoctane capitalism). Mais, certaines fraudes scientifiques récentessemblent suggérer la même dynamique. L'influence pernicieuse des intérêtscommerciaux saperait-elle l'intégrité de la recherche scientifique ?Cependant, on dispose de peu de preuves d'un accroissement de la fraude dansla recherche scientifique au-delà de quelques cas bien en vue qui pourraientexagérer le problème (voir Nature Biotechnology, 24 ,7, July 2006 : 745). La collecte de statistiques fiables est compliquée parle problème de la définition des fautes professionnelles (impostures ,rétention de données, plagiat, dissimulations méthodologiques, fragmentationde la recherche en des unités les plus petites pour être publiées, etc.) etla tendance des institutions à éviter des investigations complexes (voir Nature, 445, 25/01/07 : 40). Mais, dans une étude surles chercheurs de l'Institut national de Santé des États-Unis (nih), un sur six a reconnu avoir changé le modèlede la recherche ou la méthodologie des résultats pour répondre à la pressionde leur source de financement (ibid. : 245). Lafraude scientifique est rare, probablement insuffisamment signalée, et uneplus grande part de celle -ci prévaut dans les sciences biomédicales à causedes forts enjeux liés à l'argent privé, aux espoirs du public et à lagloire. Le second pamphlet qui a retenu mon attention est l' œuvre d'Harry Frankfurt( 2005), un philosophe moral, sous le titre « Onbullshit (À propos de conneries) ». « Bullshit » est un mot anglais plutôt grossier quel'auteur utilise de manière délibérée pour souligner un problème sérieux. Letexte est la réimpression d'une conférence donnée à une société étudianteremontant à 1986, mais dont l'actualité résonne de manière plus claire dansl'air du temps présent. C'est un exemple de ce que les spécialistes descientométrie nomment « la Belle au bois dormant » : aucun impact au momentde sa publication, impact énorme des années plus tard. Son argumentationdistingue les « conneries » du « mensonge » sur la base du souci de vérité .L'acte de mentir, moralement douteux, reste lié de façon inextricable à la« vérité » que le menteur cherche à cacher à son interlocuteur, soit pour debonnes raisons comme dans le cas d'un « mensonge pieux » ou pour demauvaises raisons intéressées. Le menteur déforme la vérité consciemment. Aucontraire, le « bullshiter » ignore la valeur de lavérité, ne se préoccupe pas de vérité parce qu'il ne s'en est jamaispréoccupé ou ne s'en préoccupe plus. Le bullshiter est cynique au point qu'il ou elle a abandonné toute croyance en la véritéen tant qu'idée sociale régulatrice. Ainsi Harry Frankfurt distingue -t-il lemensonge des bullshit de la sorte : « Le motif quiles guide et les commande [les bullshit] estindifférent au degré de vérité des choses dont il parle » (ibid. : 55). Il identifie alors les tendancessociales qui favorisent le fait de dire des conneries dans nos sociétésmodernes : la multiplication des situations qui obligent les personnes àparler de sujets qui dépassent leurs connaissances, par exemple en politiqueou en communication professionnelle. Le besoin d'avoir un avis sur tout ,l'inflation des prétentions à connaître, engendre des formes de vaguescepticisme qui sape ce qui reste de croyance en une « réalité objective » .De plus, l'évaluation du discours public se déplace d'un idéald' « exactitude » à celui de l' « authenticité » : peu importe qu'uneaffirmation soit vraie, à partir du moment où elle est crue sincère. La production de la connaissance privatisée va nécessiter un marketingprofessionnel, et cela change déjà globalement la manière dont la scienceest communiquée au public. Il est difficile d'ignorer les premiers signesd'une telle orientation. L'encadré 2 présente la palette d'activités quitransforment la science en événements et affichages publics, qui vontau-delà de l'activité traditionnelle d'écriture scientifique. Si l'on nepeut prouver de manière concluante le fait que la fraude est une conséquencede la commercialisation, le risque de voir de plus en plus de « conneries »est plus susceptible d' être patent. C'est une tendance lente et difficile à détecter. Le mécénat public de lascience favorise la « re-féodalisation » (Habermas, 1962) du public de lascience : la « représentation » et le spectacle dans l'arène plutôt quel'argumentation au forum, des empires globaux plutôt que des républiquesscientifiques. Cela affectera l'information scientifique par accumulation depetits déplacements de l'activité et de l'ethos, de manière lente maisdécisive. Nous avons besoin, c'est urgent, d'un certain niveau de vigilanceet de débat publics. Comment le public pourrait-il développer un dialoguecritique quand l'information scientifique penche lourdement vers lapublicité, les relations publiques stratégiques et la propagande au serviced'intérêts privés ? Où pouvons -nous trouver les vestiges d'un publicsceptique afin d'alimenter la vigilance nécessaire pour relever le défi dela fraude et des remèdes de charlatan de haute technologie ? La source ducharlatanisme n'est plus extérieure à la science, c'est la super-science (high octane) elle -même. Dans la citation tirée de la dissertation d'une étudiante que j'ai mentionnée audébut de ce texte, je vois des éléments prometteurs d'une attitude nécessairepour faire face aux tendances et aux risques décrits plus haut. De telsdéveloppements de la modernité sont-ils à la hauteur des attentes ?, demandecette jeune femme de Turquie. Le fait que la science et la technologie apportentde manière automatique le bien commun de la société n'est plus tenu pour acquis .Le modernisme assimile la science et la technologie au « Progrès » dans lemonde. Cela engendre un messianisme qui attend que la science et la technologieapportent des solutions à tous les problèmes. La famine, la misère, l'inégalité ,la guerre et la paix, le confit moral, tous les démons du monde seront éradiquésgrâce au déploiement non contraint de la science par la production denourriture, la productivité créatrice de revenus, la redistribution et laconsommation, les technologies de communication, et même la reconnaissance del'évolution des fondements de la moralité et de l'éthique. Selon ce point devue, la science découvre les lois de la nature, la technologie les applique àdes fins pratiques, et les sciences sociales assurent que ces solutions sontacceptées et remplacent les anciennes. Difficile de déterminer si le « modèlelinéaire » a jamais été une description valide ou juste une bonne rhétorique del'opportunisme politique (Krige, 2005). La science moderne est entouréed'infrastructures techniques, il n'y a pas de physique atomique sansinstallations de super accélérateurs de particules, pas d'astronomie sanstélescopes de haute technologie, pas de génie génétique sans microscopes, pas denanotechnologies sans laser, pas de recherche sur le cerveau sans techniques devisualisations à résonnance magnétique, et probablement aucune de ces recherchessans supercalculateurs. La science et la technologie sont intimement liées àleurs frontières, ce que désigne le terme « techno-science ». L'emprisetechnologique sur le monde est hégémonique. La globalisation de la technologieest déjà réalisée. Il reste peu d'endroits au monde sans électricité, téléphoneou automobiles. Ces réalisations se font manifestement à vaste échelle. Mais ilreste la question de l'étudiante : est -ce que tout cela est à la hauteur desattentes ? Après avoir connu le succès seulement pour des paris inopérants enmarge du modernisme (Touraine, 1995; Sieferle, 1984), l'équation « science +technologie = progrès » est à présent devenue suspecte. La science et latechnologie ne produisent plus automatiquement un progrès sociétal. Plusieursmodèles se sont développés depuis les années 70 pour évaluer si les réalisationsscientifiques constituent un « réel » progrès. Chacun est associé à des acteurssociaux et à des mouvements sociaux qui étayent les doutes, résistent auxdéveloppements, posent des questions brûlantes et mettent la science et latechnologie sous le regard scrutateur du public. Qu'on les considère de manièreindividuelle ou combinée, ils mettent en question l'autonomie de la science : lascience comme les autres activités sociales est responsable de ses conséquences .Les associations de consommateurs mettent la sécurité des produits à l'ordre dujour. Les mouvements écologistes remettent au centre des préoccupations lavieille idée de conservation et engagent chacun à s'investir dans ledéveloppement durable. Les mots impartialité et équité sont écrits sur lesbannières de l'antiglobalisation et de l'activisme mondial. Les religionstraditionnelles reposent les questions de la dignité humaine, de la moralité etde l'éthique. La « Kulturkritik » philosophiquerenouvelle l'allégation de réification de la nature, des autres et de soi. Et ,finalement, les économistes concluent que « la science est trop importante pourêtre laissée aux scientifiques ». Bon gré mal gré, ces modèles ont accéléré lemécénat privé et il en sera de même dans le futur. La perte d'autonomie dans lespratiques scientifiques est à la fois le problème et une partie de la solution .Elles forment une boucle de renforcement mutuel : les publics critiques demandeune science responsable; cela défie l'autonomie de la science, sape le mécénatpublic et renforce le mécénat privé et la commercialisation de la communicationscientifique, qui en retour nécessite une vigilance publique accrue pourcompenser les risques de fraude et de « conneries ». En Grande-Bretagne, nos recherches sur les tendances à long terme dans lacommunication scientifique (et aussi celles de collègues en Bulgarie et enItalie) montrent que l'on peut prendre les rapports scientifiques annuelscomme des indices du changement du discours public sur la science et latechnologie. Nous avons observé entre 1946 et 1992 des variations dansl'intensité de la couverture scientifique et de son éclairage. L'intensitédu débat public sur la science a atteint un pic au début des années 60 enGrande-Bretagne et probablement ailleurs, elle a décliné dans les années 70pour atteindre un nouveau pic depuis; et ce fut le cas pour la presse desélites aussi bien que la presse populaire, même si le cycle est plus clairpour la première (Bauer et al., 2006; Bucchi ,Mazzolini, 2007). L'évaluation de la science dans le débat public est liée à un cycled'intensité (non montré ici) : la couverture scientifique a augmenté depuis1962, puis décliné au milieu des années 70, et s'est complètement redresséedans les années 80 et 90. Selon la manière dont on pondère l'intensitéabsolue par rapport à l'espace journalistique qui a considérablementaugmenté depuis les années 1950, le pic de 1962 se reproduit ou non dans lesannées 90, mais les phases subsistent (Bauer et al. ,2006). La figure 1 montre l' « évaluation » de la science dans la pressebritannique. La ligne des moyennes mobiles montre deux phases de quelquechose qui ressemble à un cycle irrégulier : plus de couverture négative dansles années 50, retour à une couverture positive à la fin des années 50 etdans les années 60, à nouveau davantage de couverture négative dans lesannées 70 jusqu'au début des années 80 (avec des hauts et des bas dans lesannées 70). La couverture positive revient dans les années 80 pour atteindreà nouveau les niveaux de 1946 (les données ne vont que jusqu'en 1992, pourdes questions de financement). Le climat critique de la science dans lasémiosphère que les médias de masse ont créé autour de nous varie de manièreclaire, et ce devrait être une invitation à réfléchir à ce qui fabrique ourompt ce changement dans la médiation mass-médiatique. John B. S. Haldane (1925 : 49), un biologiste britannique éminent del'entre-deux guerres, a suggéré ce à quoi il a été fait largement écho dansdes discussions récentes et que l'on pourrait appeler le « Principe deHaldane » : « L'invention biologique a tendance à cette époque à êtred'abord considérée comme une perversion, et finit dans un rituel soutenu pardes croyances et des préjudices non questionnés ». John B. S. Haldane voitun cycle naturel dans les controverses publiques sur les innovationsbiologiques : ce qui commence par un tollé initial de dégoût, de répulsion ,finit par du sens commun tenu pour acquis, on ne pose plus de questions. Nos recherches sur la biotechnologie et l'opinion et les débats publicscadrent mal avec un tel modèle. La figure 2 montre trois ensembles dedonnées sur l'opinion publique en Grande-Bretagne depuis le début des années70 : l'intensité de la couverture atteint des pics en 1999 avec plus de 1600références à la « biotechnologie » dans un seul média d'information .L'évaluation de la biotechnologie fait l'objet d'un battage médiatiqueinitial au début des années 80. Le ton s'est calmé dans les années 90. Ilest devenu intermittent après les années décisives de 1996/1997 avec lescontroverses sur le maïs et les aliments ogm et leclonage des animaux, puis les débats sur les cellules souche. Les réponsesaux sondages expriment un optimisme général à propos des biotechnologies( « les biotechnologies amélioreront nos vies dans les prochaines 25 années »comme dans l'Eurobaromètre, voir Bauer, 2007). L'optimisme public a augmentédans les années 90, puis s'est mis à décliner avec la controverse publiquesur les aliments ogm et le clonage humain à la findes années 90. Ces données suggèrent que, contrairement à un cycle derépulsion initiale suivi par l'acceptation et le tenu pour acquis, de nosjours le battage médiatique initial est suivi par la controverse et desattitudes d'un public plus sérieux (sobering =dégrisé). La Communauté européenne a conduit durant des années des étudesreprésentatives de la population des états membres sur la compréhensionpublique de la science. Ces études ont interrogé la population adulte sur lalittératie scientifique, leur intérêt pour la science et différents élémentsexprimant des attitudes envers la science. Par exemple, l'élément « lascience et la technologie peuvent régler tous les problèmes », vis-à-visdesquels les répondants disent être d'accord ou pas d'accord, est un bonindicateur d'une attitude qui investit la science de confiance et du pouvoirde résoudre les problèmes du monde. En janvier 2005, on a interrogé 500personnes dans 32 pays d'Europe (y compris la Turquie) et les résultatsmontrent de grandes variations sur l'accord ou non avec cette proposition .En Turquie, 12 % des répondants et 31 % en Italie ne sont pas d'accord aveccette proposition sur la science, alors qu'en Suède, en Suisse et auxPays-Bas, le désaccord atteint 80 %. Le désaccord est considéré commel'expression d'une « attitude sceptique ». En combinant diversesaffirmations sur la science, j'ai créé un indice de l ' « idéologiescientifique » qui suit une distribution normale : l'omnipotence de lascience, le contrôle des efforts de bord, la mise à disposition d'une imagemondiale totale, et le rejet de toute contrainte (voir annexe). Cespropositions ne sont rien d'autre qu'un mythe moderniste de la science( Ziman, 1995), une vision confiante du monde qui concède à la science unstatut épistémique et moral privilégié, soumis à aucune contrainte en dehorsd'elle -même. La plupart des enquêtes sur la manière dont le publicappréhende la science sont conçues pour dépeindre leur littératiescientifique et faire la démonstration que la connaissance est sujette à desattitudes positives. Cela en vient à être connu comme le « modèle dedéficit » de la compréhension publique de la science : plus vous en savez àpropos de la science, plus vous l'aimez. Cependant, notre analyse montre quel'histoire réelle est différente, un beau cas de falsification d'unecroyance largement répandue. Tout aussi expertes et intéressées, les femmesont tendance à être plus sceptiques que les hommes; c'est aussigénéralement le cas de la population plus instruite et plus âgée. Ceux quisont très intéressé par la science tendent à être moins sceptiques. Maiscurieusement et cela semble contradictoire : les gens qui voient le rôle dela science dans l'économie, dans le développement des innovationstechnologiques pour développer l'industrie et dans l'amélioration del'environnement, sont plus sceptiques sur les tenants idéologiques de lascience. Suivre les croyances idéologiques et la perception de la pertinence sociétalede la science nous permet de dresser différents profils de « culturesscientifiques » dans les pays européens (au moins en termes d'ébauche) ensceptiques qui sont critiques sur les comptes-rendus (comme les Suisses etles Luxembourgeois); ceux qui voient la science essentiellement sous unjour mystique, bien loin des problèmes du monde réel (comme les Turcs et, àun certain point, les Italiens); ceux pour qui la science est trèspertinente mais aussi mystifiée par des affirmations idéologiques (lesMacédoniens ou les habitants de Malte). Et finalement ceux qui voientprincipalement la science comme une utilité démystifiée (comme les Danois) .Ces corrélations montrent que différents types d'attitudes, idéologiques etutilitaires, se combinent en modèles culturels qui méritent un examen plusapprofondi. Troisièmement, nous devons considérer les attitudes du public comme partie du« climat d'opinion général » de la culture scientifique d'un pays. Lesdemandes de brevets et les publications scientifiques sont des indicateursde la productivité scientifique des pays. Les données montrent que lalittératie scientifique augmente avec la productivité scientifique d'unpays. Plus un pays produit de brevets (en logarithmes), plus élevée aussiest sa littératie scientifique. La corrélation en Europe est élevée (r =0.75; n =32). Toutefois, la croyance en l'idéologie scientifique décroîtavec une connaissance plus élevée et une productivité scientifique plusforte. Les répondants dans les pays qui sont scientifiquement les plusproductifs prennent leur distance avec l'idée selon laquelle « la sciencerésout tous les problèmes du monde » ou « la science produira un jour uneimage complète de la nature et du cosmos ». La corrélation entre cettecroyance et la productivité scientifique est clairement négative (r = -0.82; n =32). L'analyse montre que, dans la plupart des pays, la littératie et l'idéologiescientifique sont corrélées de manière négative, et plus la littératie et laproductivité scientifique sont élevées, plus les citoyens les plussusceptibles d' être instruits rejettent l'idéologie scientifique (voirfigure 4). Il n'existe des corrélations positives entre littératie ,connaissance et idéologie que pour un petit nombre de pays en bas del'échelle. Dans tous les autres contextes, cette relation est négative etplus elle est négative, plus la société est devenue lettrée en sciences. Leconcept de déficit de la compréhension de la science par le public estfalsifié : plus nous connaissons la science, moins nous l'aimons (au moinsdans les termes de l'idéologie moderniste). Une littératie scientifique plusélevée et une atmosphère sceptique vont de pair avec une productivitéscientifique plus forte (une observation qui, notons -le bien, n'est qu'uneassociation. Toute affirmation causale nécessiterait plus ample analyse) .Mon analyse suggère qu'une culture scientifique très productive sedébarrasse de certains tenants idéologiques de la science. La coexistenced'un scepticisme du public et d'une recherche productive n'est pas seulementhautement souhaitable, c'est déjà une réalité à certains endroits. Et c'estun fait que nous devons considérer comme un atout et ne pas déplorer commeune insuffisance. Une opinion publique critique ne souffre pas d'une« insuffisance de littératie ou d'appréciation »; un public critique n'estpas un problème d'acceptation mais un atout, dont la valeur reste àdéterminer. Ces observations sur la connaissance, l'intérêt et les attitudesont des implications sur le concept de « culture scientifique ». Nous devonsprendre en compte le changement des relations empiriques entre cesvariables, et dépasser une hypothèse normative comme celle du modèledéficitaire de la compréhension de la science par le public. Il semble quela culture scientifique récente pourrait bien être un ensemble complexe deconnaissance élevée, d'attitudes sceptiques et d'intérêt modéré (Shukla ,Bauer, 2007), et ceci fait partie intégrante d'une société qui produit desconnaissances. J'ai développé l'argumentation selon laquelle la communication scientifique faitface à de nouveaux défis qui émergent avec la commercialisation de la recherchesous mécénat privé. Cette tendance éloigne de l'écriture et du journalismescientifique pour se diriger vers des actions de relations publiques pour lascience. L'information journalistique sur la science se transforme de plus enplus en fabrication d'événements publics pour la science. Cela comporte desrisques spécifiques de communication : la fraude et les bullshit (conneries) dans la communication au public. Si l'impact surles mauvaises pratiques scientifiques n'est pas concluant, la prolifération dubattage publicitaire et des « conneries » dans la communication de la scienceest évidente et nous désole donc tous ici. Dans ce contexte changeant, il esttrès souhaitable que le public soit sceptique. C'est toutefois contraire à lamission traditionnelle de la communication scientifique qui est de développer lalittératie du public, de donner une image positive de la science et de faireaccepter au public les nouvelles technologies. Mais un public sceptique estnécessaire pour compenser la prolifération d'affirmations exagérées, de battagemédiatique et de « conneries » sur les idées et produits de haute technologie ,et cet objectif traditionnel semble dépassé. La société de la connaissance abesoin d'un public à l'attitude critique, comme la société de consommation abesoin de consommateurs ayant une conscience de consommateur. Une telle attitudeest nécessaire mais non suffisante pour accroître la vigilance. Elle a besoind' être cultivée, entretenue, mobilisée, investie, amplifiée et entendue par desacteurs sociaux compétents. Les divers mouvements sociaux qui mettent en placedes tests d'évaluation du progrès sociétal ont ici un rôle éminent à jouer. Lesattitudes sceptiques envers la science sont plus probables parmi les femmeslettrées, les plus âgés, et les plus savants en général, alors qu'un intérêtfort pour les actualités de la science et de la technologie « immunise » contreun scepticisme sain. J'ai démontré que les attitudes envers la science ne sont pas une constantehistorique et qu'elles ne suivent pas des « cycles naturels » allant d'un dégoûtinitial à une acceptation ultérieure. La réalité des dernières tendances enmatière d'informations journalistiques est plutôt celle d'un battage médiatiqueinitial qui laisse place à une évaluation plus pondérée. Le refus des tenantsd'une idéologie moderniste de la science varie à travers l'Europe, mais enfonction du développement économique, de la littératie et de la productivitéscientifique. En suivant un continuum des niveaux delittératie scientifique, l'association entre connaissance élevée et attitudessceptiques est de plus en plus négative. L'idée selon laquelle « plus vous ensavez, plus vous l'aimez » n'est plus valide. Dans les contextes très productifsscientifiquement, la familiarité pourrait bien nourrir le mépris, ou au moins lemécontentement. Les attitudes sceptiques envers la science vont de pair avec uneévaluation utilitaire de son importance pour la société. Une culturescientifique mature est un mélange de haute littératie, d'attitudes sceptiquesmais utilitaires et d'intérêt modéré. On peut caractériser les différentescultures de la science en Europe selon des modèles d'attitudes variées. Unpublic sceptique qui n'est pas impressionné par les nouveaux affichages de lascience est une nécessité pour des sociétés de la connaissance. Un publicsceptique est après tout une attitude scientifique démocratisée, l'ethos d'unscepticisme organisé acquis par un public lettré (Merton, 1973). Les attitudesd'un public sceptique contrebalancent les pressions de la vie sociale envers uneconformité et une soumission à l'autorité, incluant celle du fait technologiqueaccompli (Bauer, 2008). La connaissance scientifique semble différente de lapâte dentifrice, des parfums et des poudres à laver. Par conséquent pour tout lemonde, les intentions et les objectifs de la communication de la science aupublic ne devrait pas, mais suit malgré tout effectivement la même logique quecelle du marketing de la poudre à laver et de l'image de marque. En cultivantles débats publics qui sont très développés en matière de science, mais aussitrès sceptiques vis-à-vis des affirmations hyperboliques d'un marketingprofessionnel de la science, nous pourrions en finir avec le type de science etde technologie qui est universellement souhaitable : un « bien commun » qui soitsain, justement distribué, moralement salubre, empreint de dignité, et durablesur le plan environnemental. Toutefois, sur le chemin de ce monde souhaitable devieux bon sens, nous devons faire face à des dilemmes et à des controverses. Lacommunauté des communicants scientifiques pourrait reconnaître là sa nouvellemission : donner à l'opinion publique l'opportunité de reconnaître lesaffirmations exagérées du marketing privé de la connaissance .
Avec le mécénat privé, la pression augmente pour commercialiser la recherche scientifique et ses résultats. Le modèle des affaires (business model) s'étend au laboratoire et importe sa logique de communication. Cet article explore les risques potentiels pour la communication de la science dans ce contexte changeant. Dans les pratiques de marketing et de relations publiques, l'hyperbole et le sensationnalisme sont des modes opératoires ordinaires. La « fraude innocente » (Galbraith, 2004) et les bullshit (conneries) sont susceptibles de devenir des modes opératoires ordinaires aussi en science, ce qui appelle une vigilance accrue de la part des consommateurs de la connaissance. Cet article souhaite attirer l'attention sur l'augmentation d'une critique publique de la science: les vagues à long terme de la couverture par les médias de masse, les cycles de battage publicitaire et d'attentes déçues, l'augmentation de la littératie scientifique et le déplacement de l'idéologie scientifique par des attitudes sceptiques-utilitaires dans des sociétés high-tech - ou de haute technologie - de la connaissance. Dans ce contexte, le paradigme de la communication scientifique n'est plus de livrer au public une adoption des innovations, mais de permettre d'approfondir l'examen de propositions qui sont faites dans l'objectif de gains privés plutôt que pour le progrès scientifique.
sciencesInfo_13-0090566_tei_1026.xml
termith-380-communication
Adopter une démarche volontariste pour s'engager dans un projet scientifique innovantétait l'idée forte qui unissait précédemment (Fleury, Walter, 2009) quatrechercheuses conduisant des travaux dans le champ des médias – Marie-Joseph Bertini ,Béatrice Damian-Gaillard, Cégolène Frisque et Eugénie Saitta –, deux au sein desétudes littéraire – Catherine Gravet et Marie-Ève Thérenty –, une en histoire ,Françoise Thébaud. Selon ces dernières, aucun doute : pour que ce projet aboutisse ,il se doit d' être relayé par les instances ayant en charge la structuration desdisciplines. Pour les sciences de l'information et de la communication (sic), il s'agit à la fois de la société savante – laSociété française des sciences de l'information et de la communication (sfsic) –, du lieu de qualification desenseignants-chercheurs – le cnu 71e section –, du ministèrede l'Enseignement supérieur et de la Recherche. De façon plus radicale, ellesposaient l'idée selon laquelle c'est à cette seule condition que peut se déployer uneffet en chaîne allant du recrutement d'enseignants-chercheurs à l'émergence et ausoutien de thèmes « audacieux », dont le genre. Si des chercheuses de différentesdisciplines se rejoignaient sur ce point, elles le faisaient au regard d'uneexpérience commune, celle d'une minoration de leur terrain de recherche au sein deleur propre champ académique, mais aussi en se fondant sur un substrat épistémiquesimilaire, la recherche francophone, par ailleurs principalement centrée sur l'étudedes femmes. En résultait une démarche scientifique engagée, consistant à penser unchamp où beaucoup resterait encore à faire, tant pour qu'un domaine soit reconnu quepour légitimer les chercheurs de celui -ci. Des quatre contributeurs ici réunis, seule Virginie Julliard – qui a soutenu unethèse en sic intitulée Émergences ettrajectoires de la parité dans l'espace public médiatique (1993-2007). Histoireet sémiotique du genre en politique à l'occasion du débat sur la parité (2008) ,s'inscrit dans ce cadre, avec de notables nuances néanmoins. En revanche, lestrois autres, du fait d'objets de recherche différents, déplacent le regard. PourIsabelle Gavillet, chercheuse en sic – elle a notammentconduit des recherches sur les représentations des homosexualités – le genre n'estpas qu'une question de femmes ou de sexes. Souscrire à ce raccourci reviendrait ,selon elle, à négliger des catégories de domination qui ne peuvent être réduites àla domination présupposée d'un sexe sur l'autre. En effet, en tant que conceptscientifique, le genre n'est pas un objet stable (la femme) mais une variablestratégique. Il peut servir les rapports sociaux de sexe – au même titre qued'autres principes dualistes – et déterminer des relations de pouvoir « inédites » ,pour ne pas dire occultées. Pour Rokhaya Fall-Sokhna (du laboratoire Femmes, sociétéet cultures de Dakar) et Sylvie Thiéblemont-Dollet (chercheuse en sic), lever les stéréotypes en la matière ne peut se fairequ'en prenant en considération les recherches et enseignements sur le genre dans despays autres que la France, notamment au vu des travaux sur l'immigration au féminin .À noter que les deux chercheuses connaissent bien le Sénégal, la première pour yenseigner et conduire ses recherches, la seconde; pour en avoir fait l'un de sesterrains d'investigation privilégiés. Quant à Silvia Delfino et Fabricio Forastelli ,ils envisagent la question du genre selon l'institutionnalisation de ce domaine enlien avec celle des sic. Revenant sur l'un des aspects dela démonstration de Marlène Coulomb-Gully, à savoir que le genderturn à la française des études sur le genre est marquée par des dispositifset dispositions universitaires particuliers mais aussi par l'histoire des mouvementsassociatifs, ces deux chercheurs retracent les étapes marquantes de la formationd'une discipline et d'un champ de recherche en Argentine. Ainsi évoquent-ils leseffets d'une situation idéologique autoritaire sur un domaine et ses études ,montrant l'intrication des préoccupations scientifiques et sociétales. Dans une certaine mesure, la tonalité de cette livraison se révèle éloignée d'uneoption du genre qui ne serait que féminine, voire féministe, et vis-à-vis aussi del'instrumentalisation de la notion à des fins disciplinaires. Elle pousse des portesentrebâillées, telles celles relatives à l'épistémè – les recherches devant êtreenvisagées à l'aune d'un cadre qui leur est spécifique –, ou celles en lien avec ceque recouvre le terme même de genre. Isabelle Gavillet et Virginie Julliard traitent du genre en France, mais selon unpoint de vue distinct. La première regrette que le thème soit trop souventcentré sur la situation des femmes et de la domination dont elles seraientvictimes. La seconde a pour objet les femmes en politique et leur représentationmédiatique, à distance toutefois de la question de la domination. Néanmoins, lesdeux chercheuses se retrouvent sur un projet : faire des études de genre undomaine conceptualisé qui penserait la complexité des rapports humains et seseffets et/ou conséquences en termes de construction sociale. Mais si pourVirginie Julliard, c'est à l'aune des sic que le profitde l'interdisciplinarité est envisagé – en faisant de celles -ci une ressourcepour d'autres disciplines en même temps qu'un domaine à même de s'enrichir grâceaux emprunts disciplinaires –, pour Isabelle Gavillet, la question de ladiscipline n'est pas le problème. En revanche, elle appelle de ses vœux uneattention plus soutenue des chercheurs à ce qui a trait à la théorisation, laproblématisation et les méthodes. On l'a dit, Isabelle Gavillet ne se réclame pas des études de genre penséescomme discipline ou champ de recherche. En effet, c'est à partir de soninscription dans un domaine académique, les sciences humaines et sociales (shs), qu'elle questionne le genre en tantqu'objet ou concept pour déconstruire certains points de vue universitaires .Pour cette chercheuse, et a contrario desdéclarations des chercheurs concernés, l'usage du genre relèverait plus dela mise en œuvre d'une notion que d'un concept, les travaux sur ce thèmerelevant de l'étude de cas plus que de la théorie ou de l'inscription dansune théorie. En lien avec cette hypothèse, elle pose aussi la question desavoir ce que recouvrirait le genre érigé en discipline, que l'on parle, enFrance, de gender studies ou d'études de genre. Et dese demander si, dans ce cadre, le genre ne deviendrait pas un modèlefonctionnant comme un prêt-à-penser. De ce point de vue, elle regrette que ,dans beaucoup d'études françaises, la portée théorique se dissolve dans cequ'elle qualifie des « études de femmes ». Une option qui réduirait le genreau « sexe » et conduirait à envisager celui -ci à l'aune du seul rapporthommes/femmes. Or, si l'on reprend les travaux de Pierre Bourdieu (1998) surla domination masculine, celle -ci est un principe universel qui traversel'ensemble du monde social, essaimant en dehors de la seule différencesexuelle. Ainsi estime -t-elle qu'on peut la rencontrer dans tous types derapports sociaux de groupes mettant en œuvre des catégories, tant endogènesqu'exogènes : hétérosexuels/homosexuels, hommes/femmes, femmes/femmes ,homosexuels/homosexuels, Européens/Africains, Africains/Africains, classesd' âge, sociale, etc. Ce qui la conduit à complexifier la question de ladomination, notamment en se fondant sur un article de Lucie Bargel, ÉricFassin et Stéphane Latté (2007). Ayant réalisé une enquête sur la parité àpartir de l'année 2001, ces chercheurs ont tenté « de préciser de quellemanière joue le genre, comment les acteurs en jouent et en sont le jouet » (ibid. : 59). Isabelle Gavillet reprend certainsrésultats de leur enquête, puisant en eux matière à sa démonstration : « Le rapport entre le sexe et le genre est pensé à partir dedeux entrées que sont la voix (entrée biologique) et le niveau social( entrée sociologique). [L'un et l'autre sont] des principes dehiérarchisation dans l'univers politique. Ils sont des moyens de poser lesrapports de pouvoir, de construire des identités stratégiques à traversl'usage de catégories. Selon ces auteurs, le genre dans le langage politiqueest une carte, un atout, une ressource. Le genre est tantôt exhibé (‘ ‘ lesfemmes font de la politique autrement' '), tantôt réprimé (‘ ‘ les femmes sontdes hommes politiques comme les autres ' ') ». Aussi l'habitus se manifeste -t-il en étant soit contraignant, soit de l'ordrede la culture et susceptible, par conséquent, d'usages et de contournements .Une position qu'elle illustre par ses propres travaux où elle sollicitaitles notions de féminité, de beauté et d'identité sexuelle pour montrer lesvariations de postures dont pouvaient se parer les femmes en politique( Gavillet, 2005). De tout ceci, Isabelle Gavillet confirme ce qu'elleesquissait en préambule à sa démonstration : le genre n'est pas unediscipline, il est un outil du constructivisme et du dispositif de sexualité (Foucault, 1976). Car, si les années 2000semblent marquées par une agitation autour du genre, elles sont aussimarquées par un autre débat : celui concernant cette posture théoriquequ'est le constructivisme. Enfin, estimant que la plupart des travaux sur legenre en sic sont empreints d'une subjectivitépropre à l'identité de sexe – notamment – du chercheur, elle s'autorise àafficher un point de vue personnel, expliquant qu'elle n'est pas partisanedu repli féministe et que, selon elle, réduire le genre au sexe signifierenaturaliser la femme et en faire une victime de son sexe biologique. Pource qui concerne la représentation sexuée des pratiques universitaires, elleassortit cette posture d'une préconisation : les femmes doivent assumer leursexe en faisant usage du genre par l'expression de la libre parole, s'ouvrirau débat et au conflit d'idées, pratiquer une recherche fondamentale ancréedans la théorie et la méthode, être acteur de la collégialité à l'Universitéplutôt que d'une égalité contrainte des sexes voulant que les critèresd'ascension ou de stagnation soient fondés sur une nature biologique. Si Virginie Julliard parle des femmes, elle ne se situe pas pour autant –loin s'en faut – dans le sillage d'une posture contestée par IsabelleGavillet et qui consisterait à voir en elle les victimes d'un systèmemasculin. La portée de son propos est triple : épistémologique dans unpremier temps, elle est conceptuelle ensuite, empirique enfin. Ainsicommence -t-elle par retracer les fondements et étapes des études sur lesfemmes en France, précisant que celles -ci « ont une histoire relativementlongue ». Par exemple, c'est dans les années 50 que la sociologie politiques'est intéressée « à la place des femmes en politique (Duverger, 1955) ou àla variable du sexe sur les comportements électoraux (Dogan, Narbonne ,1955) ». Or, si la question des femmes accède au statut d'objetscientifique, à partir des années 60, les chercheuses jouent elles -mêmes unrôle important dans la production des connaissances. Une donnée qui a poureffet d'accroître le nombre des travaux dont elles sont par ailleurs l'objetétudié. Le mouvement se prolonge dans les années 70, via une « histoire sexuée » témoignant de la volonté de « derendre visibles les femmes comme actrices de l'histoire, comme sujets derecherche [et] comme historiennes » (Virgili, 2002 : 5). De la sorte ,l'histoire des femmes devient indissociable d'une « triple démarche :militante, scientifique et institutionnelle » (ibid.). Plus précisément dans le champ historiographique, VirginieJulliard explique que cette « histoire des femmes » ou « histoire desgenres » ou « histoire sexuée » a pris deux directions : une « histoire auféminin » d'abord, une extension aux rapports de sexes ensuite. Désormais ,les travaux sont centrés sur « les questions des représentations, desrapports entre espaces publics et privés, du pouvoir et du genre ». Dans laplupart de ceux -ci, c'est de différence dont il est question, celle quidistingue les sexes, et des effets de celle -ci sur les rapports sociaux. Or ,pour Virginie Julliard, cet usage du genre est « une version appauvrie de laconceptualisation ambitieuse [de celui -ci] ‘ ‘ appréhendé comme un processussocial dont il s'agit d'analyser la construction et les évolutions dans uncontexte historique et social donné ' ' « (Jenson, Lépinard, 2009 : 198). Elleen appelle donc à une approche fondée sur un effort de conceptualisation, etmontre, exemples à l'appui, comment ce vœu heuristique peut se concrétiser .Si, dans le cadre de sa thèse (Julliard, 2008), elle s'est employée àdécrire et expliquer les représentations médiatiques des femmes enpolitique, elle s'est aussi et surtout attachée à montrer la complexité ducadre (énonciatif, social, matériel, symbolique. ..) dans lequel celles -ciémergent et se déploient, et les effets sur les discours. D'une étude desreprésentations qui montrerait les différences sexuées, on passe ici à uneanalyse – par exemple – des différentes manières de convoquer le genre commeargument politique. Sur un autre versant, elle montre qu'une interrogationsur la dimension genrée est devenue indispensable à la compréhension dephénomènes sociaux particuliers. Ce qui a pour conséquence de voir lesdisciplines se compléter, et articuler des préoccupations qui, en quelquesorte, déplacent ce qui pouvait faire leur spécificité, tant sur le plan dela problématisation que sur celui des objets et méthodes. L'originalité dessic tenant « à leur manière de construire leursobjets en articulant les problématiques interscientifiques », elles peuvent ,de ce fait, étendre à d'autres les acquis de leurs savoirs et connaissances ,le genre constituant une porte d'entrée privilégiée à ceci. Elle esquissedonc plusieurs pistes de recherche, retrouvant à cette occasion lestravaux – évoqués par Isabelle Gavillet – de Lucie Bargel, Éric Fassin etStéphane Latté (2007) : « Étudier l'implication du corps, et notamment de lavoix, dans les dispositifs de médiation du politique et les effets de cetteimplication sur la construction du genre enrichirait considérablement cetravail. Cette réflexion sur les liens entre régime discursif relatif augenre et dispositifs de communication ouvre d'importantes perspectives pourles travaux qui, dans le champ des sic, étudient ladimension symbolique des médiations en politique, d'une part, et laconfiguration du genre par les technologies de l'information et de lacommunication (tic), d'autre part ». Elle aussitraite de la question du pouvoir qui pourrait profiter d'une « articulationdes approches genrées et communicationnelles ». Finalement, mais sans ledire de façon aussi radicale qu'Isabelle Gavillet, c'est à une inscriptionen shs que Virginie Julliard en appelle, celle -cise manifestant tant dans les questions posées que dans les théories etméthodes convoquées. Si, dans la livraison précédente, priorité était donnée au développement depoints de vue disciplinaires différenciés, les chercheurs développent ici uneargumentation qui prend corps dans le champ des sic. Dureste, s'ils posent des questions à ce domaine, ils le font en montrantl'articulation entre problèmes de recherche et immersion dans des sphèresgéographiques et culturelles spécifiques. C'est en direction du Sénégal (RokhayaFall-Sokhna et Sylvie Thiéblemont-Dollet) et de l'Argentine (Silvia Delfino etFabricio Forastelli) qu'une ouverture s'opère : celle -ci permet à la fois derepérer des points de similitude avec la situation française – voireeuropéenne – que des éléments fortement distincts. En France comme ailleurs, legenre est porté par des universitaires ainsi que par des associations – conduitsà travailler de concert –, mais surtout il accompagne un mouvementd'émancipation non seulement vis-à-vis d'une domination qui s'exercerait sur lesgroupes nationaux en présence, mais aussi vis-à-vis des nations dont l'histoireest mêlés à celle du pays étudié. Ainsi est-il question de la relation entrepays du tiers-monde et pays riches, de celle entre colonisation etdécolonisation, de la mondialisation. Chacun de ces thèmes est appréhendé selonsa propension à imprégner des recherches dont on constate qu'elles sonttraversées par la question du pouvoir, de ses manifestations et de seseffets. Rokhaya Fall-Sokhna et Sylvie Thiéblemont-Dollet rappellent l'antériorité destravaux sur le genre et précisent que, dès 1946-1947, « les recherches deMadeleine Guilbert (1946a, 1946b, 1947) sur le travail des femmes [ont été ]publiées dans la Revue française du travail ». Maiselles signalent également que ces textes n'ont été redécouverts qu'en« 1999, dans la première livraison de la revue Travail ,genre et sociétés (1999), par un entretien que la sociologue aaccordé à Margaret Maruani et Chantal Rogerat ». Preuve s'il en est quel'histoire des sciences, que celles -ci soient humaines ou pas, est faite deces ruptures et/ou silences qui en font un fleuve pour le moins tumultueux .Pour les deux chercheuses, l'explication de cet « oubli » est à rechercherdans le contexte scientifique qui influe sur la production et la diffusionde cet objet, et où se manifeste « la volonté des pairs de refuserd'instituer comme objet d'étude ce qui devait rester cantonné à la sphèreprivée, à l'image des femmes, des personnes porteuses de maladiesinvalidantes ou de handicaps, d'enfants maltraités, de prisonniers malmenés ,de personnes âgées abandonnées, de travailleurs immigrés. .. ». D'où le choixqu'elles font d'inscrire le genre « dans la mouvance des études etquestionnements sur différentes formes d'exclusion et/ou sur desminorités ». L'angle est clair : pour elles, il s'agit d'historiser lesétudes sénégalaises sur le genre, par exemple en apportant tant desprécisions sur les groupes de chercheurs concernés (essentiellement desfemmes, et quand des hommes y travaillent, ils sont des membres actifsd'associations militant pour cette cause) que sur les dates significativesqui jalonnent ce domaine. C'est au milieu des années 70 que des chercheurscommencent à s'intéresser à ce sujet. D'ailleurs, en 1977, est créée à Dakarl'Association des femmes africaines pour la recherche sur le développement( Afard). Le genre y est pensé selon un point de vue africaniste ,c'est-à-dire en opposition au « colonialisme intellectuel occidental ». Lesméthodes et concepts sollicités se veulent spécifiques à l'Afrique, de mêmeque les chercheurs considèrent qu'il est important que seuls des Africainsles mettent en œuvre. Centrées sur les femmes, ces études accompagnent uncombat pour l'égalité des chances et des droits qui, quinze ans plus tard ,sera amplifié via des revendications précises quant àla parité, « dans la sphère privée, avec l'abolition de l'excision, dumariage précoce et/ou forcé, la scolarisation des petites filles et desadolescentes, la condamnation par la loi des violences et des châtimentsphysiques et psychologiques exercés sur les femmes. Et, dans la sphèrepublique, avec l'accès à la formation et à l'emploi pour le sexe féminin aumême titre que le sexe masculin ». Il faudra une décennie encore pour que ,dans le milieu universitaire, on passe des revendications à la pratique .C'est donc en 2004 que les questions de genre ont pris forme à l'universitéCheikh Anta Diop de Dakar : le laboratoire Genre de l'Institut fondamentald'Afrique noire est créé; il est dirigé par la sociologue Fatou Sarr, grâceà l'appui du Programme des Nations-Unies pour le développement (pnud) et du Centre de recherches pour ledéveloppement international (crdi). Si lacolonisation n'est plus le principal argument expliquant l'inégalité, lesétudes portent toujours principalement sur les femmes, ce en raison de lasituation précaire que beaucoup d'entre elles connaissent : « Le genre ,c'est lutter pour que le droit de la femme soit promu et se battre pour uneamélioration, une protection des droits des femmes : par exemple, la luttecontre le mariage précoce, contre les violences physiques, la lutte pour unelégislation plus équitable » (entretien d'Amsatou Sow Sidibé par lesauteures, 13/11/06). Économie, éducation, violence sont les trois pôlesdominants des recherches conduites en la matière qui articulent perspectivesscientifiques et revendications. Et si l'on regarde du côté des femmesimmigrées, s'ajoute à ces chantiers les problèmes posés par les rapportspolitiques et civiques de domination qui, certes, s'expriment dans ce cadreau vu des relations hommes/femmes mais englobent aussi des questions en lienavec la position que les uns et les autres, de façon mouvante, occupent dansun cadre social. Contrairement à Rokhaya Fall-Sokhna et Sylvie Thiéblemont-Dollet quiretraçaient l'histoire du genre au Sénégal en commençant dans les années 70 ,Silvia Delfino et Fabricio Forastelli, deux chercheurs argentins, remontentau XIXe siècle pour expliquer que, depuis cette période, « en AmériqueLatine et en Argentine [… ], les études de journalisme ont progressivementinclus des recherches qui ont permis de formaliser davantage le lien entremédias et communication dans le cadre des sciences sociales ». D'emblée ,leur regard se situe dans un cadre mondial. En effet, la création de l' Étatà la fin du XIXe siècle à laquelle s'ajoutent « les processus conflictuelset producteurs de la hiérarchisation des strates sociales » doit être miseen regard avec, depuis les années 50 et dans le cadre de la politique dedéveloppement, « l'utilisation des technologies de l'information et de lacommunication comme facteur du changement global ». Les auteurs ajoutent que« la critique de ce processus qui produit aussi bien une illusion d´égalitéque des inégalités concrètes, peut être lue en parallèle avec laconstitution des sciences sociales après la Seconde Guerre mondiale enAmérique Latine ». Envisager la situation en Amérique du Sud, plusspécialement en Argentine, conduit donc à replacer cette évolution dans lecadre d'une contre-culture émanant de pays en voie de développement ,« l'utilisation des technologies et de l'information et de la communication[ étant envisagée] comme alternative communautaire ». Ainsi celle -ci a -t-elle« alimenté des conceptions émancipatrices durant la décolonisation et lespropos révolutionnaires en Amérique Latine, en Asie et en Afrique ». Dansces pays, pouvoir, domination, contrôle, régulation sont porteurs d'un sensparticulier où se mêlent autoritarisme et idéologie de la terreur. Aussiconsidérer la place des tic dans un tel contexteconduit-il inévitablement à les aborder dans le rapport problématique etconflictuel qu'elles entretiennent aux projets de transformation collective .En effet, elles sont considérées par certains non comme un outild'émancipation mais comme un moyen au service de l'exclusion « de certainsgroupes que l'on accuse de ne pas être capables de s´intégrer auxtransformations éducatives ou techniques que requiert le marché dutravail ». Pourquoi un tel détour avant d'en venir aux études de genre ? Enfait, le caractère conflictuel des tic fait échoaux études centrées sur l'exclusion et de la marginalisation, que lesraisons de celles -ci soient « l' âge, du genre, de l´ethnie ou de lacondition sociale ». En outre, les mêmes arguments scientifiques seretrouvent d'un domaine à l'autre, la discrimination se révélant être partieintégrante des mécanismes institutionnels de répression utilisés sur lecontinent sud-américain. Par exemple, « l'institutionnalisation des étudessur la femme, sur le genre et sur le ‘ ‘ queer ' '( lesbiennes, gays, bisexuels et transsexuels) comporte des concepts proprestels que ‘ ‘ tiers-monde ' ', ‘ ‘ post-colonie ' ', ‘ ‘ études de subalternité ' ', quireprésentent la marque de [la] culture [sud-américaine] dans l'économieglobale ». Avec cette conséquence : « En Amérique latine, les recherches enmatière de communication et culture dans les études de journalisme et decommunication sociale ont permis des débats sur l'inégalité et lesdifférences culturelles en relation avec la critique des processus dedéveloppement et de la condition automatiquement inclusive de la démocratiedans le capitalisme global ». Si, par certains aspects, les caractères decet investissement scientifique sont marqués par des spécificitéspolitiques, par d'autres, on constate qu'ils sont en congruence avec lesinterrogations formulées ailleurs, en France notamment. Il en va ainsi pource qui a trait à la fonction sociale du genre. La question est celle -ci : legenre est-il avant tout un thème ou objet de recherche et d'enseignement oupeut-il aussi être considéré comme une perspective susceptible de« transformer les liens entre la production académique et les conditions devie des groupes et collectifs ? ». Ici, on retrouve les constats posés parles contributeurs des deux livraisons qui, tous, montrent que laproblématique du genre ne se départit jamais de l'engagement desuniversitaires et, plus largement, des acteurs sociaux. Pour autant, SilviaDelfino et Fabricio Forastelli ne séparent aucun des sujets relatifs augenre, plus particulièrement centré ici sur la notion de « queer », tant pour apprécier les représentationsmédiatiques pouvant être élaborées à leur endroit que les travaux desuniversitaires ou les actions conduites dans le cadre associatif. Pourquoi avoir posé la question du genre aux sic ? Pourune raison d'ordre contrastif avant tout : en France, le thème semble recueillirl'intérêt d'un nombre grandissant de chercheurs qui tranche avec l'antérioritéde celui -ci ailleurs, à savoir dans d'autres disciplines (notamment en histoireet en littérature), mais surtout dans d'autres traditions de recherche, les paysanglo-saxons étant pionniers en la matière. Or, si les effets de mode ne sontpas étrangers à ce mouvement, ils ne suffisent pas pour autant à expliquerqu'autour des années 2000, des thèses, des thèmes de dossiers, des études –individuelles et collectives – soient engagés dans ce domaine. En deuxlivraisons, les chercheurs ont donc tenté de comprendre le contexte social ausens large, universitaire et associatif, au sens plus étroit, qui sous-tendl'intérêt scientifique. Dans la première livraison de Questions de communication, la centration des études de genre sur lesfemmes n'était pas questionnée; elle semblait relever de l'évidence, comme sifemmes et genre entretenaient une relation de consubstantialité. Dans ladeuxième en revanche, c'est cette intrication même qui fait débat, le genreretrouvant la complexité heuristique qui fait son intérêt. Mais qu'il s'agissede centrer les études sur un objet particulier ou d'en élargir les présupposéset applications, tous les chercheurs partagent l'idée que formuler un problèmede recherche et le mettre en œuvre prend sens et corps dans un contexte fait deluttes particulières où la question des identités (sexuelles notamment), celledu et des pouvoir(s) – pas seulement entre les sexes – ou encore celle de lalégitimation de soi sont déterminantes .
La question au centre des « Échanges » de la précédente livraison de Questions de communication était celle du contraste entre une abondante littérature sur le genre et le relatif silence des sciences de l'information et de la communication en la matière. Discutant à nouveau les propositions de Marlène Coulomb-Gully (2009) qui envisageait la discipline dans un cadre plus large que celui du seul plan académique, quatre chercheurs traitent de deux aspects principaux: l'articulation entre genre et épistémè, plus spécifiquement en France pour Virginie Julliard, en France et ailleurs pour Isabelle Gavillet ; l'élargissement du débat à d'autres sphères culturelles: le Sénégal (Rokhaya Fall-Sokhna et Sylvie Thiéblemont-Dollet) et l'Argentine (Silvia Delfino et Fabricio Forastelli), De cet ensemble ressort l'idée que penser le genre ne saurait se cantonner à des thèmes étroits (les femmes par exemple) et des territoires par trop circonscrits.
sciencesInfo_11-0031649_tei_1061.xml
termith-381-communication
La littérature spécialisée et les projets en cours concernant l'archivage de documents numériques s'accordent actuellement sur les grandes phases de mise en œuvre de ce processus 1. On peut brièvement les résumer comme suit. En amont, il s'agit de documenter les applications produisant ces documents, de constituer et/ou de récupérer des métadonnées contextuelles, tant en ce qui concerne les systèmes de gestion que les producteurs des données. En aval, le consensus converge vers une conservation des données la plus indépendante possible des logiciels, dans des formats normalisés, et avec une gestion documentaire de leurs métadonnées. Ces principes s'appliquent à tous les documents numériques, quel que soit leur type. Par contre le processus de collecte et de préparation dans de tels système de gestion (en anglais : ingest), tel que le décrit le modèle OAIS 2, nécessite l'établissement de procédures particulières, adaptées à chaque type de document. Cette contribution explore la possibilité d'établir une typologie qui permette la construction ultérieure de telles procédures. La plupart des typologies de documents existantes se basent sur l'activité qui en assure la production. A titre d'exemple, on peut citer l'ouvrage relativement récent de Louise Gagnon-Arguin, qui présente une liste de documents en fonction de leur domaine d'activité 3. Plus récemment, elle a développé le concept de « cybergenre » de document, pour tenter d'adapter cette typologie à la nouveauté des documents numériques 4. Cette tentative intéressante, dans la mesure où elle essaie de développer une typologie générique, indépendante de l'origine de production du document, se révèle néanmoins dans son état actuel sans utilité pratique pour le traitement des documents numériques existants (et à venir). Une autre tentative d'établir une typologie des documents numériques a eu lieu dans le cadre des travaux du projet InterPares, en particulier de sa Task Force sur l'authenticité des documents électroniques. Cette dernière a cependant récemment livré un constat d'échec sous la plume de Heather McNeil qui constatait en mai 2002 : « Notre échec pour développer une typologie des documents électroniques suggère certaines limites de la diplomatique contemporaine comme outil d'analyse. Bien que nous ayons essayé de l'adapter aux réalités de la conservation du document contemporain, la diplomatique reste enracinée dans une conception très traditionnelle de ce qu'est un document et est donc limitée dans sa capacité d'étendre la palette de compréhension de la nature des différentes sortes de systèmes électroniques et de la variété des entités contenues dans ceux -ci. Si elle est tout à fait efficace dans l'analyse de systèmes électroniques contenant des objets numériques qui se comportent comme des documents traditionnels, c'est-à-dire, des systèmes dans lesquels les objets numériques sont stables et circonscrits, elle est considérablement moins utile dans l'analyse de systèmes électroniques contenant des objets numériques qui se comportent différemment, c'est-à-dire, des systèmes dans lesquels les entités numériques sont fluides et moins faciles à circonscrire. » On peut penser qu'au regard de l'objectif de pérennisation, il est précisément indispensable de pouvoir, à un moment donné, circonscrire les documents auxquels on s'intéresse et considérer que c'est cet état « instantané », cette « photographie » que nous voulons préserver. Cependant, on peut douter que cela soit entièrement réalisable (voir Boydens, 1999). Heather McNeil en esquisse plus loin une cause possible en disant : « Les études de cas de systèmes électroniques suggèrent que nous vivions dans une ère qui est analogue à l'ère des manuscrits médiévaux, où la variation documentaire était la norme plutôt que l'exception 5. » On peut supposer une autre raison de cet échec, qui est le choix de se placer principalement du point de vue de l'authenticité, ce qui introduit une contrainte forte; alors que les documents, anciens ou contemporains, ne sont de loin pas tous conçus et/ou utilisés en fonction d'une authenticité, ou d'une validation quelconque. Pour qu'une typologie soit utilisable de manière efficace, elle doit répondre, à mes yeux, aux caractéristiques suivantes : simplicité, cohérence, nombre limité de catégories et de types. La simplicité d'une typologie réside dans le fait que les catégories qui la composent doivent être facilement identifiables par un utilisateur non spécialiste. Les définitions doivent être univoques et permettre l'attribution d'un document à un type sans difficulté de réflexion majeure. La cohérence d'une typologie se manifeste par le fait qu'elle couvre le champ choisi de manière exhaustive et qu'elle est suffisamment générique pour permettre de catégoriser de nouveaux items sans difficultés (on pourrait parler ici de robustesse du modèle conceptuel). Le nombre limité de catégories est une condition de la convivialité du système. Si une typologie est trop volumineuse elle n'est pas maîtrisable dans le cadre d'un travail quotidien. Cela implique en général une structuration en classe et en sous-classes de manière à ce qu'un nombre limité de critères détermine de manière simple et évidente l'appartenance à une sous-classe. Empiriquement, un niveau devrait idéalement se subdiviser en environ cinq niveaux de rang inférieur (au maximum dix). Contrairement à une typologie de documents classiques, qui s'attache en général à décrire les documents en fonction de leur utilisation administrative ou fonctionnelle, la typologie examinée prend prioritairement en compte les caractéristiques techniques des documents numériques. La grille de description utilisée s'inspire des travaux récents du groupe Pédauque, qui s'est attaché à construire une nouvelle définition du document pour tenir compte de la dématérialisation de celui -ci dans l'environnement informatique actuel 6. Ce travail commun propose plusieurs équations tentant de définir les composantes du document analogique et/ou numérique. Je résume personnellement ces équations par la formule suivante : Document = données + forme(s) + support + sens <-> contexte (métadonnées) dans laquelle les formes se décomposent dans les catégories subséquentes suivantes : forme de codage (alphabet, Unicode, pixel, etc.), forme physique (modalité d'inscription sur un support quelconque), forme de structure (organisation interne du document), forme de validation (signature, sceau, filigrane, etc.). La particularité du document numérique par rapport au document analogique réside dans le fait que dans un document analogique ces différents éléments sont en général intrinsèquement reliés entre eux par l'intermédiaire du support (la forme physique), alors qu'ils sont le plus souvent disjoints dans un document numérique. Dans la mesure où l'hypothèse de la conservation à long terme des documents numériques implique la migration périodique des données, rendue à la fois possible mais également nécessaire, entre autres par cette dissociation d'avec le support, on peut admettre que la forme physique n'est pas une donnée typologique déterminante. Par conséquent, on examinera les caractéristiques suivantes : le type de données, les types de formes (de codage, de structure, de validation), et le type de métadonnées. Si le modèle est cohérent, une variation d'une de ces caractéristiques définira un type de manière univoque. A contrario, une caractéristique trop commune deviendrait non discriminante et par là sans intérêt pour une typologie. Seules les banques de données, définies comme des collections de données factuelles validées, répondent à cette catégorisation. En effet, la plupart des bases de données permettent la saisie de champs en texte libre qui sont par ce fait non strictement structurés et appartiennent à la catégorie b. Par ailleurs, les documents définis comme des « transactions » tels que ceux décrits par la norme EDIFACT 7 sont également strictement structurés; cependant, toutes les transactions ne sont pas aussi strictement définies et peuvent donc également appartenir au type ci-dessous. A cette catégorie appartiennent les bases de données au sens habituel. Il faut remarquer dans ce contexte qu'une base de données (ainsi que les banques de données définies ci-dessus) n'a une forme de document que par la production « d'état ». Cette remarque est également valable en ce qui concerne les tableurs, dans la mesure où ils sont la plupart du temps utilisés en tant que mini-bases de données dont on extrait des états périodiques (journalier, mensuel, annuel). Il s'agit de ce que les informaticiens définissent habituellement sous le nom de données documentaires (documentary data) en leur attachant la qualification de « non structuré ». Cependant, cette non-structuration fait référence à une structure « explicite » telle qu'elle se rencontre dans les bases de données (définition univoque du triplet : entité, attribut, valeur) 8 alors que la plupart des documents ont une structuration « implicite » exprimée le plus souvent par la position des données dans le document. Se pose alors la question de la progressivité de la structuration. Les documents de cette catégorie sont « plus ou moins » structurés, sans que l'on puisse établir de limites claires entre les différents niveaux de structuration. Dans un environnement électronique, cette structure « souple » fait problème. L'émergence et le succès rapide des langages de balisage (la famille *ML) semblent apporter une solution partielle à ce problème, dans la mesure où le balisage d'un document en XML, permettrait potentiellement de « réduire » les données balisées pertinentes à une base de données. Cette classification ne porte que sur des documents de type alphanumérique et fait l'impasse sur les documents sonores ou audiovisuels, qui pourraient éventuellement être déversés dans le grand fourre-tout des données faiblement structurées. Cependant, cet écueil pourrait nous fournir une piste vers une classification d'un ordre supérieur. En effet, tant les banques ou bases de données que les documents textuels faiblement structurés sont potentiellement structurables par un langage de balisage (un *ml). Les documents purement graphiques également par le GML (Geometric Markup Language). Par contre, les documents sonores et audiovisuels ne rentrent pas (ou pas encore) dans un cadre de balisage, entre autres parce qu'ils doivent intégrer une dimension temporelle. On retrouve cette même difficulté dans les formes de codage (voir ci-dessous section 3.2). Un balisage approprié des documents semble permettre la production plus ou moins automatique des métadonnées intrinsèques (voir ci-dessous section 3.5) avec pour conséquence la possibilité d'une automatisation des traitements ultérieurs. Ce serait par exemple le fait que tout document XML intègre dans sa définition de type de document (DTD) les rubriques descriptives du Dublin Core 9. On a traditionnellement différencié les codages en fonction de types de documents préexistants à leur transcription sous forme numérique. Le caractère codant le mot prononcé, les couleurs fondamentales codant l'image perçue, la note codant une partie du spectre sonore, etc. Empiriquement, on peut retenir les codages suivants 10 : codage numérique 11, codage alphanumérique, codage graphique (pixel ou vecteur + compression), codage sonore (notes/timbres + échantillonnage/compression), codage audiovisuel (mélange de code graphique et sonore). Ces types de codage renvoient la plupart du temps à ce qu'il est convenu d'appeler des formats. Cependant, la figure ci-dessous montre que cette typologie n'est pas uniforme ni univoque puisque certaines zones se recouvrent et que, d'autre part, l'évolution technologique tend à les faire se transformer les unes vers les autres. Ceci semble même être une caractéristique intrinsèque du codage, qui est sa capacité d' être « traduit » dans un autre code, en tout cas sous sa forme numérique. Cette typologie semble recouvrir la typologie des données exposée à la section 3.1 ci-dessus. En fait, elle doit en préciser les contours. Les structures des banques et des bases de données ne nécessitent pas de différenciation supplémentaire, si ce n'est celle de l'historicisation des données ou non. On peut alors différencier les bases ou banques de données historicisées (chaque valeur ayant un attribut temporel), non historicisées, ou mixtes (bases contenant à la fois des données historicisées et d'autres non) 12. Par contre, les données faiblement structurées semblent être modulées par leur forme de codage. Dans ce sens on peut distinguer : les textes, les images, les sons, les documents audiovisuels. Cette dernière catégorie devrait normalement appartenir à la catégorie des documents composites tels que définis à la section 4 ci-dessous, cependant le lien entre les sons et les images ayant été établi préalablement dans des documents analogiques préexistants (film, vidéo), leur transcription numérique a fait l'objet d'un développement spécifique, qui justifie (provisoirement pour le moment) un traitement ad hoc. La validation de l'identité implique que les acteurs (physiques ou moraux) soient corrélés avec le document de manière univoque (par exemple une signature) 13. La validation de la propriété implique, en plus de la validation d'identité une validation empêchant un usage non approprié du document. Il peut s'agir d'un filigrane identifiant l'origine du document (droit d'auteur), mais également d'un niveau de confidentialité (droit d'accès). La validation de l'intégrité implique la mise en œuvre de systèmes empêchant la modification du document. C'est une condition nécessaire pour que les autres formes de validation puissent s'exercer. L'authenticité n'est pas une forme de validation en tant que telle dans la mesure où elle résulte de la combinaison des autres formes décrites ci-dessus (identité + intégrité, éventuellement + propriété). De même, la véracit é ne peut être validée au niveau du document lui -même (il existe des faux authentiques), c'est un critère qui doit être défini en amont et qui est en général lié à une fonction personnalisée (c'est la présence du notaire qui valide l'acte notarié, c'est la revue par les pairs qui confère l'autorité à un article scientifique). Du point de vue de l'archivage, le type de validation est indifférent. La variable significative est l'existence ou non de la nécessité d'une validation. Cette nécessité est indépendante de la forme électronique du document. La forme électronique peut assez facilement assurer la validation de l'identité; elle peut répondre à la validation de propriété à travers les métadonnées; la validation de l'intégrité demande, par contre, des systèmes de garantie de non modification que l'électronique rend difficiles (mais pas impossible) à mettre en œuvre. Il faut cependant remarquer à cet égard, que ce n'est pas tant le support qui est une garantie d'authenticité mais plutôt les systèmes de tiers de confiance qui les entourent (les notaires, les banques, les postes, et, pourquoi pas, les archivistes ?) 14. De manière générale, les métadonnées intrinsèques se rapportent à des informations factuelles qui permettent de différencier un document d'un autre document (numéro, version, auteur, date, format, etc.). La plupart du temps (mais malheureusement pas toujours) elles sont intégrées au document lui -même à sa création. Les métadonnées extrinsèques sont celles qui décrivent les contenus conceptuels du document, ou leurs liens avec des modèles de description pré-établis (dictionnaires, ontologies, etc.) afin d'en documenter le contexte. Dans la plupart des cas, il s'agit d'une indexation ou d'une classification qui demande l'intervention d'un opérateur humain et peut donc difficilement être automatisable. Ce type de métadonnées n'est pas décrit dans la littérature actuelle. Il m'apparaît cependant nécessaire de le développer, car c'est justement ce qui devrait permettre de caractériser le niveau de structuration d'un document « souplement structuré » (voir 3.1.c ci-dessus). Il est entendu que cette typologie de niveaux n'existe pas à ce jour. Potentiellement, une DTD d'XML permet de définir une structure propre à un type de document mais sa versatilité constitue en soi un obstacle à une typologie, puisqu'on peut définir une DTD par document. Tous les documents possèdent un minimum de métadonnées intrinsèques, autrement ils ne seraient ni identifiables ni même différentiables. On peut par contre se poser la question de la fonction discriminante de l'existence de métadonnées extrinsèques. La problématique est complexe dans la mesure où l'on a établi à ce jour de nombreux jeux de métadonnées en fonction d'objectifs particuliers. On a ainsi des métadonnées pour la gestion des droits d'auteurs, pour la gestion de la conservation, pour la gestion de la communication, etc. 15 Cette situation tendrait à démontrer que les métadonnées sont nécessaires pour permettre la conservation des documents électroniques mais que leurs caractéristiques ne sont pas un élément discriminant pour une typologie des documents 16. Par hypothèse, les documents composites sont constitués d'éléments définis dans les types simples. Ils seraient donc théoriquement archivables si leurs composantes le sont également. Ils répondent à la définition de « digital object » telle qu'elle est définie par la norme OAIS 17. Cependant ils exigent la plupart du temps la maîtrise supplémentaire d'un autre niveau qui est celui du lien entre leurs différentes composantes. Pour des types de même nature (pièces jointes textuelles d'un courriel, par exemple), ces liens peuvent être gérés par des métadonnées extrinsèques telles que décrites plus haut, ce sont les context information définies par OAIS 18. Par contre les documents composites regroupant des documents de types différents posent d'autres problèmes. Ils sont brièvement résumés ci-dessous, et ils restent à explorer plus avant. Ces systèmes associent une ou des banques de données à des représentations spatiales en couches superposées. Pour la navigation à différentes échelles, ces représentations devraient idéalement être sous forme vectorielle, mais par héritage historique elles sont souvent aussi en mode bit-map. En général, les banques de données sous-jacentes sont historicisées (c'est-à-dire que chaque valeur à un début et une fin) mais par contre les représentations spatiales ne supportent pas forcément une datation. Dans les cas où la chronologie est maîtrisée sur un plan spatial, elle n'est par forcément strictement corrélée avec les changements temporels de la banque de données associée, ni avec les différentes couches spatiales du système. La plupart des documents joints à des courriels sont des documents de suite bureautique qui peuvent être gérés en tant que documents séparés avec une gestion de leurs métadonnées pour les associer aux courriers. Cependant ces courriers peuvent n' être qu'une « enveloppe de métadonnées » ne contenant que des pièces jointes, n'ayant pas forcément un lien logique ou organique entre elles. Par ailleurs, dans le cas où le type de document attaché n'est pas maîtrisable par un système d'archivage, il faut alors mettre en place une procédure qui documente la non-prise en compte de ces documents. Pour l'essentiel, un workflow associe des documents avec une suite de transactions. Chacun de ces deux types peut évoluer parallèlement dans le temps. Une transaction peut ne pas impliquer la modification interne d'un document transmis, elle consiste alors à modifier les métadonnées extrinsèques liées à ce document. La modification d'un document implique pour sa part la plupart du temps la maîtrise de ses versions. Dans un tel système, la création d'un document est une transaction. Dans le contexte de la conservation, il n'y a pas lieu de différencier un site internet d'un site intranet sur le plan technologique car ils sont élaborés sur les mêmes bases logicielles. Leur différence repose par contre sur leur finalité de production et leurs métadonnées. En effet, les sites internet présentent une modalité qui ressort en général de l'édition, et leur conservation rentre alors dans une logique de dépôt légal. Par contre les sites intranet associent le plus souvent à la fois un aspect éditorial (journal d'entreprise), un aspect réglementaire (directives et procédures internes), et un aspect informatif (documents divers publiés par les services). Par ailleurs, l'apparition des web-services, tend à transformer les sites web en support de workflows internes ou externes. Au départ, ce terme recouvrait l'idée d'un « paquet » dans lequel des médias différents étaient physiquement rassemblés autour d'un thématique de sens/contenu commune (livre et disque, diapositives et bande sonore, etc.) et le terme était parfaitement approprié. L'apparition du codage numérique universel (l'alphabit, qui veut qu'un même octet puisse représenter un nombre, une lettre, une note, un pixel, ou une valeur logique) et d'un support normalisé (le cédérom) a permis de fusionner ces mêmes contenus sur un seul support, un « Unimédia », mais l'ancienne dénomination, installée dans l'usage, y est restée attachée. Actuellement on appelle multimédia plutôt des documents qui incorporent dans une même entité (mais à des degrés « d'encapsulation » divers) plusieurs types de codage différents, dans ce sens, quasi tous les types de documents composites cités ci-dessus sont des multimédias. L'examen des différentes catégorisations présentées montre que le découpage proposé ne permet pas la constitution d'une typologie répondant aux critères fixés à la section 2.2. Cela tient à la polysémie sous-jacente des termes données 19 et documents, qui proviennent chacun d'un monde de production informationnel différent : les bases de données pour les données et les textes papier pour les documents. A cela s'ajoute une troisième modalité qui traverse les deux premières, qui est celle de la transaction, soit l'action réciproque entre plusieurs intervenants. Or dans une base de données, la modification d'une donnée est considérée comme une transaction, le plus souvent homme-machine, bien qu'elle sous-tende une relation machine-homme ultérieure; tandis qu'un document analogique est considéré comme la preuve d'une transaction, qui a lieu per se en dehors du document. C'est d'ailleurs l'origine de la définition actuelle du document comme preuve par écrit. Il existe néanmoins des transactions non documentées, qui peuvent être prouvées par témoin mais même pas forcément (l'échange d'un paiement contre un objet, qui est une transaction commune, ne fait pas a priori l'objet d'un document, par exemple). Cette dernière définition du document renvoie à une autre difficulté sémantique, dans le sens où parler de documents sonores ou audiovisuels est un abus de langage. La définition primitive 20 (et mentalement sous-jacente pour beaucoup d'entre nous) du document renvoyant à sa nature textuelle. Les enregistrements sonores ne sont à la base que des évidences, ce n'est que leur contexte (qui est aussi un « hors-texte ») qui leur confère une valeur de preuve (comme les enregistrements du Watergate, par exemple). Les données enregistrées d'une image ou d'un son renvoient à un percept, tandis que les données d'une base ou d'un texte renvoient à un concept. Bien entendu, la séparation n'est pas aussi évidente et simple, puisque la donnée de couleur RGB de valeur 0/0/215 renvoie aussi au concept de couleur bleue, et que le mot « liberté » renvoie à des réalités qui peuvent être très différentes. Une piste de réflexion intéressante pour mieux catégoriser un « hyper-type » de document est proposée dans des travaux initiés par le Conseil du trésor canadien sur les composantes du document électronique 21 qui, dans le but de mieux systématiser les métadonnées utiles et comparables, distingue, entre autres : les documents de référence, incluant : les documents de transaction, les messages. Pour obvier à la difficulté de catégorisation, surtout si l'on ne considère que l'aspect pragmatique de la question, la tentation est grande de traiter les documents uniquement sous l'aspect de leur format, au sens informatique du terme. C'est l'option choisie par certains records managers américains 22. On peut également s'interroger sur la pérennité des formats, puisque l'objectif de notre analyse est « l'archivabilité » à long terme des documents numériques. Le caractère plus ou moins pérenne de tel ou tel format permettant éventuellement de dégager une nouvelle typologie; tentative qui me semble plus simple que celle suivie par InterPares pour l'authenticité mais néanmoins pas sans écueil, dans la mesure où un format considéré comme pérenne actuellement ne le sera peut-être plus dans dix ou vingt ans 23. Dans cette direction, on peut citer le projet PRONOM du Public Records Office anglais, qui est un compendium des formats existants et ayant existé, qui devrait être complet d'ici fin 2005. Il s'agit d'un répertoire qui indique pour chaque format sa provenance et ses principales caractéristiques techniques et surtout quels sont les formats antérieurs qu'il peut traiter et quels sont les formats ultérieurs qui le traitent. Ces informations sont principalement collectées dans le but d'assurer une migration des données à temps et dans de bonnes conditions, en fonction de l'obsolescence des formats 24. Une autre étude anglaise tente une typologie basée sur les formats en essayant de les regrouper en fonction de caractéristiques communes, liée aux types d'applications informatiques qui les utilisent. Cependant, l'objectif de cette étude étant l'analyse des coûts de conservation, ce dernier critère engendre un certain biais 25. Les différents niveaux de recouvrement sémantique liés aux documents et aux données pourraient laisser supposer qu'une typologie de documents n'a plus de sens dans un monde hypertextuel. Le découpage en « documents » étant juste une phase dans un enchaînement de transactions et/ou de traitements successifs 26. De ce point de vue, pour l'activité courante, seule l'information compte (en tant que données + forme), l'existence documentaire ne semblant nécessaire que pour la preuve. Cela rejoint curieusement le concept de respect des fonds, cher aux archivistes, qui a, entre autres, pour conséquence que le document unique n'a pas (ou peu) de valeur par lui -même mais seulement par son intégration organique dans un ensemble plus vaste. Ce qui amène par exemple à cette question paradoxale et non résolue : une base de données est-elle un fonds d'archives 27 ? L'appellation document numérique, demande donc un approfondissement sémantique. En l'état, elle renvoie à trop de niveaux d'interprétation pour qu'elle puisse être correctement analysée. C'est par ailleurs également la conclusion des animateurs du groupe Pédauque qui, suite à la publication et aux réactions suscitées par leur document de synthèse 28, ont décidé de continuer à approfondir la définition du document numérique 29. L'auteur ayant la ferme intention de participer à ce nouveau débat, il espère que les clarifications qu'il apportera permettront de proposer à terme une structuration plus consistante à cette typologie .
L'auteur s'attache à développer les prérequis d'une typologie des documents numériques à partir de ses composantes : données, forme de codage, structure, forme de validation et métadonnées. Cette typologie ne se veut pas académique mais pratique, en vue du processus d'ingestion de ces documents dans des systèmes d'archivage électroniques tels qu'ils sont définis par la norme ISO 14721:2003 - Open Archival Information System (OAIS). Après une analyse des différentes typologies existantes on définit les critères qualitatifs pour une typologie praticable. Chacune des composantes du document fait l'objet d'une typologie propre qui est examinée pour sa pertinence discriminatoire. En conclusion, il apparaît que les notions de données et de documents ne sont actuellement pas assez précises pour permettre une typologie univoque.
sciencesInfo_05-0035869_tei_DN_082_0101.tei.xml
termith-382-communication
Dans le sillage et à l'instar du « medium is message »macluhanien, il est des formules en forme d'aphorisme dont la potérité et le succèsfinissent par brouiller la signification. « L'intelligence collective » qui, del'école de Toronto aux cercles médiologiques, a contaminé sans coup férir lessphères des décideurs, politiques et journalistes, emprunte cette voie. C'est ainsique le rapport de Pierre Lévy au Conseil de l'Europe sur la cyberculture enjoignaiten 1997 « d'interconnecter tous les bipèdes parlants et de les faire participer àl'intelligence collective de l'espèce au sein d'un milieu ubiquitaire ». Récemment ,la candidate socialiste aux élections présidentielles de 2007 en France, SégolèneRoyal, invoquait de façon incantatoire « l'intelligence collective » des militants sur fond de « démocratieparticipative » pour mieux mettre en scène l'agora citoyenne des « forumsparticipatifs » et fonder en légitimité les blogs de la campagne électorale. Formule se présentant tout à la fois comme descriptive et explicative de l'enversréseautique, accessible à la compréhension et paraissant toutefois relever d'unésotérisme savant, l'intelligence collective relève d'une pathologie de lacommunication dont les effets ont été peu explorés. Georges Canguilhem (1966 : 166 )donne du terme « pathologique » une définition médicale qui embrasse tout ce quirelève des « infractions à la norme » à travers le symptôme. Comme « indice de ce àquoi il renvoie » dit Jacques Derrida (1993 : 136-137), le symptôme se présentecomme une « extériorité ». Il permet de déceler par des signes objectifs la réalitéd'un état caché, latent. Il est la face visible d'une réalité invisible à lapremière lecture. La pathologie qui nous intéresse doit être entendue non pas commel'envers d'une communication supposée « saine », mais plutôt comme le jeu permanententre visibilité et invisibilité du symptôme affectant un corps social travaillé enprofondeur par les idéologies de la communication. Les discours d'accompagnement dela société de l'information constituent le terrain d'analyse de messages dontl'efficacité et la capacité à évoluer dans le même invitent à un repérage serré. L'intelligence collective dont Pierre Lévy a été un des initiateurs et qui a faitflorès à partir de 1993, alors que le grand public découvre l'internet ,s'inspire en ligne directe de la mystique développée par le paléontologue etthéologien jésuite Pierre Teilhard de Chardin et se déploie sur un fondmythologique mobilisateur. Ce qu'il est convenu d'appeler le teilhardisme estégalement devenu une galaxie qui emprunte tant au registre scientifique quespirituel et à laquelle Marshall McLuhan s'est très tôt référée. Philippe Quéau( 2000) n'est pas en reste, lui qui a emprunté le concept de « noosphère » définicomme une société idéale personnalisée « en cours de planétisation ». La« noosphère » ou « sphère pensante » est un réseau vital « cérébralisé » etsystème nerveux se présentant comme une membrane, véritable enveloppespirituelle de la terre et dérivée de la biosphère. Pierre Lévy (2000 : 21 )s'alimente à cette source pour y puiser les mêmes néologismes, et décrire uncyberespace se donnant à voir comme point culminant de la « noosphère » dont la« montée » irrésistible rapproche de l'unification de l'humanité .L' « intelligence collective » qui résulterait de l'interconnexion des cerveauxet des ordinateurs à l'échelle planétaire se fonde sur l'analogie entre lefonctionnement du cerveau, la structure du réseau de télécommunications et lareprésentation du corps humain comme un réseau sanguin et nerveux. Joël deRosnay (1995) s'est fait également et sans originalité le relais efficace de cetype de conceptions mystiques du phénomène internet (Forest, 2008). Plusrécemment, Yann Moulier Boutang (2007a : 53) a emboîté le pas de cesauteurs : « Nous sommes bel et bien entrés dans un monde où lareproduction des biens complexes (biosphère, noosphère, c'est-à-dire ladiversité culturelle, l'économie de l'esprit) et la production de connaissancesnouvelles et d'innovation, comme du vivant, requièrent une réorientation del'investissement vers le capital intellectuel (éducation, formation) et beaucoupde travail qualifié mis en œuvre collectivement à travers les nouvellestechnologies de l'information et des télécommunications ». La congruence et la porosité des frontières entre des courants d'analyse de lasociété de l'information qui se nourrissent des mêmes emprunts se révèlentfrappantes. La figure hypostasiée du nouvel Adam numérique ayant fait corps avecle réseau considéré comme une prothèse du corps et une extension du systèmenerveux est un des clichés empruntés au fonds macluhanien : « Les machinesinteractives et cybernétiques deviennent comme autant de nouvelles prothèsesintégrées à nos corps et à nos esprits […] L'anthropologie du cyberespace estréellement une reconnaissance de la nouvelle condition humaine » (Hardt, Negri ,2000 : 356). Dans ce contexte, il n'est guère surprenant d'apprendre sous la plume de YannMoulier Boutang (2007a : 108), épigone de Michael Hardt et Antonio Negri, que le« disque dur cérébral » (sic) peut désormais être« reprogrammé » ou « défragmenté ». Par ailleurs, l'antienne de la révolutiontechnique, ce « personnage conceptuel » se promenant sur le mode de la ruptureannoncée au gré des discours techno-prophétiques, se signale par sonomniprésence et fonctionne en double commande avec la révolution sociale : « Unenouvelle révolution plus importante que celle du néolithique » car « pour lapremière fois, [l ' homo sapiens sapiens] est élevé ensociété avec un cerveau outillé et prolongé par des ordinateurs en réseaux »( Moulier Boutang, 2007a : 39, 55). Et ce « changement de paradigme total [est ]comparable seulement à la dilatation du monde que l'on a observé entre 1492 et1660 (ibid. : 74). La fascination technologique primitive qui associe à une technique considérée defaçon univoque tel modèle social est à son comble. Il n'est pas davantageétonnant, dans le droit-fil du déterminisme technique constamment pointé chezMarshall McLuhan et ses héritiers, d'apprendre que l'interaction du plus grandnombre sur l'internet produit un « effet bibliothèque » dérivé de l'effet réseau( Moulier Boutang, 2007a : 46). Il y a plus d'une quinzaine d'années, lesdiscours d'accompagnement de l'internet ont consacré le retour des conceptionsde Marshall McLuhan sur le mode de la réactualisation et du recyclage en dépitdu « déni de filiation » entretenu par ses épigones (Durand, 1998 : 85) .L'intelligence collective participe à part entière de cette entreprise en formede « collège invisible » (Winkin, 1981), qui unirait les derniers représentantsde l'école de Toronto comme Pierre Lévy et Derrick de Kerchove, la médiologiesous l'égide de Régis Debray ou les théoriciens du capitalisme cognitif. « Doit-on concevoir des communautés virtuelles sur le modèle de la ville ? »s'interroge Pierre Lévy (1998 : 226). Interrogation qui porte sa propre réponseet se donne comme naturelle tant l'image de la ville semble indéracinable del'imaginaire utopique qui se met en ordre et en cohérence autour de la figureéthérée d'une Jérusalem numérique donnée à voir sur le mode du désir. LewisMumford (1973 : 241) avait remarqué que les utopies depuis celle de Platon ontété très largement « visualisées » à travers l'image de la Cité. De fait, lesdiscours techno - prophétiques s'appuient dans leur grande majorité surl'hypothèse d'un redoublement de la cité classique. Si l'image de la ville y estdéclinée sur plusieurs modes, celle -ci reste prégnante, étroitement chevillée àl'imaginaire visionnaire. Ainsi, chez Pierre Lévy (1997 : 77; 81), « lecollectif intelligent est une nouvelle figure de la cité démocratique » ouencore « intelligente ». La ville demeure le référent que la communauté deshommes viendra habiter et un point de fixation de leur organisation sociale .Tantôt méta-ville qui agglomère virtuellement chez Pierre Lévy (2000 : 23), car« toutes les grandes villes de la planète sont comme les quartiers différentsd'une seule mégapole virtuelle »; tantôt réseau de « villages planétaires »succédant au « village global » macluhanien, cet espace réel, unifié et uniqueque Derrick de Kerckhove (2000) estime révolu. Le rêve de Philippe Quéau (2000 :233), l'ingénieur fabricant d'images virtuelles, est celui d'une « cité universelle ». La descriptionde la Cité idéale sous sa plume lui confère plusieurs attributs et la présentetour à tour sous les traits d'une « Cité catalytique », carrefour fournissantles moyens de la mise en connexion, « Cité coopérative » mettant en placeun « environnement d'apprentissage global » et « Cité connectée » au terme de lacréation d'une bibliothèque publique mondiale alimentée par les revenus sur ledépôt des brevets. Ces résidus utopiques participent, pour emprunter le mot de Jean Servier (1991) àpropos de l'utopie, d'un véritable « fourre-tout » dans lequel l'intelligencecollective est invoquée aussi bien par Pierre Lévy, zélateur de la« planétisation » des marchés qui pose l'intelligence collective comme « utopietechnopolitique », que par les tenants du « capitalisme cognitif » dans ledessein de renouveler l'analyse marxiste des rapports de production à l'aune dela dématérialisation. Parmi les entreprises de théorisation à visée opératoire qui ont accompagnédepuis la seconde partie de la décennie 90 le mouvement social, une attentionparticulière doit être accordée au « capitalisme cognitif » qui « ré-agence ,réorganise et modifie les centres nerveux de la production matérielle » (MoulierBoutang, 2007a : 74). La théorie du capitalisme dit « cognitif », qui trouve sonorigine dans le livre Empire de Michael Hardt et AntonioNegri, a rencontré une très grande audience, notamment dans les milieuxaltermondialistes et dans les cénacles de la gauche radicale et critique. Elleentend proposer un dérivé marxiste analysant les transformations du travail etdes luttes à l'heure de l'économie informationnelle et des réseaux techniquessous hégémonie américaine. C'est ainsi que ces deux auteurs ont avancé unprogramme « post-socialiste » (sic) fondé sur unerupture « matériel, conceptuelle, une coupure ontologique avec les traditionsidéologiques des mouvements ouvriers » afin de prendre en compte « les nouvellesréalités anthropologiques, la singularité des nouveaux agents de la productionet des nouveaux sujets de l'exploitation » (Hardt, Negri, 2000 : 258). C'estdans cet environnement que s'inscrit Le capitalismecognitif de Yann Moulier Boutang, court ouvrage de synthèse théoriquedont la prétention mérite une attention particulière. Tandis que le titre associe des termes qui auraient eu toutes les raisons derester étrangers l'un à l'autre, le sous-titre tente de le développer. « Lanouvelle grande transformation » que le lecteur est invité « à prendre ausérieux », témoigne de la volonté de s'inscrire dans le sillage de Karl Polanyi( 1944). De fait, Yann Moulier Boutang( 2007a : 55) annonce une partie de jeu de pensée à la manière hégélienne quivoit se succéder des grandes phases de l'Histoire, une dialectique matérialisteésotérique, dont seul l'auteur aurait su déchiffrer et synthétiser les signesavant-coureurs. Ainsi s'annoncent les rapprochements fulgurants producteurs desens : comparaison du paléolithique avec l'ère du numérique, évocation pèle mêledes monastères et du réseau numérique, de l'esclave antique et du travailleurdit « cognitif », de Darwin et des ordinateurs en réseau. L'auteur s'entend à rapprocher des objets a priori sansrapport pour révéler à la pensée des connexions cachées et, in fine, provoquer le soulagement d' être dans un monde pluscompréhensible. C'est ainsi que production horaire de charbon et nombre deconnexions du cerveau sont comparées et insérés dans un graphique en réseau pourtémoigner de l'audace d'une pensée libérée des carcans de la rigueur, mais quis'épuise à démontrer la thèse de l'auteur. Tout est dit de la distance del'auteur dès la première phrase : « La planète nous offre un singulierspectacle » (Moulier Boutang : 2007a). L'Histoire y est vue de très haut, commeune frise où le capitalisme viendrait naturellement prendre sa place. Or, àl'évidence, ce type de constat ne délivre aucune information sur l'état du mondesi ce n'est l'état d'esprit de l'auteur. Cette position surplombante doitpermettre de comprendre la profusion/confusion de graphes et schémas et derévéler « le secret de l'histoire du capitalisme » (sic). Dimensions écologique, politique, économique, sociologique ,biologique, discours entendus, tout est associé et subsumé dans une dimensionéconomique excluant toute dimension d'éthique. Dans cette nouvelle ère du« capitalisme cognitif », la « force cognitif collective, travail vivant »remplace le muscle et l'énergie « carbo-fossile » (ibid. : 56). Exit le corps. Mais ces notionssont si peu claires qu'elles conduisent l'auteur à employer le néologisme de« bien-information » (ibid. : 84). L'édification de ce nouveau « mode de production » convoquant toutes lescatégories marxistes confond la connaissance avec la diffusion de l'informationpour faire de l'intelligence le produit nécessaire du rapprochement de cerveauxdistants. Et, dans cette opération, rien n'est épargné, ni le « temps réel » nil'espace. Pour tant, la disparition annoncée par la technique de ces a priori kantiens (« le temps s'accélère », « l'espace serétrécit ») mériterait d' être questionnée. En réalité, près d'une bonne moitiéde l'ouvrage est consacrée à expliquer ce que le capitalisme cognitif n'est pas ,façon utile de délivrer une définition en creux en faisant assaut de référenceset statistiques. Une centaine de pages plus loin vient le temps des fondations .Il y eut l ' hardware puis le software. Il y aura le wetware (activitécérébrale) et le netware (le réseau coopératif). Lerecours à des définitions simples donne cette impression d'une compréhensionimmédiate de la chose dans sa profondeur fantasmée. Mais le rappel de quelques« données de base » (« La notion d'externalités publiques ») comme autant detunnels théoriques non polémiques (ibid. : 137), puis dela coopération des « cerveaux en réseau » ne suffit pas à éclairer les conceptsprésentés tels que le « cognitariat ». La reproduction matérielle de la force detravail est décidément bien loin. Pour Yann Moulier Boutang, le recours à la notion de capitalisme cognitif serévèle bien moins limité que la supposée « théorie officielle » (sic) de la société de l'information promue par l'Unesco .Rien n'est moins sûr et il n'y a, en réalité, ni définition ni « théorieofficielle » (sic) de la « société de l'information »dont le contenu est à géométrie variable. « sans contenu explicatif fort », elleautorise ainsi, selon Bernard Miège (1995 : 94), l'exploration des effets del'informatisation à grande échelle de la société dans le prolongement du rapportNora-Minc en regroupantdes thématiques communes et de retenir une définition a minimafondée sur le développement d'une infrastructure technique, le poidsgrandissant et le caractère prédominant et auto-centré des activitésinformationnelles. L'expression apparaît également comme un foyer d'oppositions : d'une part, entreune politique libérale fondée sur la déréglementation des télécommunications etune approche néo-colbertiste; d'autre part, entre le recours à la loi, souventconsidérée comme inadaptée à la réalité de l'internet, et une auto-régulation duréseau. Ces couples présentés comme contraires dessinent en creux une sociétédes réseaux autorégulée, a-hiérarchique, horizontale et coopérative sur lemodèle organique qui vient à chasser la figure de l' État pyramidal disqualifiépar son archaïsme au profit de celle d'un État-régulateur donné commetransparent (Forest, 2007 : 275-279). Les nombreuses références à« l'intelligence collective » de Pierre Lévy, qui résulterait del'interconnexion des cerveaux et des ordinateurs à l'échelle planétaire ,confirme les emprunts conceptuels et le processus de recyclage de notions .Directeur de la chaire de recherche en « intelligence collective » à l'universitéd'Ottawa, Pierre Lévy s'exprime aujourd'hui dans les colonnes de la revue Multitude animée par Yann Moulier Boutang. Entre « l'intelligence collective », reprise et réinvestie par Yann MoulierBoutang et le capitalisme cognitif, le dénominateur commun réside dansl'analogie avec le vivant qui prend pour appui le cerveau compris comme supportde l'esprit. Ainsi le cyberespace joué sur un air de polyphonieanthropomorphique est-il tour à tour « cerveau », « oreille » et « œil uniqueparfaitement sphérique » (Lévy, 2000 : 25-26), extérieur et intérieur setrouvant associés dans le dedans-dehors de la vision. Pourtant, le concept de système nerveux appliqué à l'internet ne fait pas figurede nouveauté. De ce point de vue, Yann Moulier Boutang ne fait qu'emprunter à ladoxa contemporaine. Pierre Musso (1997 : 225) a bienmontré que cette analogie avec le cerveau alimente de façon récurrente lesreprésentations des acteurs des télécommunications depuis le début du XX e siècle, notamment au travers des rapports officiels visantà orienter les visions des décideurs publics. Le renvoi de Yann Moulier Boutangau rapport Jouyet-Lévy (L'économie de l'immatériel et lacroissance de demain), commandé par l'ancien ministre de l' Économie ,Nicolas Sarkozy, sans la moindre distance critique, est révélateur desambiguïtés de l'auteur. Car ce rapport, dont le postulat réside dans la liaisonentre révolution technique et socio-économique prône une approche foncièrement« technico - financière » de la nouvelle « économie de l'immatériel » (Musso ,2007 : 81). La marchandisation des savoirs et « connaissances » recouvre tout àla fois et sans distinction l'innovation, la recherche, l'enseignement, ledesign, la créativité, la publicité et le marketing selon la règle implicite del'équivalence généralisée. Parmi les nombreuses propositions du rapport, dominela volonté de déréglementer (fréquences hertziennes, propriété intellectuelle… )et libéraliser massivement pour « gagner la bataille de l'immatériel ». Cetenjeu suppose de « traiter économiquement le capital humain » devenu un « actifimmatériel ». Le « capitalisme cognitif » se présente comme un singulier refletde ce programme dont Yann Moulier Boutang s'abstient de critiquer lesprésupposés et les orientations tant les concordances sont grandes. En 1978, le rapport Nora-Minc (1978 : 13-15; Musso, 1997 : 296 et sq.) prévoyait déjà la fin du modèle pyramidal-centraliséunanimement rejeté par les techno-prophètes en pariant sur le couple« régulation-effacement » contre la séquence « rigidité-explosion ». Unequinzaine d'années plus tard, l'avocat d'affaires et essayiste, LaurentCohen-Tanugi (1994 : 39) dressait ce constat en forme de pierre d'attente : « Latransformation de l' État - gestionnaire ou interventionniste en État régulateurdu fonctionnement du marché semble un acquis irréversible ». Sa présence dans lacommission sur l'économie de l'immatériel ayant élaboré le rapport Jouyet-Lévyaux côtés de Joël de Rosnay a contribué à favoriser cette orientation récemmentconfirmée par le « rapport Besson » (2008a). Le « plan de développement de l'économie numérique » du secrétaire d' État à laProspective, Éric Besson (2008a : 51), qui ambitionne de « Replacer la Franceparmi les grandes nations numériques d'ici 2012 » couvre un spectre très large .Parmi les 154 propositions qui revêtent un intérêt très inégal, une attentionparticulière doit être accordée à celle – proprement politique – invitant l' Étatà favoriser l'autorégulation des acteurs de l'internet par des « chartesd'engagement » et une « softlaw » plus « souple et plusapte à s'adapter aux incessantes évolutions technologiques ». La confianceplacée dans les acteurs repose sur le postulat d'une « intelligence collective »( Besson, 2008b : 82) de la communauté des internautes ou encore sur l'idée quele réseau est un organisme évoluant de lui -même vers « une forme supérieured'organisation » (ibid. : 34). Autorégulation etconfiance dans les acteurs plutôt que loi à n'utiliser qu' « en dernierressort », tel est le principal credo devant guiderl'action gouvernementale. La déréglementation postulée par l'intelligence collective s'accompagne d'unerégulation par le biais du contrat, entre personnes privées décidant de leurpropre loi, de sorte que « la société a une vie autonome par rapport à l' État ,et dispose de ses propres instruments de régulation » (Cohen-Tanugi, 1992 : 10) .L'auto-régulation qui gouverne la « noosphère » fait appel, chez Pierre Lévy( 1997 : 77), à une série d'images adjacentes envahissantes parmi lesquellesl'expression, la décision, l'évaluation, l'organisation, la connexion et lavision se renvoyant toutes les unes aux autres dans un continuum sans fin. Chez Joël de Rosnay (1995 : 151-152), la« métaphore du cybionte, macro-organisme planétaire en voie d'émergence »s'alimentant à la source des théories de la complexité, sera capabled' « auto-conservation » et d' « auto-perception ». Les modes d'adoption et de révision des normes privées sont sur tout considéréescomme plus souples et rapides que le processus délibératif et législatif, car« le pouvoir, en général », constate Pierre Lévy (1997 : 93), n'a aucuneaffinité avec les fonctionnements en temps réel, les réorganisations permanenteset les réévaluations transparentes ». Ses producteurs forment un univers demicro-sociétés, de communities liées par des relations ,des intérêts divers et variés mais toujours particuliers. Et « celui qui estconnecté, affirme Derrick de Kerckhove (2000 : 228), réagit mieux aux principesd'autonomie et d'auto - organisation ». La logique intrinsèque de l'autorégulation se veut profondément inter active car ,dans cette « société contractuelle » qui, en éludant les rapports de force ,présuppose les individus libres et égaux, la norme privée librement consentierésulte par essence d'une négociation entre les acteurs. Les agencementsconventionnels sous-tendus par la négociation doivent produire la règle bonne etjuste. L'ordre spontané de l'autorégulation répond à la contractualisation quis'ébauche ainsi sous le désordre apparent, le foisonnement créateur destechniques et des nouveaux business models .L'autorégulation emblématique de l'alliance entre libéraux et libertaires seprésente comme le dernier degré du « dessaisissement » de l' « État-opérateur »préconisé par le rapport Nora-Minc. Philippe Breton (1996) a mis au jour cettealliance de fait en for me de fer à cheval entre les discours libéraux etlibertaires sur l'internet, les revendications d'autonomie, autogestion ,autorégulation affichés par ces derniers répondant en écho aux souhaits d'unÉtat minimum affichés par les libéraux. Partant de ce constat, il n'est guèresur prenant de repérer l'emploi de l'intelligence collective dans des discoursapparemment éloignés au plan idéologique. Pour Philippe Breton (1996 : 29), « l'union sacrée » entre les libertaires et leslibéraux s'est principalement effectuée au détriment du courant étatique avecpour ligne de mire et horizon final la suppression d'un État toujours affublépar les techno-prophètes d'un qualificatif dépréciatif et paré de tous lesmaux : bureaucratique, centralisé, hiérarchique… Le thème de l'effacement del' État initié par le rapport Nora-Minc a ainsi perduré et connu un succèssoutenu et incontestable, servant de colonne vertébrale et de référentiel communaux discours visionnaires mais avec, chez certains d'entre eux, uneradicalisation signant l'arrêt de mort de l' État transcendant. Le thème del' État mondial unique tel que l'a préfiguré Herbert Georges Wells (1973 )rencontre également quelques échos. PhilippeQuéau (2000 : 24, 77) rejoint le souhait de Jacques Attali d'un « État mondial »accompagné d'une « gouvernance mondiale »répondant à l'édification d'une cité des Hommes à l'échelle planétaire et à lagestion du « bien commun » de l'humanité. Et, les États - nations de devenir dèslors les simples relais de ce méta-État régulateur dans la vision du « futurgouvernement mondial » développée par Pierre Lévy (2002 : 184 et sq.). En considérant l' État-nation comme le produit de l'ère del'imprimerie tenue pour une « technologie déterminante », l'héritier de MarshallMcLuhan, peut attribuer à l'électricité le déplacement des frontièresgéographiques dans cette même tradition du déterminisme technique. Chez PierreLévy (2002 : 194; 204-205), l' État mondial résultera d'une « interconnexiond' États » accouchant d'un « pouvoir difracté » et d'une « gouvernance au secondedegré ». Derrick de Kerckhove (2000 : 231) déroule le scénario d'unemodification du rôle de l' État sous l'effet de la multiplication desméga-fusions entre entreprises multinationales, ce dernier et voit celui -cicantonné à « la prestation de l'infrastructure unifiée nécessaire à un localismerenouvelé ». Si de nombreux techno-prophètes et thuriféraires de l'internet, notammentfrancophones, se sont ainsi appuyés sur le concept plastique et malléabled'intelligence collective afin de l'accoupler au cyberespace, cette alliances'est également vu attribuer la fonction d'évacuer les notions juridiquestraditionnelles pour légitimer le déverrouillage des protections attachées auxcontenus circulant sur l'Internet. De sorte qu'au fil des discours, tout conceptjuridique est lu au miroir de l'analogie avec le cerveau. Ainsi le domainepublic est-il qualifié de « mémoire commune ». Le connexionnisme rejoint lamystique sans craindre de mobiliser jusqu' à l'usure les référencesmythologiques. Participant de ce ré-enchantement du monde, la bibliothèqued'Alexandrie alimentée par un « domaine public universel », Babelscommunicationnelles et autres Jérusalem numériques nourrissent les rêves decontenus qui, au terme d'une métamorphose en une série de 0 et de 1, seront à ladisposition de l ' homo communicans désormais sansrestriction. L'information explicitement assimilée à la monnaie dans un échangesocial réduit à une circulation réseautique conforte une règle d'équivalence quin'est dès lors pas loin du tout se vaut car, selon Pierre Lévy (2000 : 21) ,« sur le Web, tout est sur le même plan », c'est-à-dire horizontal et nonhiérarchique. Tandis que le capitalisme tel qu'il fut analysé par Joseph Schumpeter (1942 )s'appuyait sur les innovations au sein de l'entreprise, le capitalisme cognitifrepose sur la production de connaissances extérieures à celle -ci. Savoir etcréation se produiraient dans un cadre collectif, coopératif et réticulaire –celui de l'intelligence collective – faisant de tout utilisateur unco-producteur potentiel tandis que le coût de reproduction de la création estréduit quasiment à zéro. Cependant, le concept de « coopération entre cerveaux »dont le mouvement du logiciel libre serait paradigmatique – « les codes deprogrammation sont toujours le fruit d'une collaboration » (Hardt, Negri, 2000 :347) – se heurterait à la « convention artificielle du droit » (Moulier Boutang ,2003) et aux nouvelles « enclosures » qu'il entretient .En d'autres termes, le passage d'une économie de la rareté à celle de« l'abondance » (Moulier Boutang, 2007a : 97; 2007b : 119) qui accompagne latransition du capitalisme industriel au capitalisme informationnel ou cognitifbutterait sur l' « obstacle » de la propriété intellectuelle prenant la forme dela clôture (enclosure) (Moulier Boutang, 2007b : 120) oudu péage de l'accès, tous deux violemment contestés car jugés inadaptés à lanouvelle économie. La dénonciation de ces « enclosures »d'un nouveau genre relève avant tout d'une analogie avec celles des richespropriétaires anglais étudiées par Karl Polanyi pour alimenter les discourscontre « droits acquis » et « nouveaux majorats » qui seraient autant deprivilèges usurpés désormais incompatibles avec les rhétoriques de l'abondanceinformationnelle. Dès lors, l'enjeu principal et la visée opératoire ducapitalisme cognitif sera de « disclore » les barrières d'accès en profitant dela crise de légitimité des droits de propriété intellectuelle (Moulier Boutang ,2003 : 114). Une des voies pour y parvenir consiste notamment à considérer quela création revêt les attributs d'un bien collectif non exclusif niprivatisable, car son usage par un agent n'empêche pas l'usage simultané pard'autres agents. La fin de l' « exclusivité » ouvrirait la voie à latransformation des créations numériques en bien « collectif » ou « public ». Ilest admis que la rationalité des agents économiques les conduit à ne pas révélerleur préférence pour ce type de biens car ils espèrent en jouir sans ensupporter le coût. Or, si les biens souhaités par le consommateur ne sont pasl'objet d'une demande, cette défaillance du marché doit être supportée parl'impôt. Partant, les droits de propriété intellectuelle qui ne trouvent plus dejustification dans le caractère exclusif de créations reproductibles à l'infini ,peuvent utilement être remplacés par un simple droit à rémunération, fût -ce auprix d'une dénaturation radicale ou du moins d'un affaiblissement certain dudroit d'auteur. Ce droit à rémunération des créateurs est à rapprocher du revenusocialisé autrement nommé « revenu de citoyenneté » qui, indépendant des fruitsde l'exploitation, rémunère toute participation sociale par l'impôt (MoulierBoutang, 2007b). Pour autant, les termes de ce débat qui a violemment agité l'opinion à l'occasionde la révision de la loi sur le droit d'auteur, ne doivent rien aux descriptionsd'une société d'internautes co-producteurs d' œuvres entre égaux dont la réalitétangible est encore bien mince (Forest, 2005). Dans le contexte décrit par YannMoulier-Boutang, il aurait sans doute été plus fécond pour l'analyse de discuterprécisément les concepts de Karl Polanyi dont le patronage est revendiqué, etsingulièrement celui d' « encastrement » des relations sociales dans le systèmede l'échange qui, selon lui, caractérise une économie de marché. Aussi séduisante soit-elle, l'intelligence collective demeure un concept fictif ,sans qualités, et dont la malléabilité est mise au service de propositionspolitiques puisant dans la doxa néo-libérale( déréglementation, libéralisation, rejet de l' État, etc.) dont elle estl'expression symptomatique. Et lorsqu'elle se présente sous un angle critique ,comme le « capitalisme cognitif », elle produit une subversion en trompe l' œil ,comme un nouveau symptôme qui s'exerce sans malaise de la pensée .
Il y a plus d'une quinzaine d'années, les discours d'accompagnement de l'internet ont consacré le retour des conceptions de Marshall Mc Luhan réactualisées et recyclées, mais également de la mystique développée par Pierre Teilhard de Chardin dont participe le concept malléable d'« intelligence collective ». Reposant sur l'analogie entre le fonctionnement du cerveau, la structure du réseau de télécommunications et la représentation du corps humain comme un réseau sanguin et nerveux, l'intelligence collective résulterait de l'interconnexion des cerveaux et des ordinateurs à l'échelle planétaire. Si le concept de système nerveux appliqué à l'internet ne fait pas figure de nouveauté, son usage permet de lire tout concept juridique au miroir de l'analogie avec le cerveau au service de propositions politiques puisant dans la doxa néo-libérale (déréglementation, libéralisation, effacement de l'État...).
sciencesInfo_10-0305510_tei_1074.xml
termith-383-communication
Le téléphone portable occupe une place particulière parmi les technologies del'information et de la communication (tic). Alors que les sciences humaines etsociales (shs) ont longtemps hésité à attribuer le statut de tic au téléphone engénéral, l'arrivée du« portable  » a considérablement augmenté l'intérêt des chercheurs pour cedispositif. En une décennie à peine (à partir du milieu des années 90), il estdevenu un objet banal, totalement intégré dans le quotidien des usagers. En France ,ils sont près de 60 millions (plus de 92 % de la population )à l'utiliser et en Allemagne, l'autorité de régulation recense plus de 107 millionsde lignes mobiles, soit 1,3 appareils par citoyen (Bundesnetzagentur, 2009) .L'arrivée, au milieu des années 2000, des portables de troisième générationpermettant de surfer sur l'internet (le portable se transformant en objet decommunication individuelle et de masse tout à la fois), mais aussi l'importance desenjeux économiques avec la fameuse question de la « convergence  », ontcontribué à asseoir la signification sociale du dispositif dans notre société, cequi le rend particulièrement intéressant pour explorer le concept d'usage. Mais letéléphone portable constitue aussi une source riche pour explorer le non-usage destic. La littérature, encore limitée sur ce phénomène, concorde sur au moins deuxenjeux pour mieux comprendre le non-usage. Le premier défi est de sortir d'uneperspective déficitaire des non-usagers, d'accepter les légitimations qui peuventles conduire à ne pas se servir d'une technologie, et d'analyser leur comportementde manière ciblée et rationnelle (« purposeful andrational  »), comme le suggère Heinz Bonfadelli (2002  : 82). Conformément àces enjeux, certains chercheurs ont opposé au concept des « have-nots », les « choose-nots  » (Livingstone ,Helsper, 2007) ou « want-nots » (Van Dijk, Hacker, 2003 ;Selwyn, 2003). Il reste à explorer la nature des raisons poussant à un non-usage  :s'agit-il d'un simple manque de besoin, d'une prise de position sociale, ouexiste -t-il des raisons plus complexes et subtiles ? Le second défi pour la recherche sur les non-usages est de surmonter la simpledichotomie entre usage et non-usage. À cette fin, Sonia Livingstone et Ellen Helsper( 2007  : 682) proposent d'établir un continuum, avec desgradations du non-usage en passant par l'usage réduit jusqu' à un usage plus fréquent( « To map a continuum of use, with gradations from non-use ,through low use to more frequent use  »). Encore une fois, reste à explorerle potentiel de ce concept  : les différents degrés d'intensité d'utilisationévoqués par Sonia Livingstone et Ellen Helsper ne constituent pas le seul continuum qui lie usage et non-usage  : les motifsd'utilisation, les normes sociales, le processus temporel de l'appropriationpermettent aussi d'aller au-delà d'une simple opposition usage vs non-usage. La recherche sur les non-usages est freinée par un phénomèneque l'on peut observer depuis longtemps dans la recherche sur les usages, à savoirla coexistence de deux écoles théoriques et méthodologiques qui communiquent peuentre elles alors qu'elles analysent les mêmes phénomènes  : d'un côté, la recherchequalitative sur les usages, très répandue en France; de l'autre, la recherchequantitative sur l'adoption et les usages des innovations médiatiques, plus présentedans le monde anglophone. Par le biais de la confrontation entre ces deux courants ,l'objectif de cet article est d'élargir les connaissances sur le non-usage dutéléphone portable et ainsi de participer à l'analyse plus générale sur lesnon-usages des tic. À cette fin, nous allons opposer dans la première section lesdeux courants théoriques et méthodologiques sur les usages et non-usages etintroduire les deux études sur le non-usage du téléphone portable, issues de cescourants. Dans la deuxième section, nous nous concentrerons sur la manière de sortird'une perspective déficitaire des non-usagers. La troisième section traitera del'opposition entre usage et non-usage et permettra alors de définir différents continuums entre ces deux pôles au sein des échantillonsétudiés. Dans la diversité des approches qui aspirent à comprendre et expliquer les usagesdes tic, « un courant spécifique de la sociologie des usages […] s'est développéen France, en Belgique et au Québec  » (Jouët, 2000  : 489), lequel se distinguedes approches issues de la communauté scientifique anglo-saxonne, incluant aussiles pays qui participent intensément à l'échange scientifique de cettecommunauté à travers des publications anglophones, comme les pays de l'Europe dunord et de l'Asie. Alors que ces dernières se trouvent dans une grandecontinuité avec la recherche classique en communication de masse (« mass communication »), la sociologie des usages dans lespays francophones n'a pas évolué « dans le prolongement des études sur lesusages des médias de masse  » (ibid. : 491). Celaconcerne non seulement les théories appliquées, mais aussi les méthodes. Si lasociologie francophone des usages a longtemps privilégié les approches dites« qualitatives  », les approches quantitatives sont beaucoup plus présentes dansle monde anglo-saxon. Une affirmation au fondement de cette contribution est queles deux approches sont complémentaires et non mutuellement exclusives et quel'avancement dans la recherche sur les usages – ainsi que sur les non-usages –passe par ce que Josiane Jouët (ibid. : 514) décritcomme « un dialogue plus étroit entre ces approches  ». Nous allons doncappliquer ces deux approches à la question du non-usage du téléphone portable .La première s'inscrit dans la tradition francophone de la recherche sur lesusages, la seconde prend comme point de départ la recherche sur la diffusion desinnovations et démontre comment ses défauts peuvent être surmontés tout ensauvegardant une approche quantitative et standardisée. La base empirique decette comparaison est constituée par deux enquêtes, l'une réalisée en France etl'autre en Allemagne; toutefois, cet article ne prétend pas s'étendre à unecomparaison entre les non-usagers français ou allemands, mais se consacreuniquement aux approches théoriques et méthodologiques. La spécificité des études d'usage dans les pays francophones réside dans lefait qu'elles se sont d'emblée centrées sur les tic en lien avecl'informatisation de la société. N'ayant pu bénéficier des apports desétudes de réception anglo-saxons, « en l'absence de théoriques et demodèles à appliquer, la sociologie des usages s'est donc forgée dans uneeffervescence de bricolage intellectuel et d'artisanat conceptuel  » (ibid. : 493). Aussi s'est-elle constituée dansl'interdisciplinarité et s'est-elle inscrite dans le courant de l'autonomiesociale qui constituait de nouvelles approches sociologiques, tant dans ledomaine de la famille que du travail. Les sociologues s'intéressent à lafaçon dont les individus s'approprient ces nouveaux outils que sont les ticde façon subjective  : à des fins d'émancipation personnelle ouprofessionnelle, à des fins de sociabilité. Il importe donc de comprendrecomment ils vont produire des normes pour légitimer leurs usages ounon-usages. D'une part, l'approche qualitative est inhérente à cettedémarche, d'autre part, nous verrons combien l'hypothèse de la continuitéentre les usages et les non-usages est heuristique. Pour Jacques Perriault (1989  : 218), la logique d'usage résulte d'uneconfrontation entre l'instrument, sa fonction et le projet de l'utilisateur .Si l'usage est rarement conforme à celui qu'avait strictement prescrit lasphère technicienne, c'est par la légitimation que se construit la norme  :« Dans la constitution d'une norme intervient le facteur très important dela légitimation. C'est en quelque sorte la caution que l'usage est utile etlicite  ». Philippe Mallein et Yves Toussaint (1994) recourent pour leurpart à la notion de signification sociale pour analyser le processusd'insertion sociale d'une tic et son intégration ou non dans le quotidiendes usagers. Josiane Jouët (2000  : 501) évoque les « significationssymboliques des objets de communication qui sont porteurs de représentationset de valeurs suscitant souvent l'adoption et la formation des premiersusages  ». Si nous posons l'hypothèse qu'il existe une continuité entre lesusages et les non-usages, nous pensons qu'il est tout aussi possible demettre à jour les significations symboliques qui sont attachées au refus del'usage et qui permettent aux non-usagers de se justifier. Le portable estincontestablement un succès et il semble bien que les individus qui refusentle portable développent une forme de résistance à cette pratique socialenormative qu'est devenu l'usage de cet objet, c'est ce que nous montrerons .Quant à Vincent Caradec (2001), il analyse le non-usage des technologieschez des personnes âgées. La démarche est intéressante parce qu'une tendancedomine; elle consiste à supposer que ces personnes âgées font preuve d'unevéritable inaptitude  : « Ce type d'explication repose sur l'idée qu'il existe unelogique dominante (celle des classes supérieures ou celle de la diffusion del'innovation) qui s'impose à tous et que les écarts observés par rapport àcette logique ne peuvent renvoyer qu' à une incapacité à s'y conformer. Untel mode explicatif se refuse donc à envisager que ces écarts puissent êtredotés de sens pour les acteurs concernés  » (ibid. : 120). L'auteur poursuit en développant l'hypothèse de la rationalité des usages etdes non-usages  : « Nous considérons que les personnes rencontrées ont de bonnes raisons [c'est l'auteur qui met en italiques ]d'avoir recours aux appareils techniques qu'elles utilisent et qu'elles ontaussi de bonnes raisons de ne pas avoir recours auxappareils qu'elles n'utilisent pas. Par bonnesraisons, nous entendons qu'elles sont capables de tenir un discoursjustifiant le fait qu'elles sont équipées (ou qu'elles ne le sont pas) etqu'elles utilisent (ou qu'elles n'utilisent pas) les différents objetstechnologiques […] c'est ce que nous proposons d'appeler les ' ' logiquesd'usage ' '  » (ibid .  : 121-122). Vincent Caradec identifie ainsi quatre catégories d'usage  : la logiqueutilitaire qui consiste à porter une appréciation sur l'utilité de l'objetconsidérée; la logique identitaire qui permet d'expliquer l'usage/non-usagepar l'adéquation/inadéquation de l'objet avec ce que l'on est; la logiquede la médiation au travers de laquelle l'usage ou le non-usage est explicitépar l'intervention d'un tiers; enfin, la logique d'évaluation qui consisteà porter un jugement sur l'objet technologique lui -même, sescaractéristiques, ses performances, en lui associant une image positive ounégative. Il est entendu que ces quatre logiques vont bien souvent secombiner entre elles, aboutissant à la production de discours dits mixteschez les usagers/non-usagers. Cette notion de logique d'usage peut êtrerapprochée de celle développée par Jacques Perriault (1989), exposéeprécédemment, en ce qu'elle renvoie à l'ensemble des normes etlégitimations, justifications produites par les usagers et les non-usagerset nous ferons référence à ces bonnes raisons que mentionne Vincent Caradec .Nous évoquerons la notion de rationalité d'usage mais il importe de préciserqu'il n'est pas question pour nous d'inscrire cette notion de rationalitédans l'opposition épistémologique Raymond Boudon/Pierre Bourdieu, quidépasserait largement le cadre de cet article. De même, la notion derationalité que nous entendons développer n'a rien à voir avec celle deséconomistes (homo œconomicus), dès lors que nousreconnaissons plus volontiers chez l'humain la présence d'un inconscient detype freudien que celle d'une rationalité pure, quasi mathématique. Larationalité d'usage – telle que nous l'entendons – tend à montrer combien ,face à une offre commerciale de plus en plus pléthorique (disponibilitégrandissante de divers dispositifs techniques), les individus sontconfrontés à la nécessité de faire des choix, de réaliser de véritablescompromis. Ces compromis résultent de la prise en considération d'unensemble de critères économiques, techniques, culturels, sociaux ,ergonomiques, mais aussi liés à l'histoire personnelle des sujets  : c'estainsi que vont se mettre en place de véritables combinatoires d'usage, dèslors qu'un nouveau dispositif ne saurait remplacer intégralement etdéfinitivement un ancien dispositif utilisé. En effet, Josiane Jouët( 2000  : 500) a montré combien il convient de prendre en compte lagénéalogie des usages, dès lors « qu'il n'existe pas d'usage sui generis et que l'adoption des technologies del'information et de la communication s'articule autour de techniques et depratiques antérieures  ». De même, Gilles Pronovost (1994  : 382) évoque lanotion de continuum d'usage, en la renvoyant à deuxaspects  : « On peut entrevoir que les usages sociaux de médiasdemandent à être insérés dans un continuum empirique, renvoyant nonseulement à une diversité d'objets – téléviseur, magnétoscope, décodeurssophistiqués (prescrivant eux -mêmes des modalités spécifiquesd'appropriation) – mais également à un continuum historique faisant en sortequ'un usage structuré, par exemple, en vienne à être déstabilisé, puisrecomposé sous d'autres formes  ». C'est pourquoi nous posons l'hypothèse qu'il existe une continuité entre leslégitimations des usagers et celles des non-usagers pour le téléphoneportable et donc, d'une certaine manière, un continuum entre les usages et non-usages, dès lors que refuser letéléphone portable suppose que l'on ait fait le choix d'autres objets decommunication, complémentaires, tels le téléphone fixe, les messageries surl'internet, etc.; un choix fait y compris dans le temps, en lien avec sonhistoire personnelle, son mode de vie (choix qui pourra ainsi être remis encause avec l'évolution du mode de vie). C'est ce que nous tenterons dedémontrer. La méthodologie retenue pour cette étude réalisée en France estvolontairement de type qualitatif. Afin d'appréhender ces significationssociales, justifications produites par les usagers/non-usagers, les normeset logiques d'usages/non-usages qu'ils mettent en œuvre, nous avons fait lechoix d'écouter les discours qu'ils produisent à cet égard. C'est pourquoinous avons retenu la méthode de l'entretien. En effet, « l'entretien, qui vaà la recherche des questions des acteurs eux -mêmes, fait appel au point devue de l'acteur et donne à son expérience vécue, à sa logique, à sarationalité, une place de premier plan  » (Blanchet, Gotman, 1992  : 23) .Ces deux auteurs poursuivent pour justifier l'enquête par entretien  : « [Il] est ainsi particulièrement pertinente lorsque l'onveut analyser le sens que les acteurs donnent à leurs pratiques, auxévénements dont ils ont pu être les témoins actifs; lorsque l'on veutmettre en évidence les systèmes de valeurs et les repères normatifs à partirdesquels ils s'orientent et se déterminent. Elle aura pour spécificité derapporter les idées à l'expérience du sujet. Elle donne accès à des idéesincarnées, et non pas préfabriquées, à ce qui constitue les idées encroyances et qui, pour cette raison, sera doté d'une certaine stabilité  » (ibid. : 27). Une première enquête par entretiens a donc été réalisée en 2003-2004; elleportait sur les usages/non-usages du téléphone portable chez les jeunesadolescents et leur famille, afin de cerner les représentations sociales queles individus se constituent de cet objet de communication. L'échantillonétait constitué de 20 familles dont 3 familles de non-usagers. Des entretiens semi-directifs ont été conduitsséparément avec le jeune adolescent (en 3 e de collègeet 2 nde de lycée) puis avec chacun de ses parents. Une autre enquête, complémentaire ,a été réalisée en 2008 sur les usages/non-usages de la photo et de la vidéosur téléphone portable (en comparaison avec celles réalisées ou non avec unappareil photo numérique) auprès d'un échantillon de 12 étudiants de niveau3 de Licence information-communication. L'approche francophone de la premièreenquête ayant été présentée, il convient d'aborder les enjeux de la secondeapproche quantitative des non-usages, de tradition anglo-saxonne, laquelle aservi de cadre théorique et méthodologique à la seconde enquête réalisée enAllemagne. Étant donnée la diversité de la communauté scientifique anglo-saxonne ensciences de la communication, notre ambition se limite ici à présenter uncourant. Ce courant ne se caractérise pas par un nom ou une école dechercheurs, mais par un objectif  : trouver des modèles théoriques surl'adoption, les usages et les non-usages des innovations, lesquels modèlespeuvent être confrontés à la réalité empirique et améliorés en fonction desrésultats. Sa base épistémologique est le « rationalismecritique  » (Popper, 1973) selon lequel la communauté scientifique faitavancer les connaissances en testant des hypothèses et en améliorant lesmodèles théoriques en fonction des résultats de ces tests. Nous allons ainsidémontrer comment ce courant a engendré des concepts de plus en plusdifférenciés pour étudier usage et non-usage des innovations. Enfin, nousprésenterons un modèle de l'appropriation du téléphone portable, qui a servide base théorique à l'enquête présentée. Everett Rogers (1962), le fondateur de la « théorie de la diffusion  », peutêtre considéré comme un pionnier de cette tradition en ce qui concerne laquestion du non-usage des nouveaux médias. C'est dans les années 60 qu'il arésumé les différents approches sur la diffusion des innovations pour lesintégrer au sein de la jeune discipline appelée « masscommunication » (Katz, 1999  : 145-146; Dearing, Singhal, 2006  :20). Celle -ci était alors le courant le plus dynamique de la recherche surla communication humaine dans le monde anglo-saxon (voir Delia, 1987), etelle offrait des concepts pertinents pour comprendre l'adoption et le refusdes innovations, comme celui des leaders d'opinion (Lazarsfeld et al., 1944). Très rapidement, la théorie de ladiffusion est devenue une approche centrale au sein de la « mass communication », et l'une des approches qui aattiré l'attention d'autres disciplines, même si elle était en même tempstrès contestée. Sur ce point, la tradition anglo-saxonne diverge dessciences de l'information et de la communication (sic) françaises. EnFrance, le constat des limites de la théorie de la diffusion a coïncidé avecune inscription des études sur les usages des nouvelles technologies dansune approche qualitative (Flichy, 1995), et qui se distançait de laconception poppérienne d'une recherche empirique standardisée. Le rejet decette approche se reflète aussi dans le fait que la notion de « théorie dela diffusion  » est souvent utilisée en tant que synonyme de la notion de« diffusionnisme  », comme s'il s'agissait d'un courant normatif, alors quela communauté scientifique anglo-saxonne distingue l'approche théoriqued'une part et l'idéologie du diffusionnisme d'autre part. Au sein de la « mass communication », des chercheurs ontcontinué, selon la conception de l'essai/erreur, à développer des modèlesplus appropriés permettant de mieux expliquer les usages et non-usages, touten restant fidèle à l'approche de base quantitative et standardisée. Dans laprochaine partie, seront présentées les modalités selon lesquelles la voiequantitative initiée par Everett Rogers – et abandonnée par la recherchefrancophone – peuvent conduire tout de même à une meilleure compréhensiondes usages et non-usages en surmontant les limites de la théorie de ladiffusion. Selon Everett Rogers (1962), les facteurs qui influencent la décisiond'utiliser une innovation sont liés à l'adopteur potentiel, au systèmesocial et à la compatibilité entre ces deux paramètres et l'innovation .Ainsi certaines caractéristiques d'un individu vont-elles augmenter laprobabilité d'une adoption précoce, comme par exemple son niveaud'enseignement, son statut socio-économique, son cosmopolitisme, ladiversité des médias qu'il consomme (ibid.) ouencore son intégration dans des réseaux sociaux interpersonnels (Valente ,2006). Ces observations ont permis notamment d'expliquer les causes d'une« fracture numérique  » au niveau des individus ou entre différentessociétés (Rogers, 2000; Hargittai et al., 2002; Robinson, DiMaggio, Hargittai, 2003 ;Bonfadelli, 2002). Toutefois, les deux limites évoquées supra s'appliquent aussi à la théorie de la diffusion  :premièrement, celle de la perspective déficitaire du non-usager, dénoncécomme « retardataire  » face à une innovation souvent considérée comme a priori souhaitable (Rogers, 2003; Bonfadelli2002; Selwyn, 2003); deuxièmement, celle du manque de différenciation dansla dichotomie entre l'usage et le non-usage, lié à la logique binaireadoption vs refus au cœur de la théorie de ladiffusion. Pour considérer au mieux les raisons des non-usagers, on peuts'appuyer sur la théorie du comportement planifié (Theoryof Planned Behavior, TPB, Ajzen, 1985), qui décrit les raisonsd'adopter un certain comportement comme le produit d'un calcul intégrant desparamètres qu'on peut résumer en trois catégories, à savoir les conséquencespersonnelles de l'usage, les normes concernant l'usage et les restrictionset ressources facilitant l'usage. Cette théorie permet alors de considérerla décision de ne pas adopter une innovation comme un choix rationnel et desurmonter ainsi la perspective déficitaire des réfractaires. Il ne s'agitpas d'un pur homo œconomicus, car il suit les normesde son environnement. Cette approche a conduit à des études sur l'adoptionde diverses technologies telles que le téléphone portable (Schenk, Dahm ,Sonje, 1997) et différents services en ligne comme le commerce électronique( Hung, Ku, Chan, 2005) et les téléphones portables qui permettent d'allersur l'internet (Teo, Pok, 2003). Reste alors à mieux appréhender ladichotomie entre usage et non-usage. Deux approches permettent dedifférencier davantage ces phénomènes  : d'un coté, l'approche « des usageset gratifications  » et, de l'autre, l'approche de la domestication .L'approche des usages et gratifications a été conçue à l'époque de la radioet de la télévision (Katz, Foulkes, 1962) et a vécu, selon Thomas Ruggiero( 2000), une véritable renaissance ces dernières années dans l'analyse desusages des tic (Leung, Wei, 2000; Sherry et al. ,2006; Wei, Lo, 2006). Partant du principe que les médias constituent desalternatives fonctionnelles pour les usagers, cette approche est appliquéepour expliquer le succès ou l'échec de certains médias auprès des usagers ,tels que le courrier électronique (Dimmick, 2000) ou le téléphone portable( Leung, Wei, 2000). En intégrant différents motifs d'utilisation( pragmatiques, sociaux, symboliques), cette approche propose des indicespour déterminer des logiques d'usage (Perriault, 1989; Caradec, 2001) .L'approche de la « domestication  », développée par Roger Silverstone etLeslie Haddon (1996), reprend l'idée d'une appropriation active etconstructive des consommateurs (Hall, 1980; de Certeau, 1980) pour analyserla manière dont ils « domestiquent  » la technologie « sauvage  » enl'introduisant dans leur espace et leurs routines. Cette approche anotamment été appliquée aux téléphones portables (Haddon, 2003), àl'ordinateur domestique (Bakardjeva, Smith, 2001), à la vidéo à la demande( Ling, Nilsen, Granhaug, 1999) et à un certain nombre d'autres technologiesdomestiques (Lehtonen, 2003; Haddon, 2006). L'objectif de ce modèle est de surmonter les limites de la théorie de ladiffusion sans rompre avec la recherche quantitative et standardisée .Plusieurs études mesurent des patterns d'appropriation de médias mobiles defaçon quantitative, sur la base de sondages (Scott, 2003 – s'appuie sur lemodèle d'influence sociale) ou d'observations (Hampton, Livio, Sessions ,2010; Quandt, von Pape, 2010 – les auteurs s'appuient sur l'approche de ladomestication). Ici sera utilisé un modèle qui réunit les différentesapproches décrites dans cette section et les applique au téléphoneportable  : le « modèle de l'appropriation du téléphone portable  » (Mobile Phone Appropriation Model, MPA, Wirth, Von Pape, Karnowski, 2008). En résumant les élémentsprincipaux de la théorie de la diffusion, du modèle du comportementplanifié, de l'approche des usages et gratifications et de l'approche de ladomestication, ce modèle explique comment différents patterns d'utilisationdu téléphone portable par un individu résultent d'un processusd'appropriation personnelle et sociale de l'innovation, lequel est déterminépar les gratifications recherchées, les normes en vigueur et les ressourceset restrictions ressenties par les usagers. Conçu à l'origine pour analyserl'appropriation par les usagers, le modèle mpa sera ici appliqué aunon-usage du téléphone portable. Le non-usage n'est certes pas une formed'appropriation, mais, à partir du moment où l'innovation est suffisammentprésente dans une société, il se constitue par des processus parfoisanalogues à ce qui se passe au cours de l'appropriation. Cette analogie adéjà été mise en avant par Richard Ling (1999). En effet, ce dernier adécouvert des processus similaires entre les usagers et les non-usagers dutéléphone portable au niveau de l'accumulation des connaissances et de laconstruction des attitudes sur le téléphone portable – même si l'usage resteévidemment exclusif aux usagers. Avec la croissance du nombre d'utilisateursdepuis 1999, les non-usagers sont de plus en plus souvent confrontés à latechnologie (dans la rue, dans leurs familles, etc.). Il leur est doncimpossible d'ignorer complètement cette technologie. Cet état de faitimplique alors de prendre en considération toute relation symbolique oupragmatique avec une technologie, soit au cours d'une appropriation ou aucours d'un renoncement  : s'en servir même de la façon la plus limitée, maisaussi en parler, et s'en faire des idées ou se construire une imagesymbolique. Pour mesurer et comparer les formes d'appropriation ou derenoncement, il faut un instrument empirique standardisé et quantitatif eten même temps très nuancé. À cette fin, une échelle de l'appropriation dutéléphone portable (Mobile Phone AppropriationScale) a été développée et appliquée dans plusieurs études (Von Pape ,Karnowski, Wirth, 2008). Cette échelle représente en items, dans unquestionnaire, différentes gratifications, des usages, normes etrestrictions ainsi que différentes formes de communication sur le téléphoneportable. La formulation de chacun de ces items est fondée partiellement surdes items utilisés dans d'autres études quantitatives (Leung, Wei, 2000 ;Wei, Lo, 2006; Trepte, Ranné, Becker, 2003) et partiellement sur desexpressions enregistrées au cours d'entretiens semi-directifs avec desusagers et non-usagers du téléphone portable (Von Pape etal. 2006; Karnowski, Von Pape, 2008). Dans l'étude quantitative, nous avons analysé l'appropriation du téléphoneportable auprès des élèves de 16 classes de collège en Allemagne. Il s'agitd'une étude de panel avec deux vagues qui ont permis de suivre l'évolutionde l'appropriation. Pendant la 1 ère vague (mars 2006) ,les élèves étaient en 7 e et 9 e classes (ils sont âgés de 13 et 15 ans environ), pendant la 2 e vague (janvier 2007), ces mêmes élèves étaient en 8 e et 10 e classes (Von Pape, 2008) .Dans l'ensemble, 86 % des élèves ont participé à l'enquête, 14 % étaientsoit absents le jour de l'enquête, soit n'avaient pas obtenu l'autorisationde leur parents. 86 % des élèves ayant participé à la 1 ère vague ont aussi participé à la 2 e vague( mortalité du panel de 14 %), 8 % des participants de la 2 e vague n'avaient pas participé à la première. Parmi lesparticipants de la 1 ère vague, nous avons compté 52non-usagers (13 %) et 345 usagers, et parmi ceux de la 2 e vague, 34 non-usagers (9 %) et 330 usagers. Le pari de confronter ces deux approches et enquêtes est ambitieux et risqué .En ce qui concerne la démarche qualitative, elle cherche à comprendre etmettre à jour une logique personnelle d'usage/non-usage en retraçantl'histoire singulière du sujet. Mais la tentative de généralisation, par lamise en évidence de typologies ou répertoires d'usage, rencontre forcémentdes limites. Dans l'approche quantitative, les mesures standardiséespermettent de faire la comparaison, favorisant ainsi les possibilités degénéralisation. Néanmoins, la volonté demeure de ne pas glisser dans laréduction et la simplification, afin de toujours pouvoir rendre compte de lacomplexité de l'appropriation comme caractéristique propre à chaqueindividu. Si les différences entre ces deux approches demeurentirréductibles, en revanche, les concepts proposés par les deux courants pourmieux comprendre et différencier le non-usage paraissent très proches. C'estle cas notamment des propositions pour étudier un continuum d'usage, déjàévoqué par Sonia Livingstone et Ellen Helsper (2007 )  : le concept utilisépar Gilles Pronovost (1994) utilise le même terme de continuum, et le modèlempa permet d'identifier des formes d'entrée en relation avec le téléphoneportable qui jouent un rôle dans l'appropriation autant que dans lerenoncement de la technologie (par exemple, se faire une opinion sur lesgratifications et les normes). Comment ces différences et complémentaritésentre les deux approches se manifestent-elles dans le cadre d'enquêtesempiriques sur le non-usage du téléphone portable ? Et quels sont les gainsà tirer de cette démarche de comparaison, notamment pour sortir de laperspective déficitaire du non-usager et pour aller au-delà de la simpleopposition entre usager et non-usager ? Les deux prochaines partiesrépondront à ces questions en opposant et synthétisant les résultats desenquêtes. Dans l'approche qualitative, nous nous intéressons au non-usage chez lesadultes, lesquels refusent de s'équiper en téléphoneportable. L'ouvrage L'apostasie de la télévision ,d' Élisabeth Castro-Thomasset (2000) apporte un éclairage intéressant sur lenon-usage d'un média, en l'occurrence la télévision. L'auteure a fait lechoix d' « appréhender un objet à travers ce qu'en livrent ses non-usagers  »( ibid .  : 13) et montrer ainsi la pertinence àconcevoir les non-usagers comme une source d'information utile à l'analysesociologique. « Le terme « apostasie  » est utilisé aujourd'hui dans lasphère politique ou religieuse; il désigne le fait de renoncer à son partipolitique ou à sa religion pour un ou une autre, et ce, publiquement  » (ibid. : 13). En effet, il est apparu très tôtque si les individus n'avaient pas de portable, cela n'était pas tant laconséquence d'une impossibilité, matérielle par exemple, encore moins celled'une incapacité à s'adapter à l'objet technique, mais que cela résultaitplutôt d'un choix et donc d'un refus clairement affirmé et assumé. « Rejeterun objet que tout le monde possède, c'est-à-dire qui s'inscrit dans unepratique sociale normative, signifie qu'en optant pour la rupture, on tented'échapper à la pression sociale d'une attitude conformiste  » (ibid. : 21). L'auteur considère que l'on peutqualifier d'apostats les individus qui rejettent l'objet télévision dès lorsque plus de 90 % des familles en sont équipées. Nous suivrons leraisonnement de l'auteure, puisque le taux d'équipement du téléphoneportable dépasse les 90 %. C'est pourquoi il nous a sembléqu'avoir un portable peut, de nos jours, être assimilé à une pratiquesociale normative. À leur façon, ces non-usagers résistent à la norme enrefusant l'usage. Si l'on revient sur les études qualitatives d'usage dutéléphone portable en France, il est incontestable qu'elles sont nombreuseset se sont inscrites dans des problématiques centrées sur le lien social ,que ce soit à travers l'analyse des usages voix/SMS (Licoppe, 2002 ;Rivière, 2002; Réseaux « Mobiles  », 2002 ;Jauréguiberry, 2003), des photos/vidéos (Jarrigeon A., Menrath J., 2007 ;Réseaux « Les usages avancés du téléphonemobile  », 2009) ou bien encore de l'internet mobile (Réseaux « Les usages avancés du téléphonemobile  », 2009). Elles ont aussi traité de la question centrale du portablecomme objet personnel et de l'autonomie qu'il favorisait (Réseaux « Mobiles  », 2002; Martin, 2007b )avec son pendant, le rapport au pouvoir (Réseaux « Mobiles  », 2002; Jauréguiberry, 2003) ainsi que la généralisation del'urgence (Jauréguiberry, 2007). Mais il faut avouer que bien peu d'étudesse sont centrées, voire ont abordé seulement la question du non-usage .Gérald Gaglio (2005) analyse les usages dans une perspective intéressantequi prend en considération la dimension de consommation et son travail faitpartie des rares travaux qui s'intéressent aux non-usagers du téléphonemobile. Ainsi évoque -t-il les réfractaires, pour montrer combien il fauteffectivement aller au-delà de la simple absence de besoin. Il recourt à lanotion de rationalité en finalité, mais ajoute aussi qu'elle « se complèted'une rationalité touchant aux valeurs des individus, et ce concernant, parexemple, des domaines cadrant l'existence sociale comme le travail et lecouple. […] L'efficacité, en tant qu'objectif, est parfois laissée de côtéau profit d'une critique de principes et de l'affirmation de conceptions quisurplombent la décision de ne pas s'équiper d'un téléphone portable  » (ibid. : 182-183). Dans notre enquête, le discoursdes non-usagers se situe dans le champ des valeurs, il est même idéologiqueet constitue une véritable posture critique. Il est construit sur le moded'une rhétorique, visant à se démarquer des autres. La critique de lasociété de consommation est, semble -t-il, le socle de l'argumentaire  : « Laconsommation gratuite, c'est pas notre truc  » dira M. Jérôme (48 ans, sansportable, instituteur, trois enfants dont le dernier en seconde, sansportable, conjointe et enfants sans portable) mais l'analyse s'étend à uneréflexion critique sur l'ensemble de la société, dans toutes ses dimensions ,tant politiques, qu'économiques, sociales, environnementales, familiales etéducatives. C'est un discours engagé, presque militant, de dénonciation. Letéléphone portable a perdu toute dimension technique et n'est plusappréhendé que sous le seul angle d'objet de consommation  : « Pour noustransformer en consommateurs, on n'existe plus en tant que personnes, vousn' êtes plus qu'un truc de profit quoi  » s'insurge M. Petit (47 ans, sansportable, fonctionnaire, fils unique en seconde, sans portable, conjointe etenfant sans portable). Ces non-usagers évoquent une absence de « besoin  » ,laquelle renvoie en réalité à une véritable inutilité sociale. Il estintéressant de constater qu'il existe aussi une continuité entre leslégitimations de non-usage avec les légitimations d'usage produites par lesusagers. En effet, les arguments sont quasi inversés  : lajoignabilité permanente, premier argument des usagers, est considéréenéfaste, liée au refus de se soumettre à la densification du temps quefavorise l'outil, refus que pratique, non sans humour, Mme Petit (46 ans ,sans portable, conseillère principale d'éducation, fils unique en secondesans portable, conjoint et enfant sans portable )  : « Moi, je rigole…je suis joignable 90 % de mon temps, parceque j'ai une carte téléphonique, au bureau, j'ai le téléphone, à la maison ,j'ai le téléphone et entre les deux, sur la route, c'est interdit de s'enservir alors… [rires] et pour les 10 % restant ,c'est mon temps pour moi…  ». Un autre argument des usagers, tout aussi essentiel – à savoir la réassuranceofferte par le portable – est totalement déconstruit par M. Malet (44 ans ,sans portable, cadre informaticien, trois enfants dont le deuxième enseconde, conjointe sans portable), en le réduisant au rang de« futilité  »  : « Quand je réfléchis en tant qu'informaticien oustatisticien, je me rends compte que les voitures tombent de moins en moinssouvent en panne et les crevaisons, ils vont enlever les roues de secoursparce qu'il y a de moins en moins de crevaisons, alors quand j'entends desréflexions comme ça « il me faut à tout prix un portable parce que si jecrève avec ma voiture, je téléphone à quelqu'un pour qu'il me répare  » jetrouve que c'est vraiment futile  ». Mais qu'on ne s'y trompe pas, ils ne sont en rien technophobes et sont à lapointe du progrès sur d'autres aspects (équipement informatique, internet ,etc.). Pour sa part, Gérald Gaglio (2005) évoque les usages alternatifs desréfractaires qui utilisent donc d'autres modes de communication médiatiséeque le téléphone portable. Nous conclurons qu'ils ont donc de bonnes raisonsde ne pas utiliser le téléphone portable, lesquelles bonnes raisonsconstituent in fine une véritable résistance face àune pratique sociale normative. L'explication mentionnée ci-dessus renvoie à la notion d'usage comme unconstruit social (Chambat, 1994) et démontre que le non-usage peut ainsiêtre compris comme un acte social. Toutefois, et comme le soulignentPhilippe Breton et Serge Proulx (2006  : 255), un usage peut aussis'expliquer simplement « par le poids de contraintes externes […] et par descaractéristiques propres à l'usager  » comme notamment son capitaléconomique et ses compétences techniques. Ces questions seront approfondiesdans la section suivante à partir de l'enquête réalisée auprès de collégiensallemands. La distinction entre des non-usagers involontaires des nouvelles technologiesde la communication (« have-nots  ») et desnon-usagers volontaires (« choose-nots  » ,Livingstone, Hesper, 2007; « want-nots  », vanDijk, Hacker, 2003; Selwyn, 2003) constitue le point de départ de cetteanalyse. Notre échantillon comprend 52 non-usagers dans la 1 ère vague (13 %) et 34 dans la 2 e vague( 9 %). Pour savoir dans quelle mesure le non-usage dans notre échantillonest volontaire, nous avons appliqué une échelle fondée sur trois itemsreprésentant différents indicateurs d'un non-usage volontaire, comme parexemple « Je ne regrette pas de ne pas avoir de téléphone portable  ». Le taux de ceuxqui se déclarent comme plutôt involontaires (en dessus de 2,5 sur l'échellequi va de 1 à 4) est de 58 % en moyenne pour les deux vagues. Puisquel'autonomie d'un adolescent augmente normalement quand il grandit, on peuts'attendre à une diminution du non-usage non volontaire auprès des étudiantsplus âgés. En comparant les étudiants plus jeunes avec les plus âgés, nousconstatons effectivement que le non-usage volontaire augmente au cours del'adolescence  : pour les non-usagers des 7 e et 8 e classes (13 à 14 ans), seulement 34 % se disentvolontaires, mais ce taux passe à 81 % pour les non-usagers de la 9 e et 10 e classes. Si l'usage dutéléphone portable et des tic en général reflète la croissante autonomie del'adolescent (Martin, 2007b; Holmes, Russel, 1999), le non-usage le reflèteégalement. En comparant les ressources des adolescents, on constate d'abordque les non-usagers involontaires ne disposent que de 16,02 € d'argent depoche par mois en moyenne, alors que cette moyenne est de 23,35 € pour lesnon-usagers volontaires et 26,80 € pour les usagers. Par ailleurs, 44 % desnon-usagers involontaires affirment que leurs parents ne veulent pas qu'ilsinvestissent beaucoup de temps et d'argent dans un téléphone portable, ilsne sont plus que 38 % auprès des non-usagers volontaires. Même si cesdifférences ne se révèlent pas significatives au sein de notre petitéchantillon, il apparaît cependant que les ressources financières et lesrestrictions parentales jouent un rôle dans le non-usage involontaire dutéléphone portable. Il reste alors à comprendre le comportement desnon-usagers volontaires, qui auraient pourtant les moyens et la permissionparentale de se servir de la technologie. Pour répondre à cette question, ilfaut se tourner vers les désirs et besoins de chacun (en suivant l'approcheindividualiste des usages et gratifications) et vers les normes socialesauxquelles ils sont confrontés dans leur environnement quotidien (grâcenotamment à la théorie du comportement planifié). Pour comparer lesgratifications que les deux catégories de non-usagers ainsi que les usagersvoient dans la technologie, nous nous fondons sur des échelles représentantquatre dimensions de gratifications  : le prestige, le divertissement, lagestion des relations et la sécurité. Par exemple, un item pour la gestiondes relations est  : « Pour moi, un aspect important du téléphone portableest qu'il me permet de maintenir le contact avec mes amis  ». La comparaison entre les groupes denon-usagers (illustration 1) montre que les non-usagers volontaires évaluentl'intérêt du téléphone portable comme moindre sur toutes ces dimensions. En revanche, pour lesnon-usagers involontaires, la valeur de prestige est jugée comme extrêmementimportante. Les usagers se trouvent entre les deux types de non-usagers dansleur évaluation de l'importance de la valeur de prestige, de la gestion desrelations et du divertissement. Quant à la sécurité, elle est qualifiée deplus importante par les usagers  : il s'agit d'ailleurs de la seuledifférence significative entre usagers et non-usagers. Ces chiffressoulignent le constat plus général de Neil Selwyn (2003  : 110) que lesinteractions des individus avec les tic sont plus complexes que la simpledichotomie entre « usager/non usager  » reprise par une grande partie de lalittérature existante. Ne pas considérer les non-usagers comme un groupehomogène s'avère essentiel pour l'interprétation des données présentées  :une simple distinction binaire entre usagers et non-usagers aurait montréque les non-usagers cherchent à peu près les mêmes gratifications dans letéléphone portable que les usagers et aurait alors confirmé l'idée reçueselon laquelle l'utilisation ou non résulte des restrictions desnon-usagers. La distinction entre non-usagers volontaires et involontairesdémontre au contraire que les non-usagers volontaires divergent nettementdes deux autres groupes  : c'est un désintérêt dans une technologiesuperflue qui explique le non-usage volontaire, et non les restrictions. L' être humain n'agit pas seulement en fonction des intérêts individuels, maisaussi en fonction des normes sociales de son environnement (Ajzen, 1985) .Par conséquent, la perspective individualiste des usages et gratifications( Elliot, 1974) doit être complétée par une prise en considération des normesrelatives à l'utilisation du téléphone portable. Sur la base d'étudesqualitatives préliminaires (Von Pape et al. 2006 ;Karnowski, Von Pape, 2008), deux sortes de normes ont été identifiées commedéterminantes pour l'utilisation du téléphone portable  : celles quiimpliquent une utilisation discrète de la technologie et celles qui exigentd' être en permanence joignable. Les premières compliquent souventl'utilisation du téléphone portable alors que les secondes la favorisent .Ces normes peuvent-elles expliquer davantage la volonté de certainsnon-usagers de ne pas avoir de téléphone portable ? Effectivement, on peutconstater des perceptions inverses auprès des deux groupes de non-usagers  :les normes sur la joignabilité sont perçues comme plus importantes par lesnon-usagers involontaires que par les non-usagers volontaires, alors que lesnormes sur la discrétion sont perçues comme plus importantes par lesnon-usagers volontaires (Illustration 2). Si les non-usagersvolontaires ne veulent pas utiliser de téléphone portable, ce n'est doncpas, dans la plupart des cas, en opposition avec leur environnementpersonnel immédiat, mais bien en accord avec les personnes qui lesentourent. Ce résultat ne contredit pas forcément l'hypothèse d'uneapostasie du téléphone portable auprès de notre échantillon de non-usagers ,car il se peut que les adolescents voient, au-delà de leur environnementsocial immédiat, une idéologie dominante du téléphone portable contrelaquelle ils se révoltent. La conviction que le téléphone ne répondsimplement pas aux besoins de l'individu et constitue une technologie« superflue  » peut faire partie d'une telle révolte. Il faut aussi comparerles non-usagers avec les usagers  : ces derniers attribuent une importanceégale aux deux formes de normes, mais à un niveau plus élevé que lesnon-usagers. Ceci peut être expliquépar le fait que, en tant qu'usagers, ils sont plus souvent confrontés auxnormes que les non-usagers (penser à toujours emporter le téléphone pourêtre joignable, penser à l'éteindre dans certains contextes pour êtrediscret) (Illustration 4). Nous avons démontré dans cette partie que les non-usagers ne forment pas ungroupe homogène, mais qu'ils se distinguent par les motifs du non-usage endes non-usagers volontaires et involontaires. Cette distinction permetd'identifier, parmi les non-usagers volontaires, des raisons pour lenon-usage qui vont au delà des visions déficitaires et idéologiques dunon-usager. Ainsi les non-usagers volontaires de l'échantillon voient-ilsclairement et à tout niveau un moindre intérêt dans le téléphone portable ,et ils côtoient dans leur environnement proche des normes plutôt critiquesvis-à-vis de cette technologie. L'objectif de cette première confrontation des résultats est d'affiner notreimage des non-usagers au-delà des simples visions de « retardataires  »limités dans leurs ressources et/ou irrationnels dans leur comportement. Ilfaut pourtant commencer par une concession  : certains individus dansl'échantillon des étudiants correspondent bien à cette vision déficitaire .En effet, certains d'entre eux sont des non-usagers malgré eux, en raisond'une absence d'autorisation parentale et/ou de moyens financiers. Onpourrait aussi parler d' « usagers empêchés  », car au niveau desgratifications qu'ils attribuent au téléphone portable et au niveau de lapression sociale qu'ils ressentent à être joignable en permanence, ils sontplus proches des usagers que des non-usagers volontaires. Avec l'autonomieque les adolescents gagnent au fur et à mesure qu'ils avancent en âge, lephénomène d'un non-usage involontaire diminue. Cette observation peutexpliquer pourquoi on ne trouve pas d'éléments reflétant une attitudeinvolontaire dans les discours des adultes cités ci-dessus. Néanmoins, lesadolescents ne sont pas les seuls susceptibles d' être des non-usagersinvolontaires  : un manque de moyens financiers ou de compétences techniquespeut aussi apparaître auprès des adultes, notamment les personnes âgéesrencontrent des difficultés à adhérer à la nouvelle technologie (Renaud, vanBiljon, 2008). Concentrons -nous à présent sur les non-usagers qui renoncentde façon volontaire au téléphone portable et qu'on trouve dans les deuxétudes. L'analyse des gratifications potentielles qu'ils perçoivent dans letéléphone portable révèle qu'ils n'attribuent simplement pas d'importanceaux promesses de divertissement, de prestige, de gestion des relations et desécurité. De l'autre côté, leur environnement immédiat n'est pas non plusfavorable à l'innovation  : les normes prédominantes sont plutôt strictesvis-à-vis des gênes causées par le téléphone portable, et plutôt tolérantesconcernant l'exigence d' être joignable. Toutefois, il faut souligner quel'appropriation n'a été étudiée ici que sous l'aspect des normes et desgratifications. De manière complémentaire, l'approche qualitative permet uneperspective plus globale autorisant la prise en considération, pour lesindividus interrogés, d'un environnement plus large. À première vue, lesaffirmations des adultes correspondent aux résultats trouvés auprès desadolescents, comme par exemple M. Malet qui remet en question lagratification de sécurité du téléphone portable en cas de panne de voiturequand il affirme qu'il ne craint simplement pas un tel événement. Ilapparaît pourtant que les non-usagers adultes produisent plutôt un véritablediscours engagé contre le téléphone portable, contrairement au désintérêtévoqué dans l'approche quantitative. Et ce refus engagé, qui trouve sonorigine dans un rejet de la société de consommation (voir supra), va de pair avec un discours de déconstruction sociale del'utilité de la technologie. En effet, les non-usagers reprennent leslégitimations des usagers, mais pour mieux les tourner en dérision. C'estainsi que la joignabilité, considérée comme essentielle pour les usagers ,devient au contraire caduque, inutile chez les non-usagers. De même, laréassurance que conférerait, selon les usagers, le portable, est entièrementréduite à néant par les non-usagers. En ce sens, il est possible de parlerd'une véritable continuité entre les légitimations d'usages et celles desnon-usages. Ce constat s'inscrit dans une certaine continuité déjà révéléepar les résultats quantitatifs (voir supra). En cequi concerne les normes, les deux résultats apparaissent contradictoires. Eneffet, les non-usagers adultes se présentent comme une minorité d'apostatsface à la norme sociale dominante associée au téléphone portable, alors queles non-usagers volontaires parmi les adolescents se disent en accord avecles normes dominantes, critiques vis-à-vis du téléphone portable, qu'ilscôtoient dans leur environnement proche. Une explication de ces différencespourrait être liée aux différences entres les échantillons  : d'un côté, unejeune génération plutôt conformiste et, de l'autre, des adultes rebelles .Mais un autre paramètre peut aussi être pris en compte  : l'apostasie desadultes se réfère plutôt à leur positionnement face aux normes socialesdominantes, alors que l'évaluation par les jeunes des normes dominantes dansleur environnement concerne l'entourage personnel immédiat, c'est-à-dire lesamis et la famille. Ces deux constats pourraient alors être conciliés avecl'hypothèse que l'environnement immédiat des non-usagers (adolescents etadultes) constitue un noyau critique dans une société dominée par l'emprisedu téléphone portable. Il manque les éléments empiriques pour tester cettehypothèse, mais la littérature sur les normes dans les réseaux sociauxconfirme que les réfractaires se regroupent dans des petites cellules( Kincaid, 2007). Entre autres distinctions, la dernière section a révélé que celle entrenon-usagers volontaires et involontaires se révèle heuristique dans l'analyse dunon-usage du téléphone portable auprès des adolescents  : les différences ausein du groupe des non-usagers sont plus importantes que les différences entrel'ensemble des non-usagers et les usagers. Il s'agit alors de remplacerl'opposition binaire entre usagers et non-usagers par une perspective plusnuancée qui prenne en compte la continuité entre les différentes formesd'usages/non-usages. Dans l'approche qualitative des usages du téléphone portable, nous avonsdéveloppé l'hypothèse de l'objet incorporé (Martin, 2007a) en ce que le téléphoneconstitue une véritable extension corporelle  : il reste toujours à portéede main, une condition essentielle de son appropriation, de son intégrationdans les routines corporelles. Or, cette intégration dans le quotidien nerime pas toujours avec un usage important, elle est tout autant le fait desfaibles, voire très faibles usagers pour lesquels le portable est néanmoinsdevenu tout aussi indispensable. Nous pourrions dire que ceux -ci pratiquentun usage partiel, limité. Dans le cadre de l'approche qualitative présentée( voir supra), une enquête complémentaire a étéréalisée en France sur les usages de la photo et vidéo sur téléphoneportable chez de jeunes adultes (12 interviewés, étudiants de 3 e année de licence information-communication), et nousavons émis l'hypothèse d'une véritable rationalité d'usage. En effet, face àl'importance de l'offre disponible (différents dispositifs  : appareil photonumérique, téléphone portable faisant photo, lecteur musique, etc.), ilsemble que ces jeunes adultes mettent en œuvre une rationalité d'usage quiviserait à définir un compromis, une sorte d'orientation de la pratique, etqui résulterait de l'analyse personnelle de tout un ensemble de critères  :d'abord la qualité des photos en fonction de ce que l'individu souhaite enfaire (les conserver sur l'ordinateur ou non), mais aussi les contraintesmatérielles liées à l'objet (taille de l'apn et possibilité ou non del'avoir toujours sur soi), les contraintes techniques( compatibilité des formats avec l'ordinateur pour le stockage), lescontraintes économiques (gratuité de l'email ou du postage sur msn/blogs vs coût du mms; valeur économique du téléphone vs celle de l'apn), etc. Et cet arbitrage n'a riend'absolu, il est au contraire relatif. Nous pourrions le qualifier deplastique, au sens où il ne constitue par une forme figée, mais va êtrerefaçonné en permanence et ainsi redéfinir de nouvelles configurationsd'usage en fonction des autres appareils disponibles, conduisant à unréexamen des critères. Comme l'exprime Lauriane (20 ans, portable aveccameraphone et apn, étudiante en 3 e année delicence )  : « La fonction du portable change en fonction de l'appareil àcôté  ». Le cas de cette jeune étudiante semble paradigmatique. Résumons sonhistoire  : ses parents lui ont offert il y a quelques années un apn à Noëlqu'elle utilisait alors même qu'aujourd'hui elle se permet d'avoir unjugement critique à son égard  : « Il était pas super, quand y a pas beaucoup de lumière, lesphotos elles sont atroces […] Mais il était tout de même mieux que leportable que j'avais à l'époque, le premier qui faisait photo  ». Aussi, quand elle est amenée à changer de portable, elle prend trèsattentivement en compte le critère photo dans son achat, et c'est alorsqu'elle utilise son portable (celui qu'elle a toujours au moment del'enquête) pour faire des photos, délaissant quelque peu son apn. Ensuite ,vient le temps de l'entrée à l'université, moment fort de sa vie puisqu'ilcorrespond à la rencontre de nouvelles amitiés qui compteront pour elle( voir ses photos souvenirs des » repas de fin d'année universitaire  » ou« des grèves  »). Mais surtout, c'est la rencontre sur le campus avec sonpetit ami, rencontre qu'elle voudra immortaliser, puisque l'une de sesphotos préférées sur portable n'était autre qu'un week-end avec ledit petitami : « Mon premier week-end enamoureux avec mon chéri à Disneyland  ». C'est alors qu'elle a l'idéed'offrir à ce petit ami un apn, qui réalise bien entendu de meilleuresphotos que son portable actuel. Aussi apparaît-il très vite que c'est ellequi va devenir l'utilisatrice principale de l'apn de son petit ami ,n'oubliant jamais de lui rappeler de l'emporter quand ils partent ensemble àune soirée. Elle avoue utiliser alors de moins en moins son portable, pourdes raisons essentiellement techniques influant sur la qualité de l'image  :« Le problème, c'est que le portable, il a un temps de réaction, il met 5secondes avant que l'image elle se stabilise, donc c'est dur d'avoir unephoto nette  ». Ses parents ayant finalement dû comprendre le message (ellen'utilise plus jamais l'apn qu'ils lui avaient offert à l'époque) lui ont enoffert un nouveau au dernier Noël, évidemment plus performant techniquement( qualité de l'image, etc.) que tout ce qu'elle avait eu auparavant. Et l'onimagine aisément qu'elle a délaissé tous les autres dispositifs et n'utiliseplus que celui -là  : « Donc maintenant, je l'ai tout le temps sur moi  » .C'est ainsi que cet apn compact est devenu un véritable objet incorporé, aumême titre que le téléphone portable. Ce cas paradigmatique vise à illustrercombien se mettent en œuvre des rationalités d'usage qui ne peuvent êtrecomprises qu' à la lumière des caractéristiques des autres appareilsdisponibles, mais aussi de l'histoire singulière, personnelle et affective ,de l'usager. Après cette analyse de l'usage limité dans une perspectivequalitative, nous allons tenter de comprendre ce même usage limité dans uneperspective quantitative, afin de pouvoir ensuite réaliser une confrontationde ces deux approches complémentaires d'un même phénomène. Selon la définition d'Everett Rogers, l'adoption est le choix d'uneutilisation « complète  » (« full use ») d'uneinnovation. Toutefois, une utilisation de toutes les fonctionnalitésproposées sur un téléphone portable devient une hypothèse théorique qui nese produit que dans un nombre très limité de cas. Dans notre échantillon ,seulement 4 % ont déjà utilisé au moins une fois les 9 fonctionnalitésdisponibles en plus de la téléphonie et des sms  : jouer, prendre et envoyerdes photos, enregistrer et regarder des vidéos, écouter des mp3, aller surl'internet, écouter la radio et regarder la télévision. La moitié desutilisateurs (195 pour la 1 ère vague et 157 pour la 2e vague, donc 51 % de l'ensemble des usagers pourles deux vagues) ne se sont servis que de trois de ces fonctionnalités, soitun tiers de ce qui est – à condition de disposer d'un appareil récent –techniquement possible (Illustration 4). Ce constat permet à nouveau de distinguer entre deux groupes ceux quiutilisent une large variété des services et ceux qui se concentrent sur unnombre limité. Les usagers limités (qui utilisent au maximum 3 services) seconcentrent sur les jeux (76 %), la prise de photos (37 %) et l'envoi decelles -ci (20 %). Les différences sont significatives pour toutes lesfonctionnalités hormis les jeux (Illustration 5). Cette situation s'expliqueaisément du fait que les jeux sont disponibles sur tous les appareils, alorsque les appareils photo ne sont intégrés que sur un nombre limité detéléphones. Dans un deuxième temps, comme au sein des non-usagers, on peut distinguerparmi les usagers qui se servent du téléphone de façon limitée desvolontaires et des involontaires, c'est-à-dire ceux qui aimeraient bienutiliser plus de fonctionnalités mais sont freinés par des raisonsextérieures et ceux qui choisissent librement de ne pas en utiliser plus. Labase de cette distinction est une question sur les fonctionnalités que lesparticipants souhaiteraient utiliser dans le futur. Ceux qui utilisent moinsde quatre fonctionnalités aujourd'hui et ne cherchent pas en utiliser plusdans le futur sont considérés comme des utilisateurs limités volontaires ,les autres comme des utilisateurs limités involontaires. Nous comptons dansla 1 ère vague 119 usagers limités volontaires (61 %) et76 usagers limités involontaires, pour la 2 e vague, 103usagers limités (66 %) volontaires et 54 usagers limités involontaires. Ànouveau, on constate un moindre intérêt des usagers limités volontaires pourtoutes les gratifications du téléphone portable. Pour eux, la sécurité estde loin la fonction la plus importante du téléphone portable. Les plusgrands écarts avec les usagers intensifs et les usagers limitésinvolontaires se trouvent dans la valeur de prestige et de divertissement ,deux gratifications auxquelles les nombreuses fonctionnalitéssupplémentaires peuvent donner accès (Illustration 6). Le premier constat estque, en valeur absolue, les trois groupes considèrent pareillementl'importance de la sécurité. Ce constat ne surprend pas car la sécurité nedépend pas des fonctionnalités supplémentaires  : tout appareil permetd'appeler aux urgences gratuitement. Quant aux trois autres dimensions, onpeut constater que les usagers limités volontaires y accordent moinsd'importance que les involontaires. L'usage limité volontaire s'expliquedonc d'abord par un manque d'intérêt dans les gratifications qu'on pourraittirer de la technologie. Les parallèles entre les non-usagers volontaires et les usagers limitésvolontaires sont donc évidents  : le comportement des deux s'explique moinspar des restrictions parentales, financières ou techniques que par un manqued'intérêt dans les gratifications qu'on pourrait tirer de l'innovation. Deplus, les usagers limités involontaires, comme les non-usagersinvolontaires, accordent plus d'importance à ces gratifications. Conclusion L'intention n'était pas de nous engager dans une confrontation de typeépistémologique qui opposerait les deux approches quantitative etqualitative. En revanche, la comparaison a permis d'apporter des éclairagescomplémentaires sur les nuances qui existent entre usage et non-usage et surles raisons d'utiliser un téléphone portable de façon (très) limitée ou dene pas l'utiliser du tout. L'hypothèse d'un continuum entre usage et non-usage s'est révélée fort pertinente. C'est ainsi que dansl'approche quantitative, les différences (en termes de gratificationsattendues et en termes de normes) entre les deux catégories de non-usagers( volontaires et involontaires) sont, dans la majorité des cas, plusimportantes que celles entre usagers et non-usagers. C'est pourquoi lesnon-usagers ne sauraient constituer un groupe homogène que l'on pourraitopposer de façon binaire aux usagers. Au contraire, nous avons découvertqu'un usage peut se limiter à très peu de fonctionnalités techniques sicelles -ci correspondent à ce que les usagers attendent du téléphone portableet aux normes qui existent dans leur environnement proche. Le degréd'utilisation dépend aussi de l'offre technique en compétition avec letéléphone portable, comme par exemple un appareil photo numérique. L'usageet le non-usage s'expliquent alors de manière générale par un nombre dedimensions révélées par l'usager, son environnement social et l'offretechnique; mais la question de savoir comment ces facteurs interagissentpour un usager spécifique ne peut être traitée dans une approchequantitative. Notre vue différenciée sur les formes d'usages et non-usages permet ausside mieux comprendre les non-usagers. Comme nous l'avons montré, leursdéficits (en termes de moyens financiers ou d'autorisations) ne jouent unrôle que dans les cas très spécifiques comme celui des jeunes adolescentsencore dépendants de leurs parents. Hormis ces cas, les raisons pour unusage réduit ou un non-usage étaient soit conformes aux propres intérêts etaux normes de l'environnement immédiat, soit en vive opposition au seind'une société perçue de façon très critique. Dans ce cas, une véritablecontinuité a été mise en évidence entre les légitimations d'usage et cellesdes non-usages puisque les non-usagers reprennent les légitimations desusagers pour les déconstruire dans un discours engagé de résistance face àune pratique sociale normative. Ce dernier exemple peut servir de base pourune réflexion sur la valeur ajoutée de l'approche qualitative etquantitative dans le cadre de nos questions de recherche et de noséchantillons  : pour mieux comprendre le raisonnement des individus, c'estla méthode qualitative qui a fait avancer les connaissances; lorsqu'ilétait question d'identifier les facteurs (gratifications, normes ,restrictions) qui influencent les différentes formes d'usages et non-usages ,la méthode quantitative a permis d'évaluer leur importance respective. Cesconstats correspondent d'ailleurs à ceux faits par d'autres sur lacomplémentarité des approches qualitatives et quantitatives (Verschuren ,2001). Le nombre limité des non-usagers dans les échantillons empêche d'allerau-delà de ces constats généraux et de généraliser les motivationsspécifiques des non-usagers. Une autre limite importante de cetteconfrontation réside dans le fait que, bien que s'intéressant au mêmephénomène, ces deux enquêtes ne ciblent pas les mêmes publics, elles ont étéréalisées à des époques différentes (2003/2004 pour l'enquête qualitative ,2006/2007 pour l'enquête quantitative) et elles sont issues de contextesculturels différents. Enfin, une dernière limite de taille réside dans lefait que la confrontation a été réalisée aposteriori, c'est-à-dire après la collecte des données. En effet, lesdeux enquêtes ont été conduites séparément, et c'est dans un second tempsqu'une mise en perspective a été réalisée pour tenter de mettre en évidencedes points de tension, de comparaison et de divergence. Il semble évidentqu'une autre perspective gagnerait à confronter les deux approchesquantitatives et qualitatives au préalable, afin de les associer de manièrevéritablement complémentaire dans une seule et même enquête, et ce, dans lemême contexte culturel et auprès du même public .
Pour explorer les non-usages du téléphone portable, cet article se propose de relever deux défis. D'une part, il convient de sortir d'une perspective déficitaire des non-usagers; d'autre part, les auteurs entendent remplacer la dichotomie usage/non-usage en postulant au contraire l'existence d'une véritable continuité entre usage et non-usage. En effet, cet article montre que les différences entre les divers types d'usages (incluant l'usage limité ou partiel) sont bien souvent plus importantes que celles existant entre les usages et les non-usages. Ces résultats se fondent sur une comparaison de deux approches (quantitatives et qualitatives), deux échantillons et publics différents (allemand et français), issus de deux enquêtes différentes. Si le pari d'une telle comparaison est risqué ― la confrontation souffrant de limites évidentes -, il n'en demeure pas moins qu'il permet aussi, in fine, de mieux comprendre l'usage.
sciencesInfo_11-0402692_tei_1055.xml
termith-384-communication
L'annotation et l'indexation sont des pratiques antérieures au développement des documents numériques, mais la multitude des usages tend à les fondre dans une notion de métadonnée relativement indifférenciée. Si le passage du support papier à l'ordinateur déplace les lignes, il nous semble utile de continuer à distinguer les deux problématiques pour montrer en quoi le support informatique enrichit chacune et leur permet de coopérer dans la construction d'un mode d'accès plus structuré au document, qui aurait été impensable autrefois. L'argumentation proposée explique d'abord en quoi, selon nous, l'évolution technique fait bouger les conceptions traditionnelles de l'annotation et de l'indexation (section 2). Cette analyse permet de poser un cadre unifiant que nous appelons index. La section 3 propose un modèle de cette structure d'index et montre qu'il s'applique à diverses pratiques de l'indexation. La section 4 présente de façon beaucoup plus précise l'exemple d'index que nous avons proposé pour l'intégration de la documentation réglementaire dans les systèmes de gestion des règles métiers. Nous décrivons les besoins du domaine d'application et la structure d'index qui contribue à y répondre, en montrant concrètement comment un texte réglementaire peut être indexé. La section 5 développe, à propos de la gestion des règles métiers, les fonctionnalités de haut niveau auxquelles la navigation dans la structure d'index donne accès, tandis que la dernière section élargit la réflexion à d'autres exemples d'application. À l'origine, une annotation est une remarque manuscrite notée en marge d'un texte 1. Le terme est plus restrictif que « note », la note n'étant pas en soi limitée par la place disponible dans les interstices du texte. Les notes de bas de page, notes de lecture, notes d'information, etc. sont en principe plus concises qu'un développement, un compte rendu, un rapport : l'éditeur érudit fait une note quand sa remarque mérite moins qu'un commentaire. L'annotation est plus lapidaire au contraire et laisse peu de place à l'argumentation. Elle reste souvent un texte libre dont on ne peut prévoir la forme, même s'il existe d'autres usages plus codés, comme les annotations typographiques. Un autre trait de l'annotation traditionnelle nous paraît significatif : insérée dans le texte, elle n'est accessible que par un parcours de celui -ci. L'inventaire des annotations suppose de tout lire mais, en général, cet inventaire n'est pas particulièrement intéressant : non structurées, les annotations ont peu de raison de se rassembler en une liste porteuse de sens; on peut tout au plus en faire le décompte comme le professeur qui recense les barbarismes, solécismes et contresens pour évaluer une traduction en contexte scolaire. Dans le cas des annotations, l'intention essentielle va du texte aux annotations : c'est la lecture du premier qui gouverne l'accès aux secondes. Par étymologie, l'index est le doigt qui désigne, d'où la marque qui distingue et la liste qui pointe. L'index peut être un curseur placé dans un paquet de fiches pour repérer où s'est arrêté le parcours aussi bien que la liste des livres pointés par les autorités religieuses – interdits à la lecture. En informatique, c'est une structure intermédiaire qui mémorise l'adresse de certaines données et permet de les retrouver rapidement. En fin de livre, c'est une liste de termes associés aux numéros de pages où on peut les trouver. Dans une large mesure, la sémantique du lien d'index lui est externe. L'inscription dans la liste distingue un élément parmi la liste de tous les éléments et c'est la liste elle -même qui porte la sémantique de la distinction : l'interdiction pour les livres « mis à l'index », la pertinence des mots-clefs d'un index de fin de livre. Alors que chaque annotation se lit individuellement, un lien d'index ne s'interprète que collectivement, par des critères de choix identiques pour tous les liens : on peut indexer la première occurrence de chaque terme, ou ses occurrences les plus importantes, ou sa définition; on peut aussi choisir d'indexer des concepts plutôt que des termes. Toujours est-il que l'intention va, cette fois, de l'index au texte et non l'inverse, c'est l'index qui guide la lecture, l'affranchit de la linéarité ou du hasard. Ceci étant, si l'index s'utilise de l'extérieur vers le texte ou la collection indexée, il doit être construit et sa construction se situe dans un mouvement différent : il s'agit alors de parcourir l'ensemble visé pour en extraire les adresses qui doivent être mémorisées et l'entrée d'index qui y renverra. La sélection d'une adresse et le choix de la clef associée sont analogues au processus d'annotation décrit précédemmment, à ceci près que la sémantique n'est pas libre, elle est commune à tout l'index. Cette absence de solution de continuité entre les deux notions explique que le terme « annotation » soit parfois utilisé dans un sens large pour couvrir l'ensemble mais nous allons essayer de montrer que la différence d'intention reste pertinente dans le cadre du document numérique. En changeant de support, le texte change de contraintes. Nous ne rentrons pas ici dans une analyse générale de ces changements qui sort de notre sujet mais il faut noter, pour l'annotation, que la limitation spatiale posée par la marge disparaît. On peut annoter un document électronique ad libitum, à condition de pouvoir stocker ces données supplémentaires et de trouver un moyen de les présenter au lecteur sans détruire la lisibilité de l'original. L'émergence de standards d'annotation comme Annotea 2 et de nombreux outils d'annotation (Uren et al., 2006) facilitent la construction de ces annotations tandis que les progrès techniques faits depuis vingt ans en matière d'interfaces et de présentation graphique rendent cet objectif atteignable (Hearst, 1999). Pour les structures de données qui stockent informatiquement l'écrit, la marge n'est pas un objet. De fait, l'informatique stocke relativement rarement l'image de la page et sépare souvent dans ses structures de données le texte et des éléments de présentation qui s'y appliquent. Or, sur papier, la marge offre une grande souplesse d'annotation : le texte ajouté peut avoir un ancrage et une portée précis (marqués par une astérisque ou des crochets, par exemple), une portée plus vague (un trait dans la marge) ou être simplement juxtaposée au texte. Le support électronique n'offre pas toujours la même liberté. L'annotation reste distincte du texte mais elle lui est rattachée avec une portée sans ambiguïté (le texte dans son entier ou un passage particulier). Si le support électronique ne modifie guère la manière dont un index est utilisé, il en facilite beaucoup la construction. Le coût d'une recherche de chaîne de caractères étant incomparablement réduit quand on emploie l'ordinateur, on peut construire facilement des index dont les entrées sont caractérisées lexicalement : par exemple tous les paragraphes commençant par le mot-clef « Définition » ou toutes les premières occurrences des mots d'un dictionnaire spécialisé. Associée aux possibilités de présentation, cette facilité permet d'envisager l'utilisation d'index construits à la demande selon les besoins du lecteur. Nous considérons cependant qu'allier l'annotation et l'indexation permet de passer à une caractérisation sémantique à proprement parler. L'annotation traditionnelle n'est accessible, avons -nous remarqué, que par le parcours du texte. Or le support électronique peut faciliter ce dernier : il devient possible de rassembler les annotations tout en notant leur position dans le texte. Une fois qu'elles sont ainsi rassemblées, c'est l'organisation conceptuelle de ces annotations – dans la mesure où celle -ci propose une structure d'accès significative pour le lecteur – qui constitue pour lui un moyen intéressant pour parcourir le document. Nous décrivons ici comment les structures qui servent à l'indexation peuvent être spécifiées dans toute leur généralité. Tout d'abord les termes. « Indexation » est utilisé dans la suite pour désigner le processus qui consiste à poser des annotations sur un texte et à les rassembler en suivant une organisation sémantique. Nous parlons d' « index » quand il s'agit de la structure complexe qui en résulte : elle associe une structure sémantique et un texte via des annotations sémantiques particulières. Bien qu'on emploie facilement le terme d'index pour désigner la seule structure sémantique (c'est-à-dire l'ensemble des entrées d'index), celle -ci ne joue son rôle que parce que chaque entrée est associée à un ou plusieurs éléments textuels. Les entrées d'index sont contraintes, avons -nous dit, par la structure qui les rend ef-ficientes en tant qu'accès au texte. Nous employons le terme de « modèle sémantique » pour désigner cette structure. Les fragments textuels annotés sont eux aussi contraints : ils doivent, pour la même raison d'efficience, se prêter à une unité d'usage, en général par rapport à une forme de lecture projetée. Le texte dont il s'agit est donc structuré par ces contraintes, ce que nous traduisons par la notion de « modèle de document ». Enfin, les liens qui attachent une entrée d'index à un élément textuel méritent qu'on puisse les saisir pour les inverser, les analyser, les qualifier. Nous parlons dans ce cas de « modèle de correspondance ». Plus formellement et de manière générale, nous définissons donc un index comme une structure composée de trois sous-structures. Le modèle de document détermine quels fragments de texte constituent des unités documentaires pouvant supporter un lien d'indexation. En principe, n'importe quelle liste de caractères peut être annotée mais on se limite souvent, en pratique, à des intervalles continus 3. On peut aussi typer les séquences de caractères en question pour distinguer des mots, des syntagmes, des phrases, des paragraphes, des sections de document, etc. La structure d'index dépend largement du modèle de document considéré. Dans le cas de la plate-forme KIM (Popov et al., 2003), par exemple, seules les entités nommées peuvent servir de support à l'indexation. Dans un index traditionnel comme celui de la base MedLine 4, l'unité documentaire généralement considérée est le document pris dans son ensemble. Dans d'autres cas, le modèle documentaire prend la forme d'un réseau de documents qui sont reliés les uns aux autres par des liens sémantiques 5. Le modèle sémantique, quant à lui, indique quelles unités sémantiques peuvent être associées aux unités documentaires et quelles relations ces unités sémantiques entretiennent entre elles. Ce modèle sémantique peut être un simple thésaurus (les documents de MedLine sont associés à des descripteurs extraits du thésaurus MESH 6 (Névéol et al., 2007)). Dans le cadre du web sémantique, il s'agit généralement d'un modèle ontologique mais il est souvent utilisé de manière partielle comme dans (Popov et al., 2003; Amardeilh, 2007) où seules des instances peuvent être utilisées pour annoter 7 alors que nous proposons de généraliser l'approche en donnant n'importe quel élément de l'ontologie (concept, rôle, instance de concept ou de rôle) comme cible du lien d'indexation. Le modèle de correspondance associe des unités documentaires (), à des unités sémantiques (). Dans le cas le plus simple, un lien d'indexation se représente comme un couple (,) mais ces liens peuvent porter des propriétés : on peut les typer pour marquer le rôle que le fragment de texte joue par rapport à l'unité sémantique (définition vs. exemple), indiquer l'usage pour lequel ils sont proposés (spécialisé vs. grand public), leur associer un poids de pertinence, garder trace de leur l'origine, etc. Dans le cas général, un lien d'indexation se représente donc comme un triplet () où est la liste des propriétés du lien associant à. Rien dans ce schéma n'impose de restreindre la structure sémantique à des concepts, des rôles et leurs instances. Les modèles ontologiques sont des outils commodes mais leur pouvoir d'expression est limité : il est plus restreint que celui de la logique du premier ordre, qui elle même ne rend pas compte de tous les contenus langagiers. Les textes réels, fussent-ils dédiés à des applications techniques, ont des contenus qui débordent le cadre de ce qui peut se représenter sous la forme d'ontologies : la section 3.3 montre que cette structure sémantique peut être élargie pour mieux rendre compte des prédications, actions, événements que les textes réglementaires mentionnent; pour d'autres cas d'usage, il faudrait modéliser les points de vue ou différents états chronologiques. A noter également que les unités sémantiques ne s'identifient pas aux éléments mémorisés. L'indexation documentaire illustre très bien ce point. Chaque document possède une liste de mots-clefs et l'unité mémorisée est l'association (document, motclef) mais l'accès à l'ensemble documentaire se fait par des requêtes qui sont des combinaisons de mots-clefs et l'ensemble des documents associés est calculé dynamiquement 8. Le modèle sémantique est en fait l'ensemble des requêtes acceptables pour le système mais ses unités restent virtuelles et seuls les mots-clefs sont réalisés. Ce processus repose sur l'existence d'opérateurs qui permettent de combiner les unités sémantiques pour en créer de nouvelles et qui se traduisent directement en termes d'indexation : par exemple, l'association d'un document à la clef composée et doit se déduire de son indexation par et par. Enfin, les liens d'indexation décrits dans le modèle de correspondance ne sont pas orientés. Le support informatique permet de les utiliser dans les deux sens. C'est ce jeu d'aller-retours entre deux modèles qui transforme véritablement l'index en espace de navigation. La plupart des pratiques modernes d'indexation et d'annotation se rattachent au modèle d'index décrit ci-avant. Citons quelques exemples classiques. L'exemple le plus simple et peut-être le plus emblématique est celui de la recherche d'information. Dans un moteur de recherche, le modèle de document se caractérise par sa taille – jusqu' à plusieurs milliards de pages web – et sa simplicité, un texte étant représenté par une séquence de mots. La structure sémantique de l'index est constituée par le vocabulaire des documents. Le modèle de correspondance associe aux motsclefs les documents qui les contiennent. Dans ce cas, la richesse de l'index est moins portée par la structure de l'ensemble des clefs d'indexation (modèle sémantique), que par le nombre de liens d'indexation, les poids qui leur sont associés et le langage de requêtes qui permet dynamiquement de combiner différents mots-clefs en requêtes complexes (Baeza-Yates et al., 1999). Dans le cas du moteur de recherche, le parcours va de l'index au texte plutôt que dans le sens inverse, même si on peut pondérer les mots-clefs par des informations issues des textes, à commencer par leur fréquence d'apparition. Un exemple très traditionnel est celui des index de fins de livres (Mulvany, 1993; University of Chicago Press Staff, 2003) dont il a déjà été question précédemment et qui sont aujourd'hui revisités à la faveur de la mutation numérique pour faciliter et enrichir les index des ouvrages papier (Nazarenko et al., 2007) mais aussi pour les adapter aux documents numériques et les intégrer à des moteurs de recherche (Anick, 2001) ou à des applications de navigation (Wacholder et al., 2001). L'idée consiste en général à analyser le contenu du texte pour extraire les mots-clefs les plus pertinents et les organiser en un index qui donne accès aux différents segments de texte. L'originalité vient de ce que ces index peuvent être calculés dynamiquement à partir des documents retournés par une première requête, là où l'indexation classique est statique. Dans ce cas, la structure sémantique est donnée par l'ensemble des mots-clefs extraits et la structure qui lui est associée – liste plate, liste hiérarchisée, nuage de mots ou diverses métaphores visuelles (Hearst, 1999) –, la base documentaire est constituée de la liste des documents retournés par le moteur de recherche en réponse à une requête et les liens d'indexation sont calculés dynamiquement lors de l'extraction des mots-clefs. Il faut cependant souligner que ce type d'index est conçu pour naviguer de la structure sémantique vers le texte uniquement. A l'opposé des moteurs de recherche se situe le modèle d'indexation du web sémantique qui vise à associer aux documents une sémantique formelle interprétable par des agents logiciels (Bontcheva et al., 2003; Kalyanpur et al., 2003). Dans ce cas, le modèle sémantique est généralement donné par une ontologie ou un ensemble d'ontologies et les liens d'indexation traduisent l'interprétation qui est faite du contenu documentaire. Les tailles de la collection documentaire, du modèle sémantique et de l'index lui -même sont beaucoup plus réduites que dans les exemples d'application précédents mais le modèle sémantique sert de support à des raisonnements dont nous montrons plus loin la richesse et l'intérêt. Dans ce type d'index, la navigation peut aller dans l'un ou l'autre sens, soit que l'ontologie éclaire le texte, soit que le texte serve à enrichir l'ontologie (Handschuh et al., 2003). Avec les folksonomies, le web 2.0 présente une nouvelle forme d'indexation, dite « sociale », où les liens d'indexation sont posés librement par les utilisateurs qui construisent de la sorte une structure sémantique représentée généralement sous la forme de nuages d'annotations ou de « tags ». Ces regroupements induits confèrent au modèle sémantique une structure plus riche qu'une simple liste de mots-clefs mais moins formalisée que dans le web sémantique. Le nombre des annotations compensant pour partie la pauvreté sémantique de l'index, cette structure sémantique lâche permet d'opérer des rapprochements entre documents ou entre annotateurs. Ce type d'annotation apparaît de plus en plus complémentaire de l'indexation classique des documentalistes (Chan, 2009). Dans ce dernier cas de figure, on parcourt les liens d'indexation essentiellement pour accéder aux documents mais le parcours inverse existe aussi : il permet de regrouper des mots-clefs en nuages qui éclairent à leur tour la sémantique de la collection de documents. Le tableau 1 montre comment ces différents types d'index se positionnent les uns par rapport aux autres. Divers types d ' index Cette section montre comment la structure d'index précédente peut être utilisée dans un contexte particulier, celui de la gestion des règles métiers qui vise à mettre en œuvre les politiques d'entreprises dans des systèmes d'information. Nous montrons l'intérêt de l'indexation des documents réglementaires qui expriment les politiques d'entreprises. « Un système de gestion de règles métiers (en anglais business rules management sytem, ou BRMS) est un logiciel qui gère et supporte les règles métiers d'une organisation ou d'une entreprise » 9 et assiste ainsi la prise de décision de cette organisation ou de cette entreprise. Il peut s'agir du calcul de l'impôt d'un contribuable comme de l'attribution de points à des clients ou du contrôle qualité d'un processus industriel. La mise au point d'un tel système repose sur l'acquisition des règles du métier considéré, leur représentation dans une forme interprétable par la machine ainsi qu'un moteur d'inférence efficace capable d'orchestrer un ensemble éventuellement très important de règles et de contrôler leur application sur des cas particuliers. Cette question de l'acquisition des règles métiers a été abordée jusqu'ici sous deux angles différents. Le premier consiste à définir un langage contrôlé et à demander aux personnes en charge d'écrire les règles de les écrire dans ce langage contrôlé. C'est l'approche adoptée dans Oracle Policy Automation (OPAdoc, n.d.) qui vise l'application de textes réglementaires à des cas particuliers ou dans le projet Sparcle d'IBM (Carolyn Brodie, 2006; Reeder et al., 2007) qui porte sur les règles d'accès à l'information dans un gros système informatique. Ces deux projets utilisent en fait des langages contrôlés fortement contraints, accompagnés dans le second cas d'une assistance à l'écriture par listes de mots. Ces langages restent en principe assez familiers à l'utilisateur mais ils sont loin des textes qui formulent les politiques à l'intention de l'entreprise ou de ses clients. Il faut donc tout reformuler manuellement. La seconde approche s'intéresse davantage à la langue naturelle et tente d'avancer dans l'analyse automatique des textes réglementaires dont les documents de spéci-fication en langue naturelle peuvent être vus comme un cas particulier. A. Joshi et al. ont étudié la conformité de procédures à des textes réglementaires (( Dinesh et al., 2006; Dinesh et al., 2007; Dinesh et al., 2008)). Ils décrivent ces derniers par des arbres syntaxiques abstraits, dont ils estiment qu'un ingénieur peut les traduire dans une logique CTL 10. Les procédures sont par ailleurs modélisées comme des graphes de transition et la conformité du modèle à la logique est vérifiée avec des techniques de model-checking. Dans le domaine plus large des spécifications en langage naturel, (Ambriola et al., 2006) proposent une architecture générale dont la première phase est aussi l'extraction d'un arbre syntaxique qui est ensuite traité par divers modules de modélisation. Malheureusement, le langage analysé reste fortement contraint, ce qui nous ramène à la première stratégie. L'architecture proposée par (Santiago et al., 2009) traduit du langage naturel en formules logiques à partir desquelles des tests peuvent être générés mais le module d'analyse du langage naturel n'en est encore qu'au stade de prototype. Le projet Ontorule 11, dans lequel s'inscrit ce travail, propose une troisième voie. L'objectif est de concevoir une plate-forme d'acquisition, de maintenance et d'exécution qui rende les règles du système accessibles aux gens du métier de manière à ce qu'ils puissent à la fois contrôler l'écriture des règles, assurer leur mise à jour et comprendre le pourquoi des décisions proposées par le système. Cette exigence d'accessibilité se traduit par une double contrainte : les règles doivent être exprimées à un niveau conceptuel, avec un vocabulaire qui soit explicite et, autant que faire se peut, maîtrisable par les gens des métier. Ce vocabulaire est exprimé dans une ontologie formelle du domaine et les règles doivent faire référence aux éléments de cette ontologie; l'ensemble des connaissances du système (ontologie et règles) doit être documenté, ce qui suppose de faire le lien avec les politiques et réglementations telles qu'elles sont rédigées, quand elles le sont. Dans le contexte de la gestion des règles métiers, le document informatique a ainsi un double rôle : il est à la fois source de connaissances et document de référence. Même si les deux aspects sont liés, nous ne développons pas le premier qui renvoie à la question de l'acquisition des connaissances à partir de textes (Cimiano, 2006; Aussenac-Gilles et al., 2008; Mondary et al., 2008). Nous mettons l'accent sur le deuxième aspect qui relève de la problématique de l'indexation. Dans le contexte de la gestion des règles métiers, la structure d'index telle qu'elle a été définie précédemment montre tout son intérêt : elle permet d'articuler le texte et un modèle sémantique qui est ici composé non seulement d'une ontologie mais aussi d'une base de règles (voir section 4.2). L'index construit ainsi un espace de navigation dont nous montrons l'utilité pour la gestion des règles métiers dans la section 5. Il existe une grande diversité de textes réglementaires. Nous en présentons quelques exemples ici. Le premier exemple est celui sur lequel s'appuie le reste de l'article. Il s'agit de la description publique du règlement du programme de fidélisation (AAdvantage) de la compagnie American Airline. Ce texte, d'une dizaine de pages, publié sur le site de la compagnie 12, décrit les droits et devoirs du client lorsqu'il utilise le programme et explique les règles d'attribution des bonus et points de fidélité aux passagers de la compagnie, à partir des kilomètres (miles) de vol qu'ils effectuent. Voici un extrait de ce règlement : AAdvantage flight mileage credit is determined on the basis of nonstop distances between the airports where your flight originates and terminates. On connecting flights, you'll receive mileage credit for each segment of your trip. On single-plane flights, you'll receive the nonstop origin-destination mileage. Mileage credit cannot be earned for the same flight in more than one of the following programs : the AAdvantage program or any other loyalty program in which American Airlines participates 13. Un autre exemple provient du règlement financier des projets européens 14 : There is only one pre-financing payment (advance payment) during the life of the project. It will be received by the coordinator at the beginning of the project and in any case within 45 days of the entry into force of the grant agreement (unless a special clause stipulates otherwise). The coordinator will distribute it to the other beneficiaries : Once the minimum number of beneficiaries as required by the call for proposals have signed and returned Form A (accession form), and Only to those beneficiaries who have signed and returned Form A. Like any other payment, the coordinator will distribute the pre-financing to the other beneficiaries in conformity with the ECGA and the decisions taken by the Consortium Un troisième exemple est donné par l'accord signé par les présentateurs des " tutorials " organisés dans le cadre de la conférence AAAI-10 15 : Tutorial Speaker Reimbursement Each tutorial speaker receives a grant of $500.00 to assist with his or her travel to the conference. A maximum of two speakers per tutorial (or $1000 per tutorial) will be awarded travel grants. More information regarding travel funds is included in the attached speaker agreement. Comme on peut le constater, ces textes réglementaires décrivent un aspect métier de l'entreprise ou d'une organisation. Il s'agit de textes où l'entité en question définit des règles de gestion internes (pour ses agents) ou externes (pour ses clients ou son public) sous forme de contraintes, droits, devoirs, juridictions, autorités, etc. Pour l'essentiel, la terminologie est spécialisée et employée de manière précise, même si on rencontre des cas d'ambiguïté ou des erreurs dans l'emploi de certains mots. Il est évidemment important, pour la compréhensibilité des règles, qu'elles soient exprimées dans des termes aussi proches que possible de cette terminologie, d'où l'importance d'une ontologie qui fixe le vocabulaire conceptuel à utiliser. Les règles peuvent être exprimées sous des formes très diverses. Même quand elles sont exprimées de manière concise (en quelques phrases comme dans les exemples cidessus) elles font référence à des termes qui sont définis par ailleurs et peuvent être en dépendance avec d'autres règles. On constate qu'en dépit des efforts de précision dans la rédaction, il reste des implicites dans ces textes. La phrase qui fixe la somme globale allouée pour un tutorial ($1000 per tutorial) semble contredire la précédente, une apparente incohérence qui ne pose pas de problème au lecteur humain, lequel comprend le sens général et rétablit la bonne interprétation sans même en avoir conscience, mais qui en poserait davantage à un moteur d'inférence si les deux règles étaient formalisées de manière indépendante. Le modèle d'index présenté dans la section 3.1 peut être mis en œuvre pour la gestion des règles métiers. Il est appliqué ici au système de gestion de points de fidélité destinés aux voyageurs utilisant régulièrement les services de la compagnie American Airline. La figure 1 montre un fragment de ce texte différent de celui cité ci-avant où sont sélectionnées quelques règles métiers spécifiant la période de validité des points de fidélité. L'indexation des règles soulève une double difficulté : une règle possède une sémantique complexe qui n'est pas le plus souvent représentable par une ontologie et elle concerne des fragments de texte plus larges que ceux reliés aux éléments de l'ontologie. En suivant le standard SBVR (Standard Business Vocabulary and Rules 16) destiné à la représentation des vocabulaires et règles métiers des organisations, nous distinguons trois types de règles. – Les règles opératoires aboutissent à une prise de décision. Elles sont généralement déclenchées par un événement particulier et conduisent à l'exécution d'une action (respectivement décrits dans les parties condition et conclusion de la règle). Nous les représentons de manière informelle comme suit : Quand condition vraie Necessaire action … Index pour la gestion des règles métiers Exemple : « Un membre du programme AAdvantage qui voyage sur un segment de vol éligible doit voir son compte crédité du nombre de points correspondant à la base kilométrique de ce segment de vol. » – Les règles structurelles décrivent des propriétés qui restent valides dans tous les états de l'application. Elles peuvent être représentées sous la forme : Si condition vraie Alors conclusion vraie Exemple : « Un segment de vol a une base kilométrique unique. » – Les règles de dérivation indiquent des procédures de calcul ou d'inférence qui permettent d'ajouter de la connaissance à celle acquise. Ces représentations et ces types de règles font partie intégrante du modèle sémantique que nous avons proposé, même si celui -ci est encore susceptible d'évolution, notamment en ce qui concerne les types de règles et les relations entre règles (subordination, exception, etc.). La structure d'index proposée pour les systèmes de gestion des règles métiers repose donc sur le modèle présenté en section 3.1 mais avec une structure sémantique enrichie par rapport au modèle ontologique (tableau 2). Cette structure sémantique est composée d'une ontologie et d'une base de règles comme présenté dans la figure 2. Nous distinguons, dans la base de règles, deux sousensembles de règles qui correspondent respectivement aux règles structurelles et aux règles opératoires. Toutes ces règles sont considérées comme des unités sémantiques au même titre que les concepts, rôles ou instances de l'ontologie : elles peuvent être mises en correspondance avec une unité documentaire. Comme les règles sont ellesmêmes exprimées dans les termes de l'ontologie, on dispose en réalité de liens d'indexation supplémentaires, non pas entre le texte et la structure sémantique mais internes à cette dernière. Nous en verrons l'utilité dans la section 5. Pour implémenter cet espace de navigation autour des textes, de l'ontologie et des règles, il est important que le format de représentation de la structure d'index soit uniforme et compatible avec celui des ressources dont nous disposons a priori. Les textes réglementaires sont en général sous forme brute (.doc,.pdf, etc.), d'où la nécessité de les avoir dans un format pouvant supporter le modèle documentaire prévu i.e. un texte vu comme l'arborescence de ses unités textuelles (sections, sous-sections, paragraphes. .. phrases). L'ontologie est en OWL (Ontologie Web Language (Hendler et al., 2004)), ce qui facilite l'accès direct aux différents objets conceptuels et permet une grande portabilité sur les outils existants. Les règles métiers telles que nous les extrayons des textes doivent être traduites en règles formelles et opératoires. la plupart des langages de règles ont une représentation en RIF (Rule Interchange Format). OWL et RIF sont des standards W3C du web sémantique qui reposent sur des langages dérivés de XML. Nous utilisons cette même famille de standards pour représenter le texte, les règles métiers et l'ensemble des liens du modèle de correspondance. Le texte est représenté dans un format XML calqué sur la structure du document initial, comme illustré ci-après. Les balises marquent l'ensemble des unités textuelles allant du document à la phrase. Celle -ci est le plus bas niveau représenté dans l'arborescence car la segmentation en mots reste implicite. Considérons le premier exemple de la section 4.1.2 tiré du document AAdvantage. La troisième phrase de l'exemple est la 25e du texte 17. Les deux exemples suivants présentent respectivement un fragment de l'ontologie (la définition en OWL du concept Mileage_Credit) et la représentation en XML de la règle R 3 décrite par la phrase étiquetée S 25 dans le document. La règle fait référence au concept AAProgram qui regroupe tous les programmes de fidélité auxquels American Airlines participe. Comme en RIF l'étiquette <Frame> signale un prédicat avec variables qui peut faire l'objet de traitements particuliers. Les liens entre le texte et les ressources sémantiques sont décrits sous forme de triplets RDF (Resource Description Framework (Ora et al., 1999)). L'extrait ci-après présente deux exemples de liens. Le premier associe la chaîne de caractères située entre les positions 0 et 14 de la phrase S 25 et le concept Mileage_Credit. La seconde associe toute la phrase S 25 à la règle R 3. Pour manipuler l'index au niveau sémantique et exploiter la richesse de sa structure, nous avons conçu une interface de navigation dans cette structure. Cet espace de navigation se décompose en trois zones principales comme le montre la figure 3. Le texte est affiché dans une fenêtre centrale (zone 2), phrase par phrase dans cette version préliminaire. Le modèle sémantique est présenté en deux parties : la zone 1 à gauche donne accès à l'ontologie et les règles sont visibles dans la zone 3 à droite. Ce modèle est unifié dans la mesure où les règles sont liées aux éléments de l'ontologie. Les occurrences du concept sélectionné dans l'ontologie sont automatiquement marquées en couleur (rouge à l'écran, plus foncé dans la figure) dans le texte de même que l'unité documentaire associée à une règle sélectionnée (en vert à l'écran, plus claire ici). Revenons plus en détail sur le texte d'American Airlines présenté en section 4.1.2. Trois concepts décrivent le parcours effectué par le voyageur. Un vol (Flight) représente un trajet entre deux aéroports. Le concept se subdivise en vol avec correspondance (Connecting_Flight) où l'on utilise plusieurs avions, et vol sans correspondance (Single-Plane_Flight) qui peut comporter des escales, mais pas de changement d'avion. Dans le cas où le trajet total utilise plusieurs avions, il se décompose en Segments parcourus dans le même avion, depuis le point où l'on y monte jusqu' à celui où on le quitte. Tout vol, qu'il s'agisse d'un vol direct, sans changement d'avion, d'un segment de vol ou d'un trajet composé de plusieurs segments, est associé à deux rôles : son point de départ et sa destination qui sont tous les deux remplis par des aéroports. Le concept de distance en vol direct n'est pas un concept physique : il s'agit d'une distance conventionnelle entre deux aéroports, détachée du trajet réel effectué, renvoyant souvent à une réglementation interne. Il est désigné dans l'ontologie par Actual_Base_Miles (base kilométrique effective), terme plus souvent employé dans d'autres parties du texte. Chaque segment entre dans un rôle has_base_mileage qui n'est pas nommé dans le texte mais qui lie un segment à sa base kilométrique effective. La première phrase du texte n'est pas une règle 18 : elle donne une information, mais n'est pas assez précise pour déterminer exactement des actions ou des contraintes. La dernière est une règle de non cumul qui a un caractère opératoire 19 : elle impose de vérifier les programmes de fidélité auxquels le bénéficiaire participe. La seconde phrase 20 comme la troisième 21 indiquent des règles structurelles. Le mode de calcul est clair et suffisamment déterminé mais il apparaît dans une autre partie du texte que les kilomètres ne sont portés au crédit de l'utilisateur qu' à sa demande et à condition qu'il fournisse des documents (billet ou autres). En fait, les règles doivent être enchaînées : si la première tire les conséquences de la décomposition d'un vol en segments, seule la seconde précise le crédit attaché à chaque segment, le même que si l'on prenait un vol direct, donc sa base kilométrique effective. La qualification des règles dans l'annotation reflète un point de vue, ici celui de l'entreprise : pour le client, le non cumul est simplement une règle structurelle. On peut noter que la dernière phrase de l'exemple renvoie à une autre règle structurelle implicite dans le reste de la citation : seul un membre du programme de fidélité peut se voir attribuer des crédits kilométriques. Les conditions de cette attribution sont précisées à plusieurs endroits. On pourrait facilement commettre une autre erreur : il faut rapprocher ce passage d'autres précisant le mode de calcul du crédit kilométrique en fonction de la classe de service et du statut du membre du programme considéré (or, élite, etc.). Nous utilisons ici une version simplifiée qui se contente d'attribuer à un membre un coefficient multiplicateur et qui représente le droit d'un client à bénéficier d'un programme pour un voyage par un prédicat granted-in(). Les règles se traduisent par : R1 Si connecting-flight(F) et AAmember(M) et has-segment(F, S) et granted-in(F, AAdvantage,M) Alors granted-in(S, AAdvantage,M) R2 Si single-plane-flight(F) et AAmember(M) et granted-in(F, AAdvantage,M) et has-miles(F, Abm) et has-coef(M,r) Alors earns(M, Abm ×r) R3 Quand flight(F) et AAmember(M) et AAprogram(P) et P ≠ AAdvantage et granted-in(F,P,M) Necessaire ¬ granted-in(F, AAdvantage,M) L'indexation de ce fragment par l'ontologie et les règles est représentée dans la figure 4 qui montre la richesse de l'index. Après l'analyse détaillée qui précède, cette section vise à donner une vue d'ensemble de l'index construit. Sans entrer dans le détail – car ce n'est pas l'objet de cet article –, nous expliquons rapidement le processus de construction de l'index puis nous décrivons le résultat obtenu. Dans le cas particulier d'American Airline, la construction de l'ontologie a été guidée par TERMINAE (Aussenac-Gilles et al., 2008) qui permet à un ingénieur de la connaissance de constuire une ontologie de domaine à partir d'un corpus d'acquisition. Le module d'annotation exploite les connaissances lexicales obtenues lors de la construction de l'ontologie pour annoter de nouveaux textes au regard de cette ontologie. Même si son développement n'est pas achevé, il permet déjà d'avoir une bonne couverture d'annotation pour tous les éléments de type concepts et instances de concepts (elle est plus faible pour les rôles). L'éditeur de règles permet de formaliser les règles à partir des fragments de textes réglementaires. Il est en cours de test. Cet effort de modélisation et de développement a permis d'obtenir, dans ce cas d'usage, une ontologie et une base de règles réalistes ainsi qu'une bonne annotation du corpus réglementaire pour ce qui touche aux concepts, instances de concepts et règles. Un premier prototype de moteur de recherche permet de tester les premières fonctionnalités de navigation sur l'index ainsi créé. Ce sont ces expériences dont nous faisons état ici. Le texte lui -même représente 11 pages et nous adoptons une structuration simple en phrases. A partir des 973 candidats termes extraits du texte, une ontologie a été construite : elle comporte 137 concepts du domaine, auxquels s'ajoutent 50 concepts plus généraux extraits de LKIF 22. 10 classes principales regroupent les différentes catégories de concepts en jeu. Cette ontologie comporte également une cinquantaine d'instances de concepts qui ont été créés à partir des termes ou des entités nommées extraites du texte, même si le texte est principalement une description générique des règles d'attributon de bonus. La construction de l'ontologie à partir de textes conduit également à associer des termes à des concepts de l'ontologie, ce qui permet ensuite une annotation normalisée des textes. Par exemple, les termes miles, mileage, mileage credit, actual miles, base miles renvoient en l'espèce au même concept Mileage, de même que ticket, flight et fare, codeshare flight et codeshare service 23 sont utlisés dans les règles de manière interchangeable pour désigner la place réservée et payée par le client sur un vol donné. Répartition des règles A ce stade, l'ontologie est moins riche en rôles, l'accent ayant d'abord été mis sur les concepts du domaine. L'analyse en cours montre cependant l'importance des rôles dans le domaine (ex. [Passenger] earns [Benefit ], un passager bénéficie d'un avantage, ou [Passenger] books [Flight ], un passager réserve une place sur un vol). Le repérage et la formalisation de ces rôles sont importants pour guider l'interprétation du texte : l'argument de type Passenger n'est explicité dans le texte que pour la moitié des occurrences du premier rôle ci-dessus et jamais pour le second. Dans certains cas, l'ontologie permet de mettre en évidence des phénomènes de métonymie et d'éviter les erreurs d'interprétation, fréquentes pour qui ne connaît pas très bien le domaine. Dans « rail services earn miles » (litt. les services ferroviaires obtiennent un crédit kilométrique), il faut ainsi comprendre qu'une personne obtient un crédit kilométrique quand elle utilise des services ferriviaires. La création des règles se fait à l'aide d'un éditeur de règles qui permet de reformuler progressivement les fragments du texte initial exprimant des règles en règles formelles. Ce travail de reformulation s'accompagne souvent d'étapes de décomposition ou de regroupement de règles. Nous avons identifié 199 règles dans le corpus qui se répartissent dans les 5 catégories du standard SBVR (voir tableau 3) : des règles structurelles, opératoires et de dérivation, déjà mentionnées à la section 4.2.1, auxquelles s'ajoutent des politiques, trop imprécises pour être opératoires 24 et des politiques métier très générales 25. La couverture de l'annotation du corpus est bonne pour les parties riches en règles. Si l'on considère les fragments de textes d'où les 199 règles identifiées sont dérivées, on note qu'ils comportent en moyenne 4 occurences de concepts de l'ontologie. Le minimum est de 2 occurrences, ce qui signifie que toutes les règles sont reliées dans l'espace de navigation. L'index se présentant comme une structure d'accès aux ressources indexées, la structure d'index proposée constitue un espace de navigation entre ressources documentaires et sémantiques à travers le modèle de correspondance. Selon la définition de ce dernier, le parcours entre les ressources n'est pas orienté et peut alors s'effectuer dans les deux sens. Nous présentons dans cette section les fonctionnalités de navigation qu'un tel index supporte puis nous montrons comment elles peuvent être utilisées pour la gestion des règles métiers en reprenant l'exemple précédent du texte d'American Airlines. La section 6 montrera ensuite comment cette approche peut être généralisée à d'autres types d'applications. L'index que nous avons présenté en section 3 ouvre en réalité trois espaces de navigation inter-reliés : la navigation intra-documentaire permet de passer d'une unité documentaire à une autre suivant des parcours hiérarchiques ou linéaires, par des recherches de motifs, voire, quand ils existent, en suivant des liens hypertextuels; la navigation sémantique est très dépendante de la structure sémantique : les éditeurs d'ontologies 26 permettent par exemple de parcourir les ontologies et de répondre à des requêtes sur des structures ontologiques. La particularité du modèle sémantique présenté dans la section précédente vient de ce qu'il articule une ontologie et une base de règles, permettant ainsi, à partir d'une règle d'accéder aux concepts auxquels elle fait référence et inversement de trouver les règles qui font intervenir un concept donné; la navigation sémantico-documentaire repose sur l'index à proprement parler, permettant de passer du document à la structure sémantique et inversement. Nous mettons ici l'accent sur cette troisième forme de navigation qui repose directement sur l'index, même s'il est clair que ses potentialités sont décuplées du fait qu'elle est reliée aux autres et que l'on peut ainsi enchaîner des parcours dans les trois espaces de navigation. La navigation dans l'index repose sur plusieurs opérations : le parcours de lien permet de retrouver les éléments de l'ontologie ou les règles qui annotent un fragment textuel donné ou, inversement, les passages textuels indexés par un élément de l'ontologie ou une règle; au-delà du parcours à proprement parler, l'interrogation de l'index permet de retrouver toutes les unités sémantiques liées à une unité documentaire ou toutes les unités documentaires rattachées à une unité sémantique. Cela ouvre la voie à des calculs de pertinence, à des analyses d'ambiguïté, des mesures de couverture, etc.; à partir de là, on peut mesurer la similarité des unités documentaires (resp. des éléments sémantiques) en comparant les liens qui les relient aux éléments sémantiques (resp. aux unités documentaires). De même qu'on mesure classiquement la similarité de deux mots en comparant les vecteurs formés par les unités sémantiques qui sont associées à chacun, on peut comparer deux règles sur la base des vecteurs d'unités documentaires auxquelles elles sont attachées. À ce stade, pour une règle R donnée, nous nous contentons d'ordonner toutes les règles voisines en fonction du nombre d'unités sémantiques qu'elles partagent avec R mais cette approche est réductrice. Il faudrait tenir compte d'autres facteurs comme la diversité des annotations, par exemple. D'autres mesures de similarité sont à l'étude; ces opérations peuvent ensuite être généralisées à l'index dans son ensemble, ce qui permet de mesurer le degré de couverture de l'ontologie et de la base de règles dans les textes, d'identifier les zones documentaires qui sont mal indexées et les unités sémantiques qui n'ont pas de contrepartie documentaire, ou au contraire de repérer les unités documentaires les mieux indexées et les unités sémantiques les mieux ancrées dans le texte. L'association de fonctionnalités élémentaires, i.e. le parcours successif de plusieurs liens, montre comment le texte et les annotations sémantiques s'éclairent l'un l'autre. Écrire les règles métiers qui modélisent la réglementation en vigueur dans un domaine d'activité donné (par ex. les règles d'attributions des points de fidélités aux voyageurs d'une compagnie aérienne) est une tâche longue et difficile dont il est délicat de garantir la qualité. Le problème est d'autant plus critique que les réglementations sont en réalité amenées à changer assez régulièrement. L'index tel que nous l'avons conçu doit permettre de guider ce travail de modélisation. Si le texte est déjà indexé au regard d'une ontologie, le fait de sélectionner dans le texte un fragment qui exprime une règle donne directement accès aux éléments sémantiques qui sont mentionnés dans ce fragment et qui ont des chances d'apparaître aussi dans la/les règles qui seront modélisées à partir de ce fragment. Supposons en effet que la personne chargée de l'écriture des règles sélectionne la phrase On connecting flights, you ' ll receive mileage credit for each segment of your trip 27 et cherche à modéliser la règle qu'elle exprime pour obtenir la règle R 1 mentionnée ci-dessus. Si la phrase est déjà annotée comme dans la figure 5, tous les concepts sont déjà explicités (y compris quand les mots ne correspondent pas directement au label du concept comme dans trip qui est annoté Flight) et la mention d'un rôle devrait elle -même été identifiée, ce qui facilite grandement l'écriture de la règle : le travail peut se concentrer sur la sémantique de la règle elle -même plutôt que sur les éléments de vocabulaire à utiliser. L'environnement d'analyse des règles que nous construisons tire profit de la connexion avec l'ontologie pour proposer une étape de normalisation du vocabulaire : chaque terme annoté est, sous le contrôle de l'expert, remplacé par le terme vedette associé à ce concept. Un système de gestion de règles métiers prend des décisions par application de sa base de règles et il est souvent important de rendre compte des résultats, des inférences qui sont faites ou des décisions qui sont prises. La première étape est généralement facile. Elle consiste à indiquer les règles qui ont été utilisées dans le processus inférentiel ayant conduit à la décision. Ce premier niveau d'explication peut être précieux pour les utilisateurs si les règles sont écrites à un niveau suffisamment conceptuel pour être compréhensibles. L'étape suivante consiste à expliquer les règles elles -mêmes et c'est là que la traçabilité assurée par l'index est précieuse : on peut remonter des règles aux fragments de textes dont elles sont issues même si ces fragments de texte sont incomplets ou ambigus. Cette traçabilité est en fait déjà importante dans la mise au point des règles, notamment quand des problèmes d'incohérence apparaissent dans la base de règles. C'est le cas par exemple si plusieurs règles aboutissent directement ou indirectement à des conclusions opposées à partir des mêmes conditions initiales. Il faut alors corriger les règles pour maintenir le système en état de fonctionnement et le fait de pouvoir revenir au texte permet de confronter les fragments réglementaires dont les règles sont issues. On peut ainsi déterminer si l'incohérence a été introduite lors de la modélisation, suite à une interprétation erronée ou partielle d'un fragment textuel, ou si elle provient du texte qui est lui -même incohérent. L'index ne permet pas de lever l'incohérence mais de la circonscrire, ce qui est un préalable à sa résolution. Un simple inventaire des règles dispersées dans le texte et gouvernant le calcul des avantages en crédit kilométrique le montre bien 28 : – On single-plane flights, you ' ll receive the nonstop origin-destination mileage. – If you are an Elite member, you will earn a minimum of 500 miles on applicable routes. – Certain airline tickets are not eligible for mileage credit. – You ' ll receive AAdvantage mileage credit only for the class of service on which your fare is based when you are ticketed. – As an elite-status member you earn an elite status mileage bonus on the base or guaranteed minimum miles for each eligible flight. Comme souvent dans les langues naturelles, le texte pose une règle apparement universelle – mais qui correspond en fait seulement au cas général – puis apporte des précisions sous forme d'exceptions (seconde et troisième phrases de la liste ciavant) et de raffinements (les dernières phrases décrivent deux étapes de calcul, selon la classe et le statut). Il suffit qu'une de ces règles échappe au regroupement et soit traitée isolément pour aboutir à une contradiction. Un système de traçage remontant jusqu'au texte permet de reconstituer le groupe, puis l'interprétation correcte. Une autre difficulté classique, à laquelle sont confrontés les systèmes de gestion des règles métiers et plus généralement les systèmes à base de connaissances, est liée à l'évolution de la réglementation qui fait que certains éléments de connaissances perdent de leur utilité quand la réglementation et la base de règles évoluent. C'est le cas du fragment de texte qui suit : If your account has no qualifying activity in any 18-month period, all miles in the account will expire except for those miles earned prior to July 1, 1989 in accounts established prior to January 1, 1989 whose mileage credit will not expire. 29 qui se traduit par deux règles : l'une traite des comptes créés avant le 1er janvier 1989 et comportant du crédit acquis avant le 1er juillet de la même année, la seconde des autres comptes. Comme le crédit acquis ne se renouvelle pas mais tend au contraire à être consommé, la première règle va devenir obsolète à un moment donné et on pourra alors expurger le texte d'une exception devenue sans objet. Là encore l'index a un rôle à jouer. S'il est facile de tenir un journal de l'utilisation des règles, et donc d'identifier celles qui cessent d' être utiles quand la base de règles ou ses conditions d'emploi évoluent, il est moins facile de repérer les parties de l'ontologie et les zones de textes qui deviennent obsolètes, à moins d'avoir un index permettant de remonter des règles obsolètes aux unités sémantiques et documentaires auxquelles elles sont liées et de vérifier en retour que ces unités ne sont pas reliées à d'autres règles. Dans l'exemple des règles d'attribution de bonus, l'analyse d'obsolescence est un processus complexe de propagation récursive qui remonte des règles à l'ontologie puis au texte : étant donné un ensemble de règles marquées comme obsolètes et l'ensemble des unités sémantiques de type ontologique {} liées à ces règles, on considère qu'une unité est obsolète si elle n'est liée qu' à des règles de. L'obsolescence se propage; autrement dit, si entre dans la définition d'une autre unité ontologique, celle -ci risque de devenir elle -même obsolète; étant donné un ensemble de règles et un ensemble d'unités ontologiques obsolètes ainsi que l'ensemble des unités documentaires {} liées à ces règles et à ces unités ontologiques, on considère qu'une unité est obsolète si elle n'est liée qu' à des unités sémantiques de. Une unité documentaire qui contient une unité obsolète peut être elle -même obsolète ou nécessiter une mise à jour. Les textes de réglementation évoluant, il faut mettre à jour l'index. Les deux opérations élémentaires sont l'ajout et le retrait d'un texte, une modification étant un retrait suivi d'un ajout. Le texte ajouté, retiré ou modifié peut être un document entier ou un fragment de document, puisque, en pratique, l'évolution du document se détaille au niveau du paragraphe ou même de la phrase. Le retrait d'un texte nécessite une analyse d'impact qui est similaire à l'analyse d'obsolescence mais avec le texte comme point de départ. On retire, avec le texte, toutes les unités sémantiques (unités ontologiques ou règles) qui ne sont liées qu' à ce texte -là. L'ajout d'un texte nécessite une nouvelle phase locale d'annotation. Dans les cas simples, cette annotation n'a pas d'impact sur la structure sémantique, mais dans les cas plus complexes, l'ajout d'un texte amène à mettre à jour la structure sémantique elle -même. Il peut en effet être nécessaire, pour rendre compte du contenu du nouveau texte, d'introduire de nouveaux éléments dans l'ontologie ou de la réorganiser partiellement, de modifier des règles existantes ou d'en ajouter de nouvelles. Sans entrer dans le détail de ces processus complexes d'annotation et de mise à jour incrémentale de la structure sémantique, on peut souligner que l'index a un rôle particulier à jouer quand le texte ajouté vient en remplacer un autre assez proche dans la formulation : l'annotation du nouveau texte peut s'appuyer sur la trace des annotations de l'ancien. Les sections qui précèdent ont montré la richesse de navigation que permet la structure d'index dans le cas de l'analyse des textes réglementaires mais la structure proposée est générale et d'autres applications peuvent être envisagées. Il va de soi que la richesse de l'index et des fonctionnalités de navigation repose sur la qualité de l'annotation des documents ainsi que sur celle des modèles documentaire et sémantique considérés. L'approche envisagée pour l'analyse des textes réglementaire est coûteuse : elle suppose un travail de conceptualisation (construction d'une ontologie de domaine, édition des règles) qui ne peut être entrepris que pour les applications où cet effort est rentable et où la navigation sémantique apporte une réelle plus-value à une certaine communauté d'utilisateurs. C'est le cas de la gestion des règles métiers, domaine dont les enjeux économiques sont réels et où la fiabilité des informations est cruciale 30 mais d'autres champs d'applications émergent en parallèle. L'un des champ d'applications les plus connus est celui de l'édition savante et critique où l'on cherche à donner accès à l' œuvre d'un auteur ou d'un groupe d'auteurs 31. On peut citer ici l'exemple d'HyperNietzsche 32, projet d'édition de l' œuvre de Nietzsche (d'Iorio, 2006), ou celui de l'édition électronique des manuscrits de Stendhal (Lebarbé et al., 2009). Dans ces deux cas, l'index offre aux lecteurs la possibilité de parcours qui réorganisent le contenu documentaire selon des « critères génétiques, chronologiques ou thématiques » (d'Iorio, 2006), selon un axe critique où différents niveaux de granularité correspondent à différents niveaux de lecture et types d'utilisateurs (Lebarbé et al., 2009). Il s'agit de s'affranchir de l'ordre arbitraire – en celà qu'il organise un parcours unique, préétabli – de l'édition « papier ». La structure d'index que nous proposons s'applique à ce type d'application : le modèle documentaire est généralement plus complexe puisqu'il doit prendre en compte la dimension intertextuelle selon laquelle différents documents sont liés les uns aux autres par des liens chronologiques, génétiques ou de citation. Il doit aussi tenir compte de la structure propre des documents analysés qui peut être plus riche que celle des textes réglementaires considérés plus haut. Dans ce cas, le modèle documentaire repose généralement sur le standard de la TEI (Text Encoding Initiative 33). Un tel modèle documentaire multiplie les possibilités de navigations documentaires comme le montre (Lebarbé et al., 2009); le modèle sémantique se réduit souvent à un ensemble de métadonnées documentaires mais il gagnerait à être explicité et formalisé en tant que tel pour ouvrir la voie à divers types de navigations sémantico-documentaires, notamment des lectures thématiques. Le degré de complexité et la richesse du modèle sémantique doivent être adaptés à l'application visée : simple liste de termes, thesaurus hiérarchisé, ontologie, « ontologie dynamique » (d'Iorio, 2006) reflétant l'évolution des objets d'étude dans le temps, dans l'espace ou selon les points de vue, voire des modèles plus riches encore; la fonction de correspondance lie des unités documentaires de taille variable à des unités sémantiques diverses et peut leur associer différentes propriétés. Elle aussi doit être définie en fonction de l'application et des parcours visés. L'index ainsi construit permet une « contextualisation dynamique » (d'Iorio, 2006) des unités documentaires non seulement dans un espace documentaire – ce que fait l'hypertexte – mais aussi dans un espace sémantique. Il faut cependant souligner que, si l'index permet des parcours « rhyzomatiques » (Lebarbé et al., 2009), les modes d'interprétation sous-jacents sont prédéfinis dans le modèle documentaire (lorsque les documents sont liés les uns aux autres par des liens sémantiques) et dans le modèle sémantique qui est associé aux documents : une lecture chronologique n'est possible que si des métadonnées temporelles sont associées aux documents et qu'un calcul peut être fait dessus; les points de vue et les modalités ne peuvent être analysés dans les textes réglementaires si le modèle ontologique et à base de règles ne permet pas de les représenter. Dans tous les cas, un index est conçu pour outiller des formes de lecture définies a priori et il ne saurait rendre compte de toute la diversité des interprétations qui peuvent être faite d'un texte donné. Des problématiques analogues à l'édition peuvent se trouver dans la sphère scienti-fique et technique. Le projet EnCOrE (Colaux-Castillo et al., 2005) de développement d'une encyclopédie numérique de la chimie organique peut être également relu dans ce cadre. Ce projet visait à procurer un accès unifié et intégré à un vaste ensemble de ressources spécialisées de chimie organique (les articles de recherche et revues, les bases de données de réactions chimique, des banques d'images, des biographies de chimistes, etc.) pour faciliter la formation et la découverte scientifique dans le domaine de la chimie organique. On comprend que les unités documentaires sont plus hétérogènes encore que dans le cas précédent et elles sont liées les unes aux autres par de multiples liens de citation, d'auteur commun et d'illustration. Dans le cas de cette encyclopédie cependant, cette richesse dont le modèle documentaire doit rendre compte est telle que les risques de « désorientation » et de « surcharge cognitive » pour l'utilisateur sont majeurs (Conklin, 1987). La navigation purement documentaire, comme dans le cas d'internet, ne peut répondre aux besoins des utilisateurs : il faut un moteur de recherche sur une structure d'index et la qualité de l'encyclopédie dépend de la qualité du modèle sémantique sous-jacent. En l'occurrence, c'est un thesaurus et une ontologie qui étaient envisagés (Dragos et al., 2009), même si le projet n'a pu voir le jour dans son ambition première. La gestion et la publication de la documentation juridique soulève des problèmes similaires d'indexation de contenu et d'accès à l'information. Le projet Legilocal 34 vise à simplifier l'accès des citoyens aux données juridiques publiques locales. Il propose aux collectivités un bouquet de services qui leur permet de publier facilement leurs données sur leur site web, ce qui assure au citoyen un accès homogène aux données des différentes collectivités. Là encore, le modèle documentaire doit permettre de représenter en fait un réseau de relations sémantiques entre documents, les uns étant liés les uns aux autres par des liens de citation, de jurisprudence, de chronologie, etc. Dans ce cas de figure, le modèle sémantique envisagé présente une double originalité par rapport à ceux qui sont présentés ci-dessus : il articule d'abord une structure de thesaurus hiérarchisé préétabli par les experts du domaine et des annotations librement posées par les citoyens dans différents groupes de discussion; il fait le lien entre différents niveaux de langue (langue juridique des agents de collectivités territoriales vs. langue commune). À travers ces applications, c'est en réalité un enjeu de redocumentarisation 35 du patrimoine numérisé qui apparaît 36. Chaque application a ses besoins et ses contraintes propres mais le modèle général d'index que nous avons proposé permet de confronter et de rapprocher ces différentes projets et/ou pratiques. Le développement de ces applications nécessite un effort important, similaire à celui que nous avons entrepris pour la gestion des règles métiers, car il faut dresser une typologie des utilisateurs et de leurs besoins, choisir des modèles documentaire et sémantique adaptés à chaque situation, les construire et développer des outils de navigation. Mais, c'est ainsi que des fonctionnalités de navigation adaptées à des usages spécialisés peuvent voir le jour. Nous avons montré par une analyse détaillée des opérations d'annotation et d'indexation que, dans un contexte numérique, ces deux opérations deviennent complémentaires. Nous avons proposé un modèle d'index qui traduit cette complémentarité. Ce modèle est souple et englobe des activités documentaires aussi diverses que les index de fin de livres ou les folksonomies. L'application de ce modèle à l'indexation des documents réglementaires nous permet de proposer et de mettre en œuvre une architecture adaptée à cette tâche spéci-fique et de valider, ce faisant, l'approche d'indexation proposée sur un cas d'usage concret. Le modèle sémantique est particulièrement riche puisqu'il comporte à la fois une ontologie et une base de règles. Une première implémentation de ce modèle a été réalisée. Elle rend possible le développement de fonctions de navigation élaborées qui contribuent à assurer la cohérence de l'ensemble des documents et des représentations sémantiques mais aussi à maintenir cette cohérence face à l'évolution naturelle de l'un et de l'autre. Ces fonctions de navigation montrent comment le texte et le modèle sémantique s'éclairent mutuellement. Nous avons présenté ici les fonctions qui nous ont paru pertinentes pour le cas d'usage étudié mais l'index peut servir de support à d'autres formes de raisonnement. Nous pensons notamment à des processus de saturation de l'annotation, à l'évaluation du modèle sémantique en termes de couverture, à l'explicitation des éléments implicites dans le texte, à la mise à jour du modèle sémantique au regard d'un flux de documents, à la détection des incohérences dans le texte, etc. Ces nouvelles formes de raisonnement restent à étudier, à formaliser et à tester sur des cas d'usage concrets pour en évaluer la pertinence .
La mise sous forme numérique des documents renouvelle les rapports de l'annotation et de l'indexation, grâce aux traitements qu'elle rend possibles. Nous proposons un cadre unifié (appelé index) dans lequel ces deux opérations se complètent, permettant un jeu d'allers-retours entre des documents et une représentation sémantique. Ce cadre présente une bonne couverture théorique et rend compte d'activités diverses. Nous montrons son efficacité pratique à partir d'une expérience en cours sur l'indexation des textes réglementaires, dont nous expliquons la problématique et pour laquelle nous proposons une structure d'index originale. Cet exemple illustre en outre comment l'index peut devenir un espace de navigation entre le texte et le modèle sémantique, espace qui permet de nouveaux usages du document numérique.
sciencesInfo_12-0293266_tei_DN_id9782746232495_pu2010-03s_sa06_art06.tei.xml
termith-385-communication
Yvonne Sallé — Michel Bottin, vous avez réalisé un site internet au ministère de la Culture, intitulé Écritures du monde 2 Pourriez -vous me préciser quel est le but de ce site sur les écritures du monde et comment l'idée vous en venue ? Précédemment, vous aviez réalisé le site Écritures au Vietnam 3. Écritures du monde s'inscrit-il dans la continuité du site Écritures au Vietnam ? Michel Bottin — Le site Écritures du monde est installé sur celui du ministère de la Culture, et hébergé par la Délégation générale à la langue française et aux langues de France (DGLFLF). Il est développé en collaboration avec Monique Slodzian, responsable du Centre de recherche en ingénierie multilingue (CRIM), laboratoire de l'Institut national des langues et civilisations orientales (INALCO) de François Stuck et d'autres chercheurs du CRIM avec la participation d'enseignants de l'INALCO. L'avènement des travaux de la norme ISO 10646 et d'Unicode permet enfin une représentation cohérente et uniforme des écritures du monde actuellement en usage ainsi que de quelques écritures anciennes. Chaque caractère de chaque écriture possède un code unique et distinct ce qui rend la codification des textes absolument non ambiguë donc leur circulation sûre et aisée. Cette situation tout à fait inédite dans l'histoire, mérite bien le qualificatif de révolution anthropologique si l'on en mesure les conséquences interculturelles et politiques. Il est enfin possible d'envisager la diffusion de textes multilingues et multi-écritures où toutes les écritures sont traitées sur un quasi pied d'égalité. Et cela est devenu réalité en ce qui concerne l'encodage donc le stockage; l'échange des fichiers multilingues au moyen de tous les protocoles est maintenant possible, du transfert de fichiers à la consultation de pages sur le web en passant par la messagerie électronique. Mais si cette égalité est pratiquement réalisée au niveau de la codification – et c'est le but que se sont fixés le standard Unicode et la norme ISO 10646 – beaucoup de travail reste encore à faire en ce qui concerne les différents visionneurs de textes (traitements de texte, navigateurs web, etc.), les polices de caractères, les méthodes de saisie. L'ambition de ce site – loin d' être réalisée, il est vrai, pour l'instant – est de fournir un état de l'art, pratique et actualisé, de la représentation des textes dans les principales écritures du monde. Dans les faits, et c'est là toute la question, les problèmes qui se posent tant à des informaticiens qu' à des usagers professionnels de la communication ou à des utilisateurs au sens beaucoup plus large tels que les administrations, les milieux de l'enseignement ou des affaires, les spécialistes… sont complexes, appartiennent à des savoirs très divers allant de la linguistique à l'informatique la plus pointue en passant par la typographie… de telle sorte qu'il est pratiquement impossible à tout un chacun d'avoir une appréhension globale de ces savoirs divers. Or, pour mettre en œuvre avec efficacité ces techniques à un niveau relativement global, par exemple, organiser un système d'information pour un centre d'affaires international ou un ministère des affaires étrangères, il faut disposer de ressources technoculturelles appartenant simultanément à tous ces savoirs. Ces savoirs sont culturels tels que les règles d'écriture des différentes langues écrites dans le monde mais ils comportent aussi des savoir-faire de type informatique. Yvonne Salleé — Peut-on dire qu' Écritures au Vietnam a été une préfiguration du site Écritures du monde ? Michel Bottin — Écritures au Vietnam a été créé par Christiane Rageau et moi -même d'une manière pragmatique et sur une zone géographique très délimitée. Il a été présenté pour la première fois à l'occasion d'un sommet francophone qui se tenait à Hanoi en 1997. Son développement a servi quelque peu de modèle à ce qui est devenu, par la suite, le projet Écritures du monde. Mais Écritures au Vietnam est centré sur un territoire très particulier car particulièrement riche en écritures ce qui explique son intérêt au-delà de l'actualité du moment. En effet, le Vietnam a connu, au cours des siècles, un certain nombre de cultures d'écritures qui correspondent à des phases d'influences : d'abord l'écriture chinoise pour noter le chinois proprement dit; puis une écriture en caractères chinois de la langue vietnamienne, le nôm, ce qui a conduit à l'invention de nouveaux caractères propres au Vietnam; à partir du XVIIe siècle, transcription du vietnamien en alphabet latin adapté grâce à l'ajout d'un certain nombre de signes diacritiques, d'accents et de marques afin de représenter les tonalités propres à cette langue; ce travail a été réalisé par les missionnaires portugais à l'usage des étrangers afin de leur permettre de lire et d'écrire le vietnamien ce mouvement a été amplifié par la colonisation française et, à la fin de celle -ci, par les nationalistes qui y ont vu un mode de modernisation et de démocratisation de la culture parallèlement, le Vietnam comporte aussi de nombreuses minorités nationales qui avaient étés influencées culturellement par le monde indien et qui possèdent des écritures de type indien commes les écritures tai, cham, khmère. Il est à noter que d'autres minorités, dans le nord du Vietnam, utilisent aussi des caractères de type chinois pour noter leur propre langue. Simultanément, l'écriture chinoise a continué d'exister en particulier à travers la communauté chinoise présente dans le pays, de même que l'écriture vietnamienne sous forme idéographique utilisée dans des catégories sociales très diverses. Ainsi, en 1930, on trouvait des tracts du parti communiste rédigés en écriture sino-vietnamienne. Du point de vue de l'informatique, la première phase de numérisation de la langue vietnamienne (avant Unicode) a été réalisée sous plusieurs standards concurrents élaborés par le Vietnam du nord, le Vietnam du sud et les différents groupes de la diaspora, soit près d'une vingtaine de « standards ». C'est l'apport d'Unicode d'avoir unifié ces premiers standards. De plus, cas particulier intéressant, le Vietnam a rejoint le groupe de travail sur les caractères « idéographiques » chinois, tant et si bien que l'inventaire des caractères connu sous le sigle anglais CJK (pour Chinese, Japanese, Korean) s'appelle désormais CJKV ! Le site Écritures au Vietnam essaye de rendre compte de ce phénomène culturel; il donne des documents photographiques et calligraphiques, des exemples de textes, de postures d'écriture, des formes particulières d'écritures (verticale, horizontale…). Au plan pratique, il indiquait comment accéder au site Unicode avec des renvois vers ce site, comment utiliser l'écriture vietnamienne; il donnait la classification des caractères latins et chinois avec un catalogue des clés de classification… Ce site a donc été à l'origine de la conception du site Écritures du monde parce qu'il montrait que l'on pouvait résoudre les problèmes de ce type pour un lieu de confluences d'écritures. Yvonne Salleé — Pouvons -nous revenir au site Écritures du monde pour voir comment il s'articule avec Unicode ? Michel Bottin — Écritures du monde a l'ambition d' être un site encyclopédique de description de toutes les écritures du monde dans toutes leurs facettes d'usages, parce que l'on ne peut s'expliquer le fonctionnement réel de bien des langues que si l'on en connait les règles, l'histoire, la culture… Il doit donc servir, en complément des tables techniques d'Unicode, à documenter culturellement et techniquement celui qui est confronté à une telle tâche. Ce site s'appuie donc directement sur Unicode. Avec Unicode, on est arrivé à une codification universelle de toutes les écritures en usage dans le monde et même des écritures anciennes qui ne sont plus d'usage pratique ou en usage du tout. C'est une codification non ambiguë, c'est-à-dire que chaque caractère, dans chaque écriture, a un code distinct des autres caractères quelle que soit la langue : on n'a donc plus les problèmes que l'on avait auparavant lorsqu'on recevait un message que l'on savait, par ailleurs, être en chinois, en grec : on avait, certes, un message en code binaire mais son interprétation (sa visualisation) nécessitait, en plus, de savoir quel codage avait été utilisé, indication en général absente dans le message lui -même et souvent inconnue de l'auteur du document ! Et même si ces indications étaient connues, il fallait alors se mettre en quête de la police de caractères adéquate (c'est-à-dire utilisant le même codage que le message), l'installer sur le système d'exploitation si celui -ci pouvait effectivement la supporter. Cependant, toute cette normalisation de la codification des caractères, n'est en aucune manière suffisante pour répondre aux questions autres que strictement techniques et de plus limitées à la description des caractères des écritures du monde. La création du site Écritures du monde est donc indispensable. Supposons que quelqu'un, en France, ait besoin de lire des textes en arabe. Cette personne devra installer, sur son ordinateur, des programmes adaptés à l'écriture arabe; il y a plusieurs techniques pour cela et le site Écritures du monde devra répondre à ses interrogations. Au-delà de cet indispensable savoir interculturel, ce webmaster devra, aussi, bien sûr, disposer de l'environnement technique et typographique propre à ces écritures qu' Écritures du monde lui indiquera aussi. On peut imaginer, également, le cas d'une personne à qui il est commandé une nouvelle police de caractères. Quelle que soit sa compétence linguistique et technique, nul ne connaît toutes les écritures du monde. Or, c'est bien l'exhaustivité des règles de fonctionnement de toutes les écritures du monde qui sont requises pour pouvoir réaliser une police Unicode universelle ou des polices spécifiques à une ou plusieurs écritures. Yvonne Salleé — Pouvez -vous préciser ce que vous entendez par toutes les écritures ? Qu'en est-il des écritures rares ou anciennes ? Les tables de code ont été définies pour toutes les écritures des langues vivantes alphabétiques ou non; je citerai à titre d'exemple l'écriture latine, grecque, cyrillique, arménienne, géorgienne, hébraïque, arabe, les diverses écritures dérivées de la brahmi, chinoise, japonaise, coréenne sans parler d'écritures de moindre extension ni des écritures techniques comme les symboles mathématiques ou du langage de programmation (en particulier APL) ou des symboles graphiques divers. Les écritures anciennes qui ne sont plus utilisées sont entrées dans le même processus : la gothique et les anciennes écritures italiques (au premier chef l'étrusque) sont déjà codées ainsi que les signes musicaux byzantins. Les hiéroglyphes égyptiens ainsi que les écritures cunéiformes sont en route… Bien entendu, cette codification universelle s'est réalisée d'une manière pragmatique : les experts se sont appuyés sur des codifications réalisées isolément pour diverses écritures dans les pays qui les utilisent; on a donc repris des jeux complets de caractères codifiés et, en les déplaçant, on les a insérés dans Unicode. Les experts ont essayé de définir une base théorique en distinguant la notion de caractère de la notion de glyphe. Il existe une notion abstraite du caractère indépendante de sa réalisation graphique. Prenons, par exemple, la lettre « A ». Le glyphe, c'est sa représentation graphique : on trouve, par exemple, le caractère « A » sous des formes différentes, en romain, en italique ou en gothique… il s'agit d'autant de glyphes; ou bien la forme différente d'une lettre selon la place qu'elle occupe dans le mot comme cela se produit en grec, en arabe… Il a donc plusieurs glyphes pour un même caractère. Tout ceci a été défini, à l'origine, dans Unicode, toutefois on ne s'y est pas toujours tenu parce qu'on a repris des jeux de caractères existants dont l'analyse n'avait pas été aussi stricte : il en résulte un certain flou théorique mais qui, dans la pratique, n'empêche pas le système de fonctionner. Yvonne Salleé — Quel est l'intérêt de faire un tel travail de codification pour des écritures anciennes qui ne servent qu' à la recherche ? Michel Bottin — A partir des textes de Sumer, par exemple, les personnes qui lisent des textes en cunéiforme constituent des corpus de textes, développent des traitements d'analyse, élaborent des lexiques, des dictionnaires. Auparavant, il existait presque autant de systèmes de codification que de chercheurs qui les avaient conçus de sorte qu'il était très difficile de les échanger. Avec la recodification normalisée, chaque caractère s'est vu attribuer une valeur non ambiguë ce qui permet les échanges des textes entre chercheurs sans aucune difficulté. On comprend pourquoi la cohérence des corpus et la généralité des outils de traitement sont aussi étroitement liés à une codification universelle. Pour illustrer ceci, je rappellerai que les Vietnamiens avaient réalisé une vingtaine de jeux de caractères codifiés, différents selon les groupes, selon les chapelles et cette cacophonie de codages bloquait les échanges. Au Cambodge, la situation était encore plus dramatique : en effet, chaque police de caractères correspondait à un codage particulier de sorte qu'ils en étaient arrivés à ne pas pouvoir échanger des fichiers d'un ministère à l'autre ! On voit donc très vite que ce problème de la codification des caractères, qu'on le considère au niveau d'un pays ou au niveau mondial, n'est pas seulement un problème technique, c'est aussi un problème politique. Cela explique pourquoi la mise au point d'une codification universelle a demandé autant de temps. Yvonne Salleé — Puisqu'Unicode existe, comment voyez -vous la complémentarité entre le site d'Unicode et le site Écritures du monde ? Michel Bottin — Avec Unicode, actuellement, l'on dispose de près de 60 000 caractères codifiés; ils sont regroupés dans la norme ISO/CEI 10646/Unicode. Mais, outre le simple inventaire des caractères, beaucoup de détails sont encore nécessaires tels que : le nom normalisé du caractère (par exemple LATIN LETTER AUPPERCASE), sa directionnalité, les signes complémentaires qui peuvent l'accompagner, les propriétés du caractère dans ces différents systèmes, les clés de compréhension, la transformation des données à 32 bits d'Unicode en données à 16 bits et à 8 bits. Les difficultés pour construire ce site sont énormes et de tous ordres. En premier lieu, il existe des types d'écritures très différents que l'on classe souvent en morphémographiques, syllabiques, néo-syllabiques, alphabétiques… sans pour autant être sûr de la pertinence ou des effets induits de cette classification en l'absence d'une véritable science de l'écriture ou grammatologie. En résumé, le site Écritures du monde sera un centre de ressources, donnant les éléments de description de l'écriture donnant le minimum de ce qu'il faut savoir sur l'origine d'une écriture, soit un aperçu géographique et historique : origine culturelle et géographique, période de création… indiquant le fonctionnement : comment les signes se combinent entre eux pour que ça fonctionne, dans quel sens ils s'écrivent… indiquant quelles langues utilisent une même écriture, par exemple l'écriture arabe utilisée pour le persan, le turc ottoman, l'ourdou, le pashto, le kurde sorani… donnant un extrait de texte à titre d'exemple, indiquant quels sont les outils : traitements de texte, polices de caractères, navigateurs, outils informatiques pour saisir, afficher, faire circuler les textes concernant chaque écriture et comment diffuser sur le web des textes en toutes écritures et langues… A propos de l'affichage, il est important de souligner les problèmes que soulève la directionnalité, problèmes qui doivent être résolus d'un strict point de vue informatique : citons l'écriture arabe qui s'écrit de droite à gauche mais dans laquelle les nombres s'écrivent de gauche à droite dans le cours du texte. Ce travail présente peu de problèmes pour les écritures alphabétiques qui ont peu de caractères et peuvent être saisies directement au clavier. Un clavier est un dispositif d'une centaine de touches qui, même muni d'un système d'échappement comme l'usage de la touche « majuscule » (l'équivalent anglais « shift » = décalage, transposition indique mieux la nature de l'opération) ou de la touche « alt », permet la saisie de plus de deux ou trois centaines de caractères. Ceci peut donc convenir directement pour des écritures alphabétiques ou syllabiques. En revanche, pour les écritures chinoises qui comportent des milliers de caractères, il faudra la frappe de plusieurs touches du clavier pour saisir un seul caractère (parfois à l'aide même de dictionnaires) puisqu'il n'est pas question de réaliser des claviers comportant des milliers de touches. Ce procédé est connu sous le nom de méthode d'entrée (en anglais IME). Et des dizaines de telles méthodes ont été effectivement implémentées pour le chinois ou le japonais ! Par ailleurs, on constate que la linguistique ne nous a pas, jusqu' à présent, fourni de description formelle des systèmes d'écritures de même niveau que ce qui est donné dans les descriptions phonologiques ou syntagmatiques. Il est, d'ailleurs, intéressant de remarquer que la description d'une écriture est toujours difficile, que les linguistes interrogés aient ou non cette langue pour langue maternelle. En fait, ce travail d'analyse nécessite un niveau d'objectivation et d'abstraction toujours très difficile à accomplir. Écritures du monde doit donc permettre de comprendre les principes de numérisation et de modélisation. Pour simplifier, on pourrait dire qu'il a deux aspects : une facette informatique pour expliquer comment on utilise les caractères : leur saisie, leur stockage et leur transmission, les traitements d'ordonnancement (les tris), les divers procédés de rendu : affichage des caractères, direction de l'écriture (gauche à droite, droite à gauche, verticale, mixte…), les ligatures obligatoires ou simplement esthétiques, la segmentation éventuelle des mots ou des phrases en fin de ligne des aspects culturels précisant l'origine et le contexte d'emploi de tel ou tel aspect de l'écriture. Yvonne Salle — - Qui sont les usagers d'un tel site ? Michel Bottin — La gamme des usagers peut être extrêmement large : on pense, bien sûr, en premier lieu, aux écoles de langues, aux centres culturels, aux grandes bibliothèques, aux linguistes, aux services des ministères des affaires étrangères, aux milieux d'affaires internationaux… Parmi d'autres catégories professionnelles, il y a les spécialistes de la localisation des logiciels (c'est-à-dire l'adaptation des logiciels créés dans un autre pays et dans une autre langue), les personnes qui dirigent des équipes ou des projets dans la cacophonie des langues et tous ceux qui sont confrontés à des problématiques d'informatisation dans un cadre multilingue plus ou moins « exotique ». Yvonne Salle — Pouvez -vous me dire comment vous planifiez cette généalogie des écritures ? Avez -vous prévu des familles et pouvez -vous citer les principales familles que vous retiendrez ? Michel Bottin — A priori toutes les écritures ! Mais leur regroupement pose des problèmes théoriques très vifs. Nous essayons donc d'avancer de la manière habituelle par les descriptions détaillées des écritures regroupées de manière plus ou moins traditionnelle. Ce n'est qu'ensuite que l'on pourra s'attaquer à la reclassification des écritures, c'est-à-dire à la critique de la classification actuelle. D'une manière générale, nous avons décidé de nous consacrer, en priorité, aux écritures fortement liées à la notation d'éléments de langue (la nature de ce lien restant à articuler). C'est pour cela que nous avons repris la classification traditionnelle d'écriture morphémographique, exemple l'écriture chinoise, d'écriture syllabique, exemple les kana japonais, d'écriture phonographique, exemples les alphabets latins, grecs, cyrilliques, les écritures néo-syllabiques, regroupements d'éléments phonétiquement motivés en agrégats graphiques de niveau syllabique, exemple, dans des univers scriptiques très différents, les écritures indiennes et coréenne. Mais on est vite confronté à la quasi-inexistence de types purs : les systèmes d'écritures présentent toujours, à des degrés divers, un mélange de types dont seule l'histoire permet de rendre compte. De plus, l'élargissement aux écritures techniques, phonétique internationale, logico-mathématique, informatique, graphique, musicales s'impose si l'on veut donner toutes les dimensions du système scriptique. Cependant la première version du site ne détaille qu'une seule écriture par type structurel une écriture alphabétique-consonnantique : l'arabe, une écriture alphabétique : la cyrillique, une écriture morphémographique : la chinoise, une écriture néo-syllabique indienne : la tamoule, une écriture moins répandue, le Qaniujaaqpait, syllabaire inuktitut. Les prochaines écritures en cours de description sont la latine, la grecque, l'hébraïque, la coréenne, la devanagari et la khmère. Yvonne Salle — Pouvez -vous, par quelques exemples, indiquer en quoi la généalogie et l'histoire des écritures peuvent éclairer les utilisateurs actuels ? Michel Bottin — Nous venons de voir comment des systèmes d'écritures concrets sont des systèmes historiquement constitués. Mais, ce voile de l'histoire n'a pas seulement abouti à des dépôts internes au système d'écriture. Toute l'histoire « externe », culturelle, économique, politique est influencée, est remplie de légendes, de mythes ou d'anecdotes relatives à l'écrit. Et cela d'autant plus, si l'on considère l'écriture non plus comme glossographie stricte mais comme ensemble de signes non directement en correspondance avec des éléments de langue. L'aventure des écritures devient alors trace visible de la praxis humaine dont les témoignages archéologiques et ethnologiques s'étendent bien au-delà de ce que l'on veut bien considérer en Occident comme relevant de l'écriture. Voici, par exemple, quelques histoires de divers ordres. Pour le chinois, l'obligation de passer au pinceau a complètement changé l'écriture. A partir de ce moment, il existe un continuum entre la peinture et l'écriture : écrire c'est savoir dessiner, c'est pourquoi on peut inclure des textes dans les tableaux qui deviennent, dans certains cas, de véritables poèmes visuels dans lesquels dessin et sens des mots se complètent. En effet, en chinois, tout nom doit avoir un sens en rapport avec la chose nommée : le mot homme représente un homme d'une manière simplifiée, Chine signifie l'empire du milieu, Japon signifie l'empire du soleil levant… Vincennes est représenté par deux caractères wen et sen, qui signifient forêt des connaissances. Ce lien entre dessin et sens explique aussi pourquoi un petit Chinois, dès deux ans, est capable d'écrire le signe homme et quelques autres signes simples; en sortant du lycée il en sait suffisamment pour lire un journal mais il devra toujours apprendre de nouveaux caractères surtout s'il veut étudier les textes anciens. L'écriture chinoise viendrait, selon les légendes, soit des écailles de tortues que les devins faisaient brûler et qui prenaient alors différentes formes qu'ils ont reproduites, soit des traces laissées par un oiseau sur la neige. L'écriture japonaise est une écriture dérivée de la chinoise. Les Japonais ont emprunté les caractères du chinois vers le VIe siècle, avec une prononciation adaptée à leurs habitudes phonologiques de l'époque. Mais leur langue, contrairement au chinois, est une langue flexionnelle dont les morphèmes sont polysyllabiques. Le résultat en est que certains éléments de leur langue sont notés, soit selon le son, soit selon le sens auxquels ils ajoutent des flexions ce qui aboutit à un système très complexe. Au cours de l'histoire, on peut dire, en simplifiant, qu'ils sont arrivés à constituer deux syllabaires concurrents, l'un simplifié qui auraient été réalisé par des femmes, l'autre beaucoup plus complexe réalisé par des moines jaloux de l'initiative des femmes. Un de ces syllabaires est maintenant utilisé pour noter les morphèmes flexionnels, l'autre seulement pour la transcription des noms étrangers. Bel exemple d'écriture mixte ! L'activité de trace symbolique est présente, dès le magdalénien, en Europe et, dans les périodes équivalentes, en Afrique ou en Asie. A côté des représentations très réalistes d'animaux, on trouve quantité de signes gravés sur les parois mais aussi sur des os ou des cailloux comme au Mas d'Azil. Cette activité sémiologique est donc, bien entendu, antérieure à la naissance des systèmes d'écritures à Sumer ou en Égypte. Est-elle aussi ancienne que l'apparition du langage articulé ? Les deux sont-ils liés à l'apparition de l'Homo sapiens sapiens ? En tout cas, l'attention apportée par les archéologues aux signes non textuels montre que, déjà au Moyen-Orient ou dans les Balkans, routes de diffusion du Néolithique, il existe de nombreuses notations difficiles à interpréter mais semblant liées à des activités de comptage. Antériorité de l'écriture mathématique sur l'écriture glossographique ? Rôle du trait unaire et de ses répétitions comme matrice de la trace articulée ? Yvonne Salle — Devant de telles complexités géographiques et historiques, ne prévoyez -vous pas d'insérer des cartes ? On comprend bien que les atlas linguistiques existants ne suffisent pas pour rendre compte de cette histoire et de l'extension géographique de ces différentes écritures et de leur généricité. Michel Bottin — En effet, je prévois que des cartes préciseront l'apparition des quatre foyers d'écritures sumérien, égyptien, chinois et amérindien ainsi qu'une visualisation de leur diffusion jusqu' à l'époque moderne. Cette cartographie est très complexe en raison des recouvrements multiples sur un même territoire. Aujourd'hui, c'est un chantier ouvert. Yvonne Salle — Vous avez évidemment prévu de décrire langue par langue, ou famille de langues par famille de langues, ou encore en termes généraux pour l'ensemble des écritures, des sujets comme la saisie des caractères, l'affichage et la mise en page. Michel Bottin — Nous avons déjà évoqué que l'informatisation des écritures suppose de résoudre toute une série de problèmes : les jeux de caractères : du Baudot, de l'ASCII et ses variantes nationales, des caractères 8 et 16 bits jusqu' à la grande unification de l'ISO 10646/Unicode, les problèmes d'affichage : type de polices, moteurs de rendu, les problèmes de ligatures et de directionnalité, les problèmes de segmentation et d'ordonnancement : délimitation et coupures de mots, lexies complexes, tri, etc. Pour revenir aux problèmes de position et de direction, tous les textes ne commencent pas leur affichage par la position en haut et à gauche, la position du caractère suivant étant à la droite du caractère courant. Les écritures sémitiques sont généralement dirigées de droite à gauche en partant d'en haut à droite. Mais il en existe bien d'autres comme le chinois ou le japonais traditionnel, dirigés de haut en bas en partant d'en haut à droite, voire comme le tifinagh (berbère touareg) dirigé de bas en haut en partant d'en bas à droite. Il y a même des directions obliques ! Naturellement le mélange des écritures pose des problèmes tout à fait originaux comme la gestion du curseur indiquant la position courante sur l'écran. La coexistence des directions vers la droite et vers la gauche commence à être correctement implémentée sur les systèmes d'exploitations récents (Linux, MacOS X, Windows2000/XP). Il n'en est pas encore de même pour les directions verticales mais le travail de définition de leur gestion est très avancé dans le niveau 3 des spécifications de feuilles de style pour le web (CSS3) ce qui fait augurer de prochaines implémentations. En ce qui concerne les problèmes de ligatures et d'agrégation de caractères, toutes les écritures n'utilisent pas des glyphes discrets. Certaines, comme l'arabe ou le devanagari, rattachent certains de leurs glyphes au précédent et/ou au suivant. Dans le cas du devanagari, comme dans celui des écritures dérivées comme elle de la brahmi, ce sont même de véritables agrégats de glyphes correspondant à peu près mais pas toujours exactement à une syllabe de la langue parlée. Si le traitement de ces caractéristiques est pris en compte au niveau du système d'exploitation, l'utilisateur a quelques chances de les voir devenir opérationnelles au sein de plusieurs applications (traitement de texte, navigateur web, indexeurs, etc.). C'est, par exemple, le support des polices OpenType développées par Adobe et Microsoft qui offre ces possibilités grâce à l'existence des tables de substitution de glyphes GSUB qui permettent d'automatiser le choix et la position d'un glyphe en fonction du contexte. Yvonne Salle — Pouvez -vous, par quelques exemples, préciser des notions telles que calligraphie, rendu d'écriture, police de caractères… ? Michel Bottin — On a bien un codage de toutes les écritures mais nous ne disposons pas vraiment de plate-forme informatique où toutes les écritures sont traitées de manière équivalente. C'est à ce propos que je parle de la nécessité de résoudre les problèmes de saisie, d'affichage ou de moteurs de rendu, notions en général peu compréhensibles en dehors du monde des informaticiens. C'est cependant capital pour la pratique. De plus, ce discours est obscurci par les pratiques préexistantes à l'Unicode. On constate que des spécialistes de diverses langues ayant souvent fabriqué leurs propres systèmes sont, de ce fait, amenés à penser qu'Unicode ne peut pas fonctionner. Pour l'écriture khmère, ils en avaient convaincu le gouvernement cambodgien qui s'était rallié à cette opinion par orgueil national. Unicode par sa mise en cause de travaux antérieurs a suscité l'apparition de résistances soit nationales, soit de la part des spécialistes. L'enjeu si l'on veut chercher à résoudre le cas général plutôt que des cascades de cas particuliers est de dégager ce qu'il y a de formellement commun entre certains systèmes d'écritures indépendamment de toutes considération idéologique ou partisane. Par exemple si l'on arrive à trouver un algorithme commun (avec éventuellement quelques variantes locales) pour toutes les écritures de type indien y compris la birmane, la thai, la khmère… ce serait un grand progrès. Mais pour cela il faut rentrer dans la cuisine du fonctionnement de l'écriture et c'est ce que souhaite décrire le site Écritures du monde : montrer comment ça marche, comment ça se décompose, comment on peut avoir une description formelle afin d'élaborer des algorithmes formels et qui pourrait permettre aux gens de comprendre pourquoi ça marche ou pas avec telle police de caractères et/ou telle système d'exploitation. La codification est nécessaire mais n'est pas suffisante : en dehors du codage pas de salut ! Mais il faut, en outre, traiter la direction, les ligatures… pour que les textes soit tout simplement lisibles. Si l'on veut faire de la typographie soignée, voire de la calligraphie, c'est beaucoup plus difficile; cela dépasse, certes, l'objectif que s'étaient fixé les experts d'Unicode mais ce serait indispensable dans Écritures du monde. Or, les calligraphies de différentes cultures d'écritures obéissent à des économies très différentes. Que l'on songe simplement à la calligraphie arabe par opposition à la calligraphie chinoise ! Faire une police de caractères nécessite un travail long et minutieux : pour une police latine de qualité, on peut considérer qu'il faut environ six mois de travail pour un développeur mais plus encore pour une police tibétaine un tant soit peu complète. Il faut non seulement représenter les caractères, mais il faut encore régler les espaces entre les signes, les positionner au-dessous, au-dessus, devant… Pour l'écriture khmère, pour faire le rendu de l'écriture qui est très compliquée, il faut 4 ou 5 étapes : on prend le caractère, on en cherche la forme quand il est lié puis il faut un programme pour faire le placement au bon endroit, dessus, dessous… C'est un savoir figé nécessitant un algorithme pour la police de caractères afin de fixer toutes ces règles. Ensuite, quand on charge une police de caractères, toutes ces règles d'écriture doivent y être incluses implicitement. Mais pour créer ces automates, il faut quelqu'un qui sache parfaitement comment fonctionne l'écriture et sache le décrire et le programmer à la main : ainsi, quand, au clavier on va taper successivement les lettres du khmère, on aura le dessin empilé de chaque caractère comme on le fait traditionnellement à la main. Bien entendu, il n'est pas question de réformer les écritures même si l'on estime qu'elles sont difficilement adaptable à l'informatique. Ainsi au Cambodge, il n'y a pas d'uniformité du tout. Plusieurs systèmes ont été créés mais aucun n'a la même méthode. Il est donc très mauvais de tenter de s'inspirer de ce qui se faisait sur place parce qu'ils essayaient de le faire dans l'ordre visuel. Or, quand on a un texte en mémoire et que l'on veut créer l'index correspondant, par exemple, on ne peut pas utiliser l'ordre visuel. Un dictionnaire ne se classe pas dans l'ordre visuel mais dans l'ordre phonique. Prenons un exemple : dans la langue khmère, la syllabe kri s'écrit dans l'ordre rki. Quand on va la classer, il faut le faire à « k » et non à « r ». On voit bien que pour faire des dictionnaires, il faut les coder dans l'ordre de la prononciation mais au moment où l'on va afficher le texte, il faut que les caractères apparaissent dans l'ordre habituel visuel de lecture; il y a donc un petit moteur informatique qui va faire ce travail de représentation ce qui explique que les polices de caractères soient si compliquées. En arabe, même si l'on note les voyelles, on n'en tient pas compte pour faire un tri alphabétique si ce n'est à un niveau secondaire. En plus, en ce qui concerne les polices, la difficulté vient de ce que la forme d'une lettre varie selon son environnement : donc la police doit pouvoir faire correspondre à un code donné, tel ou tel glyphe (forme graphique d'un caractère) suivant le contexte. Il s'ajoute à cela que le caractère suivant doit en principe être affiché à la gauche du précédent; mais si la phrase comporte un nombre, par exemple 124, le 2 doit être affiché à droite du 1 et le 4 à la droite du 2 alors qu'en mémoire ils sont dans l'ordre 1,2,3. Cela suppose un traitement informatique complexe. Ce que le jargon d'Unicode décrit sous le nom de bidi pour bidirectionnel. Pour le chinois, le problème est différent et beaucoup plus facile : il y a beaucoup de caractères mais il est simple d'afficher les traits dans le carré idéal de chacun d'eux. En outre, le caractère suivant s'affichera à la suite à droite ou en dessous. Il n'a pas de véritable complexité de ce côté -là. Yvonne Salle — Dans le site Écritures au Vietnam, il était fait une large part à l'iconographie. En sera -t-il de même dans Écritures du monde ? Michel Bottin — Concernant toutes les pratiques d'écritures, il existe une iconographie extrêmement abondante qu'il serait intéressant d'insérer dans le site. La culture typographique, par exemple, dont on trouve des illustrations anciennes dans les vingt-cinq planches de l'Encyclopédie de Diderot présentant les différents alphabets, syllabaires ainsi que les clefs chinoises sont un bon exemple de ce qu'il est prévu de mettre en ligne. Les difficultés concrètes proviennent seulement des moyens nécessaires pour effectuer une sélection de l'iconographie et la gestion des droits afférents aux images. Mais l'orientation générale restera plutôt du côté technique déjà très difficile à couvrir en lui -même. Yvonne Salle — Dans le cadre d' Écritures du monde, quelles sont les difficultés que présente la description d'une écriture ? Pour chaque écriture, il est prévu de donner un certain nombre d'éléments dont nous avons déjà parlé : un aperçu historique et géographique (genèse et extension), une description structurelle du fonctionnement de l'écriture, la liste des langues qui l'utilisent comme notation, un texte avec traduction dans une langue utilisant l'écriture donnée, les polices de caractères qui supportent cette écriture, les outils de saisie et d'affichage, tout particulièrement sur le web. Toutefois le travail technique et informatique est considérable car, par exemple, les deux derniers éléments nécessitent une veille technologique très difficile à assumer. Sur un autre plan, les premières descriptions des écritures – même sommaires – ont fait apparaître l'absence d'un cadre général de description des systèmes d'écritures un tant soit peu formalisé. La notion d'élément de code d'une écriture ou caractère du standard Unicode, si elle va bien dans le bon sens, ne se révèle pas suffisante pour lui donner un statut théorique vraiment universel. D'autant plus que des considérations pragmatiques, au demeurant tout à fait louables, comme la compatibilité avec des encodages préexistants, ont fait entériner d'anciennes descriptions dont la cohérence formelle n'était pas toujours la caractéristique dominante. De plus, nous nous sommes aperçus de la difficulté qu'avaient les différents collaborateurs du site à dégager le fait scriptural tant des faits linguistiques correspondants que de l'approche purement technicienne de la typographie ou de l'informatique. Comme si ce domaine ne possédait pas des caractéristiques propres ayant une autonomie véritable par rapport à des sciences et techniques connexes. La description d'une écriture se révèle très vite être une source de difficultés; en effet, on n'a pas de vocabulaire ou même de concepts universels pour décrire les éléments des écritures. Au mieux, on dispose de concepts locaux sur chaque écriture. Par exemple, que veut dire l'expression écriture de type alphabétique ? Qu'est -ce qu'un alphabet consonnantique ? Est -ce un syllabaire dont on ne note pas les voyelles ou s'agit-il d'un alphabet ? Ou n'est -ce qu'un nouvel avatar de la question du verre à moitié plein et du verre à moitié vide ? On peut considérer que, dans un mode de pensée syllabique, comme au Moyen-Orient, c'est le fait que les voyelles n'étaient pas essentielles pour la notation de la langue qui a permis aux Sémites, d'une certaine manière, d'inventer l'alphabet sans peut-être s'en rendre compte; ce serait alors les Grecs qui auraient consciemment développé l'alphabet. Nous appelons maintenant, les alphabets sémitiques alphabets consonnantiques. De même, il existe des néo-syllabaires qui sont des systèmes analytiques qui fonctionnent structurellement comme des alphabets même si leur représentation de surface les fait ressembler à des syllabaires. Leurs usagers fonctionnent dans cet univers syllabique et admettent non sans résistance l'interprétation analytique avancée par l'Unicode pour le codage de leurs écritures. On voit donc qu'il n'existe pas de description universelle. J'ai donc recherché du côté des graphèmes. Le dictionnaire Larousse définit ce terme : « Unité graphique minimale entrant dans la composition d'un système d'écriture » mais on ne dit pas comment se définit une « unité graphique minimale ». On dispose des règles de connotation pour la description des phonèmes : si, en changeant de son on change le sens de la phrase ou du mot, il y a un phonème. Par exemple, en allemand, un phonème peut avoir deux réalisations quand le ch se prononce dur ou doux selon le contexte ou la voyelle qui précède comme dans Buch et Chemie. De fait, la définition du graphème est si générale qu'elle ne peut pas être fausse, mais pour une science elle est trop imprécise pour être opérationnelle. Dans Pour une théorie de l'écriture de I. J. Gelb (Gelb, 1973) on s'attendrait à trouver des définitions mais il s'agit plutôt d'une analyse historique et diachronique depuis Sumer et d'une tentative pour remplacer les écritures idéographiques par des logogrammes. Or, le caractère chinois est plutôt un morphème. O. Ducrot et T. Todorov dans leur Dictionnaire encyclopédique des sciences du langage (Ducrot et Todorov, 1972) donnent des définitions de base et parlent d'écritures morphémographiques, mais personne n'a vraiment travaillé sur le sujet même et ce malgré le développement d'Unicode. Il en résulte donc que nous n'avons toujours pas vraiment de terminologie ni de concepts assurés. En interrogeant le terme graphème, sur internet, on trouve toutes les définitions possibles et imaginables mais aucune n'est satisfaisante : elles sont vagues ou inopérantes, ou bien s'appliquent aux alphabets latins, mais ne conviennent pas ou négligent le chinois… Revenant au graphème, si l'on dit que les éléments de l'écriture sont des graphèmes, ceux -ci doivent-ils se définir par rapport au phonème ou y a -t-il des éléments de l'écriture qui permettent de définir le graphème sans référence à la langue parlée ? A l'examen, on constate qu'il est évident que le graphème est également lié à la langue et non seulement à l'écriture. De ce fait, il perd en universalité. Pour les alphabets, il est sûr que c'est lié à la phonologie car les écritures alphabétique sont, en quelque sorte, de niveau phonologique. C'est différent en chinois où le caractère correspond bien à un graphème. En revanche pour les écritures indiennes, on peut se poser la question : la syllabe graphique est-elle un graphème ou bien faut-il la décomposer ? Les contre-exemples étant possibles, faut-il revenir aux langues parlées pour définir le graphème ? Cela va dépendre des langues. Si l'on examine les règles de coupures de mots en fin de ligne ou les règles initiales de classement alphabétique (par exemple, dans les dictionnaires espagnols les mots commençant par ch ou ll ne sont pas classés aux lettres c ou l mais font l'objet d'un classement spécifique) on voit donc que, même pour les langues d'écriture latine, un graphème ne se confond pas complètement avec un caractère puisqu'il existe des graphèmes composés de deux ou plusieurs caractères. En français, la lettre e, lorsqu'elle est accentuée donne lieu, dans les lexiques à des tris secondaires, les mots commençant pas be étant placés avant ceux commençant par bé puis bê … Ces règles sont indiquées avec beaucoup de précision dans les codes typographiques. Dans les autres langues basées sur l'alphabet latin et comportant des signes diacritiques, les exemples se multiplient. On n'a pas la réponse, mais les règles de coupure de mot et de tri d'ordonnancement suffisent-elles à définir les graphèmes ? Dans les langues arabes, la notion de graphème est encore plus complexe à définir en raison des ligatures entre les lettres à l'intérieur des mots. Tous ces exemples soulignent, à l'évidence, la nécessité d'une grammatologie universelle. D'où la question récurrente : une science de l'écriture ou grammatologie est-elle possible ? Même si l'on se focalise sur l'écriture comme système sémiologique destiné à représenter des faits de langue, beaucoup de questions tout à fait fondamentales ne semblent pas abordées. Par exemple, les systèmes d'écritures sont-ils des systèmes formels dont on pourrait rendre compte sans avoir à recourir à la linguistique des langues parlées correspondantes ou doit-on recourir nécessairement aux éléments linguistiques qu'ils représentent ? Peut-on donner une définition universelle du concept de graphème par des procédés de commutation d'éléments purement graphiques ou doit-on systématiquement passer par les référents de la langue parlée ? Mais en même temps, un système formel est lui -même un système d'écriture. Comment alors rendre compte par l'écriture d'un système d'écriture ? Ne sommes -nous pas dans l'aporie déjà abordée par Gödel à propos des limites des systèmes formels ? En d'autres termes, la grammatologie est-elle susceptible d'une description indépendante du reste de la linguistique – quitte à décrire séparément l'articulation entre les deux plans – ou est-elle subordonnée à la phonologie et/ou à la morphologie ? Et l'on comprendra l'importance de cette question puisque la nature des réponses que l'on peut y apporter conditionne la formalisation. A titre d'illustration et de réflexion sur le sujet, je livrerai ici quelques définitions des termes graphème, lettre et caractère. On y verra bien souvent le poids encore trop présent de l'européocentrisme alphabétique. – Larousse : Unité graphique minimale entrant dans la composition d'un système d'écriture – Le Robert : La plus petite unité distinctive et significative de l'écriture, lettre ou groupe de lettres correspondant à un phonème ou à un repère morphologique, étymologique (exemple ch en français). – Gleason : Un système d'écriture est constitué par un ensemble de graphèmes auquel s'ajoutent certains traits caractéristiques de leur emploi. Chaque graphème peut avoir un ou plusieurs allographes. Les graphèmes et les allographes ont, dans le système d'écriture, une situation comparable à celle des phonèmes et des allophones dans le système phonologique […] Chaque graphème représente une certaine portion de la structure de la langue parlée associée ou sous-jacente. Cette portion constitue la référence du graphème. Puisque l'expression de la langue parlée consiste en deux systèmes structurels fondamentaux, il y a deux grands types de graphèmes du point de vue de leurs références. Le type de graphème le plus familier est celui qui a une référence phonologique. Un second type de graphème a une référence morphologique. Les graphèmes à référence morphologique sont généralement appelés idéogrammes.] – Lafont : Graphe [trace modélisée] constituant une unité dans un système stabilisé. – Robert : Signe graphique qui, employé seul ou combiné avec d'autres, représente, dans la langue écrite (écriture alphabétique, syllabique), un phonème ou un groupe de phonèmes. – Le Robert : Signe gravé ou écrit, élément d'une écriture Ces quelques définitions, glanées ça et là, se caractérisent soit par une trop grande généralité qui leur ôte tout caractère opératoire soit par une trop grande restriction, implicite ou explicite, à l'univers alphabétique occidental. Nous allons continuer le développement de ce site destiné à recueillir les éléments descriptifs et explicatifs. Mais toutes les personnes intéressées à fournir la description d'une écriture donnée seront naturellement les bienvenues. La ligne graphique sera complètement renouvelée et beaucoup de pages statiques seront remplacées par des éléments issus dynamiquement du système SDX (système documentaire en XML) de manière a assurer une plus grande souplesse de présentation et une plus grande évolutivité des données. Le travail théorique esquissé ci-dessus devrait être abordé au cours de l'année scolaire 2002-2003 au CRIM. Les travaux correspondants seront publiés sur le site web. De plus, un forum devrait être ouvert permettant de débattre de l'ensemble de ces questions entre toutes les personnes intéressées .
Écritures du monde est un centre de ressources web créé par Monique Slodzian, François Stuck et Michel Bottin, consacré aux applications des écritures du monde. Il a pour ambition de donner accès à tout un contexte, tant technique que culturel, indispensable pour gérer des documents ou écrire dans des situations multi-écritures. Sachant qu'Unicode ne concerne que la codification universelle des caractères, il manque, en effet, à la majorité des utilisateurs tout un savoir culturel et technique qu 'Écritures du monde leur offre. Ce site intègre donc des éléments de la généalogie et de l'histoire des écritures. Il décrit aussi le dispositif général d'Unicode et le contexte informatique élargi (moteur de recherche, polices, traitements de texte, tris alphabétiques et autres outils de gestion multilingues). Enfin, il décrit des savoirs précis : typographie traditionnelle ou informatique, translittération, calligraphie...
sciencesInfo_06-0253622_tei_DN_063_0237.tei.xml
termith-386-communication
Les polices numériques ont connu diverses innovations et avancées depuis leurs débuts il y a plus de quarante ans et les progrès se poursuivent. L'apparition d'Open--Type et la prise en charge croissante d'Unicode constituent deux améliorations ré volutionnaires dans le traitement des glyphes. En revanche, le domaine de la forme des glyphes semble être en panne depuis plusieurs années. Les années 1970, 1980 et le début des années 1990 ont vu l'apparition de plus de 150 formats de police (Karow, 1994, p. 22) et la mise au point de plusieurs méthodes mathématiques qui suscitèrent des controverses. Après cette phase d'innovations et de spéculations, les formats TrueType et PostScript, tous deux définis à l'aide de contours, « ont remporté la compétition » (Jackowski, 1999). Après l'abandon de la technique Multiple Master 1 par Adobe, il semble que la description statique de glyphe, précisée directement par le concepteur de polices sans faire appel à des expressions mathématiques paramétrées, soit acceptée par tous comme le seul système pratique de production de documents - imprimés de qualité. Les mathématiciens ne paraissent pas oser explorer d'autres mé thodes de définition des glyphes qui d'ailleurs ne semblent être souhaitées ni par les concepteurs ni par les typographes. Cet article reprend le débat sur les modèles mathématiques utilisés dans la des cription de la forme des glyphes. Contrairement aux formats « intelligents » comme METAFONT ou Intellifont, le modèle proposé ici ne sert pas à la création de formes. Il s'agit simplement d'un outil de traitement de glyphes préexistants. Il produit en sortie des données de même format qu'en entrée, celles -ci peuvent être traitées par la suite, pour corriger manuellement les défauts qui y resteraient. Il ne s'agit donc pas d'un outil autonome, mais d'une méthode qui peut être utilisée par les concepteurs et qui permet d'automatiser une étape particulière de la conception. Toutefois, on peut encore en imaginer d'autres utilisations comme le post-traitement des polices par les moteurs de rendu ou comme l'analyse des dessins de police. Beaucoup de glyphes dérivent d'autres glyphes et ne différent que par leur taille. Toutefois, modifier de façon proportionnelle l'épaisseur d'un trait, lors d'un change ment d'échelle d'un glyphe, entraîne des altérations inacceptables des caractéristiques de ce glyphe (voir figure 1). Si on ne désire pas créer des glyphes à partir de rien, on peut imaginer deux manières de les produire à partir de caractères existants. L'une consiste à changer la taille en déplaçant uniquement des portions du contour plutôt que d'exercer la mise à l'échelle sur toutes les coordonnées de chaque point. Cette opération peut s'effectuer à la main (Hudson, 2005) ou à l'aide d'un programme informatique intelligent (André et al., 1994). Une autre méthode consiste à effectuer une mise à l'échelle géométrique et à corriger ensuite la force des traits. Ceci se fait habituellement à la main. Comme nous le montrerons ici, ceci peut également se faire à l'aide d'un modèle mathématique. On trouvera ci-dessous la description d'un tel modèle et quelques essais effectués sur celui -ci. On règle l'épaisseur de trait à l'aide d'un second archétype d'une force différente qui contient l'information de graisse nécessaire que l'on peut ajouter ou soustraire au besoin. Les Multiple Master permettent de décrire les contours d'un glyphes sous une forme numérique et de manipuler sans difficulté les formes correspondantes. Bien que ce format de police soit désormais abandonné en tant que format final, il est encore souvent utilisé par les outils de création de polices et il est de mieux en mieux accepté par les éditeurs de polices. Notre modèle – que nous appellerons « à échelle compensée » – pourra servir tant - au concepteur novice qu' à l'expert. Ce dernier épargnera du temps, alors que le no vice pourra de la sorte améliorer le dessin, car l'outil augmente la cohérence au sein des polices ainsi que des familles de polices. Tout comme une scie circulaire ne peut fabriquer toute seule des meubles et n'améliore peut-être même pas le produit fini de l'artisan, elle épargne, toutefois, beaucoup de temps. Elle effectue très bien certains aspects du travail sans empêcher une finition ultérieure. Cet article s'articule de la façon suivante : la section 2 présente le modèle. Ses formules, partant d'un principe d'abord simple, s'améliorent au fur et à mesure que de nouveaux aspects sont pris en compte. La section 3 vise à mettre le modèle à l'épreuve. En plus de le comparer directement au module Ek, les résultats de notre modèle sont comparés, sur des polices connues, pour les versions étroites, les petites capitales et les minuscules cyrilliques. Cette comparaison permettra de déterminer si les résultats du modèle mathématique se rapprochent suffisamment des polices faites main pour qu'ils puissent faire gagner du temps et servir de base à une finition ultérieure de la part du concepteur. Comparer les formes automatiques aux formes « réelles » permet de tester non pas le potentiel créatif de la méthode, mais de démontrer son utilité analytique .La comparaison, d'une part, des glyphes mis à l'échelle automatiquement et considérés comme des variations sans changement de style de leur base commune et, d'autre part, leurs versions conçues à la main révèle des modifications de la part du concepteur parfois insoupçonnées. La section 4 décrit en détail les différentes applications de cette méthode. Enfin, la section 5 signale quelques propriétés singulières de notre démarche et tire les conclusions de notre étude. Si on réduit optiquement un glyphe, ses traits s'amincissent également. À l'aide d'un second archétype plus gras, il est possible d'en augmenter la graisse. La méthode - présentée ci-dessous n'est ni un procédé ni un algorithme, il ne s'agit que d'une équa tion, pour les coordonnées x et y, qui traite la forme dans une seule étape. Toutefois, à titre d'illustration, on expliquera certaines étapes comme si elles formaient une suite d'opérations successives. Théoriquement, la compensation de perte d'épaisseur de trait a lieu avant la ré duction d'échelle. En d'autres termes, on met à l'échelle une instance intermédiaire – interpolation entre la forme normale et grasse (fig. 2). Cette instance est calculable. Les versions étroites se créent en n'appliquant que les changements horizontaux, - ce qu'on nomme une interpolation anisotrope. La valeur en x de chaque point corres pond à la version réduite demi-grasse alors que les valeurs en y demeurent celles de la version normale (fig. 3). Faisons l'hypothèse qu'un glyphe de graisse normale doit être réduit par un facteur d'échelle f tout en compensant la perte d'épaisseur de traits. À cet effet, on construit une interpolation entre l'archétype normal (xn, yn) et l'archétype gras (x g, y g) avec un facteur d'interpolation q. On trouve le facteur q en calculant l'épaisseur de trait du résultat final. Soit n - l'épaisseur de trait typique d'une police de graisse normale et r le rapport des épais seurs du gras et du normal; rn est alors la graisse de l'archétype gras. Comme la graisse doit rester constante, l'épaisseur du trait d'origine est égal à l'épaisseur du trait final. d'où On peut tout de suite éliminer l'épaisseur de trait n, ce qui démontre que le modèle ne dépend pas de l'épaisseur des traits et qu'il ne tente pas de les prendre en compte. La notion d'épaisseur de trait n'est qu'un élément passager du raisonnement. Seul r, le rapport entre les épaisseurs grasse et normale typiques, intervient dans le traitement. Les formules [1] et [3] définissent la forme finale. On pourrait n'en faire qu'une seule équation, mais cela n'est pas nécessaire ici. Ces formules ne dépendent pas des courbes de Bézier, on peut les utiliser avec n'importe quel format pour peu qu'il existe deux ensembles de données correspondants. Il n'est guère souvent souhaitable de compenser complètement l'épaisseur de trait. Ainsi, les petites capitales sont-elles habituellement légèrement plus maigres que les majuscules. C'est pourquoi on introduit un facteur d'échelle de traits t : sa valeur se situe entre 0pour une compensation complète, comme ci-dessus, et 1pour aucune compensation, en d'autres termes une simple mise à l'échelle géométrique de la forme normale. On définit la valeur t de telle sorte que l'épaisseur de trait est modifiée par le facteur ft; f 0 =1signifie que l'épaisseur de trait ne doit pas changer et f 1 = f signifie que le trait est mis à l'échelle de la même manière que le reste de la forme. On modifie les équations [2] et [3] en conséquence : La définition abstraite du paramètre permet au concepteur de choisir, avec un mi nimum d'expérience, la valeur de manière intuitive. En outre, si on ajuste le facteur d'échelle – par exemple alors qu'on essaie différents corps de petites capitales – le facteur d'échelle des traits peut demeurer inchangé. Dans la plupart des cas, les facteurs d'échelle horizontale et verticale doivent être différents. La solution mathématique est des plus simples : on définit f x et f y comme des facteurs d'échelle indépendants pour les directions x et y, on définit également des valeurs indépendantes qx et qy pour les interpolations horizontale et verticale : Si on fait subir à un glyphe une transformation anisotrope, l'angle d'italique change. Pour éviter cet effet, on redresse d'abord le glyphe vers la gauche avant sa transformation puis vers la droite après celle -ci (fig. 4). Les étapes de la figure 4 ne sont qu'imaginaires car en fait ces opérations s'effec-tuent simultanément, en une seule équation : où i est la tangente de l'angle d'italique. Dans la formule [6 ], xn et xg sont modifiés en leur soustrayant respectivement yni et nygi qui représentent l'inclinaison vers la gauche. Le terme yi permet d'incliner à nouveau le glyphe selon son angle d'origine. Ceci produit une légère inclinaison des tangentes de Bézier qui définissent d'ha-bitude un glyphe. Cela pose, selon la technique utilisée, un problème qui peut être résolu à l'aide de méthodes appropriées qui sortent cependant du cadre des équations mathématiques exposées ici. Si l'on souhaite modifier l'angle d'italique, il suffit d'ajuster la valeur i. Si la police comprend un axe de corps optique, il nous est alors possible de régler l'épaisseur des déliés et des fûts. Au lieu de deux archétypes, on en aura quatre, chacun avec une épaisseur typique de délié et une épaisseur principale de fût. Les coordonnées des quatre archétypes seront (xn, yn) pour l'épaisseur normale de texte, (xg, yg) pour le gras, (xan, yan) pour l'épaisseur normale sur écran et (xag, yag) pour le gras sur écran. Les facteurs d'interpolation deviennent q pour l'axe de graisse, et p pour le corps optique : On détermine p et q à l'aide d'une équation similaire à [4 ]. Soit n l'épaisseur typique de trait des fûts de graisse normale, et r le rapport des épaisseurs du gras et du normal; rn est alors l'épaisseur du gras. Pour les déliés, l'épaisseur de trait typique de graisse normale peut être n et l'épaisseur de graisse de l'archétype gras peut être rn. On calcule l'épaisseur de fût et de délié de la manière suivante : La solution de ces deux équations à deux inconnues (p et q) nécessite des rudi ments de mathématiques. Comme les équations finales sont très longues, nous ne les présenterons pas ici; toutefois, le calcul de p et q s'effectue facilement à l'aide d'un ordinateur. Afin de simplifier la discussion, nous avons fait jusqu' à présent l'hypothèse que - nous réduisions la taille de l'archétype le plus maigre. Néanmoins, il n'est pas né cessaire de modifier les formules ci-dessus dans les autres cas. Ainsi, si l'on désire réduire l'archétype gras, on peut « prétendre » qu'il s'agit de l'archétype « normal », l'épaisseur de trait de l'autre archétype est toujours définie à l'aide de rn où le rapport de graisse r < 1 cette fois. Injecté dans [3 ], on trouve un facteur d'interpolation q > 1, autrement dit une extrapolation. Si on agrandit l'archétype le plus maigre, on a donc f > 1, ceci signifie que q devient négatif, ce qui mène encore une fois à une extrapolation. Si on agrandit l'archétype gras, on obtient une interpolation avec 0 < q < 1. On ne calcule pas explicitement l'approche gauche, il s'agit de la valeur en x du nœud le plus à gauche. La chasse du glyphe se calcule à partir des chasses des deux archétypes à l'aide d'équations similaires à [6] ou [9 ]. Cela produit un espacement harmonieux et constant comme l'illustre l'exercice ci-dessous (fig. 5). On forme un seul glyphe à l'aide de toutes les lettres d'un mot, comme on le fait parfois pour les logotypes. On identifie et mémorise la position des frontières entre les lettres et leur chasse. On met ensuite le mot complet à l'échelle désirée. Si on fait l'hypothèse que la méthode de mise à l'échelle produit des proportions - raisonnables et correctes à l'intérieur des glyphes, on peut déduire du glyphe multi lettre mis à l'échelle les approches désirées. Il en va de même pour le crénage que l'on peut calculer à l'aide d'une équation équivalente à [6] ou [9 ]. On ne peut calculer de la sorte que le crénage interne entre glyphes mis à échelle, et non celui entre glyphes mis à l'échelle et ceux qui ne le sont pas. Une autre solution relative aux approches consiste à les conserver identiques à ce qu'elles étaient avant la mise à l'échelle Habituellement, la chasse et les dimensions totales du glyphe ne sont pas mises à l'échelle par le facteur f. Ce n'est le cas que si ces valeurs sont les mêmes dans tous les archétypes concernés. La déviation par rapport au facteur f peut même varier d'un glyphe à l'autre. Toutefois, comme on règle habituellement le facteur d'échelle adéquat par tâtonnements, ce manque de maîtrise sur le résultat final ne présente pas un problème majeur. Au contraire, le fait que le résultat comprenne certaines proportions des autres archétypes produit un résultat plus cohérent que si on avait choisi un facteur d'échelle pour chaque glyphe isolément. Ceci deviendra plus clair dans notre comparaison avec le module Ek ci-après. On peut expressément régler la hauteur de toutes les petites capitales puisque la hauteur des majuscules est, en règle générale, la même pour tous les archétypes. Afin d'éviter des défauts (des plis) dans le contour en sortie, si les tangentes corres pondantes des archétypes en entrée ne sont pas parallèles, il faut alors que les rapports de longueur des « poignées » – les droites qui relient les nœuds aux points de contrôle voisins – soient égaux; voir (Adobe Systems, 1995, p. 14) et figure 6-a. En outre, - la même condition s'impose aux nœuds reliés à une courbe et à une droite, les rap ports entre la longueur de droite et la poignée doivent être égaux (6-b). Ces conditions peuvent-être déduites du théorème des lignes sécantes. De surcroît, les longueurs des poignées à l'intérieur d'un segment de courbe doivent être comparables pour tous les archétypes (fig. 7). Si on considère que la valeur en y de n'importe quel point de l'archétype gras est ignorée quand on crée une police étroite, il est facile de voir que le rapport des longueurs de poignées joue un rôle important dans le résultat final. La définition exacte de « comparable » pourra s'avérer différente de celle fournie dans la figure 7. Le programme de lissage que nous avons écrit à cet effet utilise en fait une définition légèrement plus affinée. Les conditions mentionnées ci-devant peuvent surdéterminer les poignées, dans ce cas on donne moins de priorité à l'égalité au sein d'un segment de courbe. Par manque de place, nous ne discuterons pas ici de l'algorithme qui lisse les courbes. On pourrait se demander s'il est possible de changer les points de contrôle sans modifier la forme des glyphes. Les courbes de Bézier possèdent un degré de liberté - redondant, il est donc possible de compenser le changement de longueur d'une poi gnée à l'aide de l'autre poignée dans la courbe, quasiment sans aucun effet perceptible sur la forme de la courbe. Il faut souligner ici que les redondances sont la principale - source de problèmes dans les interpolations et les extrapolations, qu'elles soient iso tropes ou anisotropes. Bien que la redondance des courbes de Bézier soit inévitable et qu'elle puisse être réglée à l'aide d'une macro, il revient au concepteur de structurer correctement les nœuds pour éviter toute redondance supplémentaire. La méthode a été mise en œuvre à l'aide d'une macro Python dans FontLab. La boîte de dialogue illustre les paramètres nécessaires (figure ci-contre). Les champs - pour les largeurs typiques de fût sont automatiquement remplis à l'aide des fûts standards mentionnés dans les paramètres globaux de « nuancement » (hinting) de la po lice. Si leur valeur implicite est correcte, nul besoin de les modifier. Le programme n'utilise que le quotient des fûts r, ainsi - n'est-il pas important de savoir si on se réfère ici aux fûts des minuscules ou des ma juscules. Les valeurs pour les facteurs d'échelle ho rizontal et vertical et le facteur d'échelle - des traits doivent évidemment être choi sies par l'utilisateur. Il en va de même de l'archétype ou des archétypes auxquels - doivent s'appliquer la macro. Il faut égale ment saisir la tangente de l'angle italique. Si la case « conserver les avances » (keep sidebearings) est cochée, les avances ne sont pas affectées par le procédé, ce qui est commode quand on modifie des glyphes isolés pendant la phase de conception. Quand on transforme un ensemble de glyphes - ou une police entière, cette case ne devrait pas être cochée afin d'obtenir un espa cement cohérent. Il faut ajouter qu'il faut souvent effectuer des ajustements globaux successifs à l'interlettrage à l'aide d'autres outils fournis avec l'éditeur de polices. La - transformation effectuée par la macro peut être simulée par une série d'actions in tégrées à FontLab. Toutefois, ceci pourrait entraîner des erreurs d'arrondi et prendre beaucoup de temps. Afin d'établir dans quelle mesure le résultat de la méthode se rapproche de la version définitive et de déterminer quels genres de perfectionnement sont nécessaires, nous avons produit des versions petites capitales, étroites, et minuscules cyrilliques à partir de polices existantes. Les annexes B à F comparent les versions originales et les versions automatiques produites par la méthode présentée ici. Dans chaque cas, deux versions différentes des polices d'origine sont rassemblées dans une police MM, puis lissées par la macro décrite ci-dessus. On a ensuite choisi les paramètres nécessaires pour que les résultats se rapprochent le plus possible à l'original, mais aucune retouche manuelle n'a été apportée. Afin de faire ressortir les différences, elles ont été accentuées à l'aide d'une ex trapolation. Original triple et auto triple signifient que la différence a été triplée. En - d'autres mots, dans un contexte à multiples archétypes, les quatre segments représentent les positions − 2 000, 0, 1 000 et 3 000. Les exagérations dans les deux direc tions sautent aux yeux. Elles ne servent pas à émettre un jugement esthétique, mais simplement à faire ressortir de manière logique les différences. Cette exagération illustre quelques-unes de propriétés des vraies petites capitales. Les corrections optiques apportées au A et au V qui évitent l'apparition de taches noires aux jointures des traits sont plus prononcées pour les petites capitales. Il semble qu'on ait pris grand soin de produire un niveau de gris uniforme. Les M, n et w gras sont particulièrement trop gras dans la version automatique (fig. 8) ce qui devient apparent dans l'annexe. On peut se demander si ceci est dû à la méthode qui les a créés. Un examen plus précis des majuscules grasses et noires montre que ce problème se présente déjà dans les données en entrée. Paul Renner (1939) a décrit la cause de ce défaut – ignoré, à dessein ou non, par le concepteur dans les majuscules, mais pas dans les petites capitales – comme une « irradiation subjective » : « Une divergence quasi imperceptible dans l'épaisseur de trait peut être plus gênante pour les petits corps que les grands corps; on ne la détecte souvent que parce qu'elle se manifeste comme une divergence non tant dans l'épaisseur […] mais dans la lumière [… ]. Ceci est particulièrement gênant quand deux traits forment un angle aigu ou se croisent. Dans le cas des M, W, K et N et ainsi de suite, de minuscules zones se forment que l'irradiation ne rend pas suffisamment lumineuses. Ces taches nuisent à l'apparence générale de nombreuses polices – surtout dans leurs plus petits corps – à tel point qu'on ne peut les utiliser comme base pour les petites capitales. » La différence la plus évidente dans toutes les polices étroites produites par la mé thode est son « angularité » accrue, une tendance aux courbes hyperelliptiques dans les versions originales. On l'aperçoit dans la police Myriad ainsi que la Frutiger pour les - deux graisses (fig. 9). Dans Myriad ceci s'accompagne d'une tendance à des contre poinçons plus ouverts pour les C, G, S, a, c, e, g et s. La diagonale du z à une épaisseur visiblement fausse. Comme les annexes l'illus-trent, il s'agit là d'un problème général des diagonales et on l'expliquera donc ici en - détail. L'épaisseur de la diagonale, de chaque archétype, est déterminée par deux de grés de liberté (fig. 10), comme une redondance. Étant donné que toute information verticale de l'archétype gras est ignorée lors de la production de la version étroite, cette interaction n'a plus lieu ce qui peut produire des diagonales inadéquates. Le segment en pointillé représente une autre possibilité pour les deux nœuds en bas à gauche. Bien que l'épaisseur de la diagonale de l'archétype gras ne changerait pas, ceci produirait une diagonale plus maigre dans la version étroite, car les nœuds produits bougent vers la droite alors que le changement en hauteur du nœud supérieur est ignoré. Il existe une autre redondance qui semble jouer un rôle important dans le z Myriad : le nœud situé sur la diagonale. On peut le déplacer le long de la diagonale, dans une plage donnée, sans changement visible (indiqué par R). Dans le cas du z gras, les positions relatives du nœud en question sur la diagonale sont plus à droite et, après l'interpolation anisotrope, trop à droite dans le résultat final, rendant la diagonale trop épaisse. Quand des traits courbés rejoignent des fûts, comme pour le n et le p, la réduction de la graisse est exagérée dans la version automatique. La raison qui explique cette épaisseur inadéquate est, vraisemblablement, semblable à celle proposée pour le z, cependant l'interaction des nœuds et des points de contrôle est plus complexe ici. Certains glyphes montrent des épaisseurs relatives différentes dans la version - conçue à la main. La mise à l'échelle compensée, en utilisant par exemple les proportions d'épaisseur de trait d'une instance semi-grasse, conserve les proportions ho rizontales. Frutiger a dessiné un s et un c relativement large dans la version de graisse normale, alors que dans la Frutiger 87 l'o est trop étroit et ne conserve pas les proportions (fig. 11). Il s'agit manifestement d'une décision consciente qui démontre que, bien que la macro ait produit le résultat escompté le dessin de la police étroite néces site une décision humaine qui ne peut être automatisée. Beaucoup de lettres cyrilliques adoptent les mêmes formes de base pour les versions majuscule et minuscule. Ceci les rend intéressantes pour la mise à l'échelle compensée. Nous avons produit automatiquement des versions minuscules des lettres pertinentes bien que ceci ne reflète pas nécessairement l'ordre dans lequel les lettres auraient été conçues. En effet, quand les minuscules sont dessinées en premier, on forme les majuscules en agrandissant les minuscules. Comme l'annexe E l'illustre, après avoir d'abord essayé de créer les lettres à l'aide de facteurs d'échelle globaux, il est devenu évident que les proportions relatives de la minuscule diffèrent de la majuscule. Zhukov (1996, p. 11) déclare que « l'ordre visuel des minuscules cyrilliques est assez différent de celui qui régit les minuscules latines. […] Les nuances de proportion et de graisse, ainsi que des détails dans l'agencement, jouent des rôles cruciaux dans l'ordre visuel. » Afin d'illustrer les particularités de l'alphabet cyrillique, Zhukov présente le résultat d'analyses quantitatives portant sur celui -ci. Toutefois, sa taxinomie ne prend en compte ni proportion ni graisse. Afin de produire le meilleur résultat possible, nous avons appliqué des facteurs d'échelle horizontaux différents aux différentes lettres. Cette « clé » permet de mieux saisir la structure profonde du cyrillique. L'essai sur Gauge a démontré que cette clé n'est pas universelle, toutefois des recherches ultérieures permettraient sans doute de découvrir des principes généraux en fonction du style de police. Après avoir établi - la valeur de la clé, il deviendra plus facile de créer des polices cyrilliques, particu lièrement pour les concepteurs dont ce n'est pas l'écriture « maternelle ». On pourra compenser le manque de notion de proportions correctes à l'aide de cette approche rationnelle. Bien qu'il faille fortement corriger la longueur des empattements verticaux, ceux -ci sont très proches de ceux dessinés à la main. Ceci s'explique par l'axe de corps op tique et la structure formelle de cette police particulière et il se peut que dans d'autres cas il faille apporter plus de corrections. Le module Ek fait partie du programme hz mis au point par URW à Hambourg (Karow, 1997). Il permet de créer des versions étroites ou élargies de glyphes sans avoir recours à un second archétype (Karsh, 1993, p. 7). Ceci n'est possible qu'en utilisant des informations supplémentaires stockées avec les données de contour : « Puisque la définition des droites et des courbes est désormais incorpo rée aux programmes, l'épaisseur des fûts et des courbes demeure aujourd'hui inchangée quand on modifie les réglages. Dans des cas extrêmes, les courbes prennent des formes irrégulières, mais le programme a été modifié pour corriger ces défauts et permettre dorénavant l'ajustement automatique des courbes. » (Anonymous, 1981) Bien évidemment, le programme utilise les instructions supplémentaires (fig. 12 gauche) pour déformer le contour afin de préserver l'épaisseur des traits. On peut considérer cela comme « un déplacement d'une portion du contour » comme nous le mentionnions dans l'introduction. La comparaison des résultats du module Ek et de la mise à l'échelle compensée - illustrée en annexe G permet de voir à quel point ces résultats sont similaires mal gré leurs façons très différentes d'aborder le problème. La plupart des différences sont dues à des petites variantes de forme, avant mise à l'échelle, dans les glyphes - d'origine. Dans la version la plus étroite, la chasse de certaines lettres diffère (fig. 12 droite). Comme nous l'avons décrit ci-dessus, la mise à l'échelle compensée renforce légèrement les proportions du gras par influence de l'archétype gras. La section précédente laissait sous-entendre quelques utilisations possibles de la mise à l'échelle compensée. Nous discuterons ci-dessous de ces emplois possibles. Une famille de polices comprend, en règle générale, plusieurs graisses chacune avec des centaines de glyphes. Comme il existe de nombreuses similarités au sein de cette famille, la description de ces régularités et l'utilisation de celles -ci peuvent réduire considérablement le nombre de glyphes à dessiner à partir de zéro (fig. 13). Comme l'annexe A l'illustre, un grand nombre de glyphes peut être composé à partir - d'autres glyphes sans aucune modification à la forme de base. La conception des ca ractères accentués nécessite peu de décisions de la part du concepteur, il suffit en effet de décider de l'emplacement de l'accent par rapport au glyphe de base. Les régularités au sein des positions relatives permettent de réduire encore l'intervention humaine à l'aide de ce qu'on nomme des points d'ancrage. Il est également possible de créer des glyphes grâce à la rotation et la translation d'autres glyphes. Généralement, on peut ainsi créer plus de la moitié des glyphes d'une police à partir d'autres glyphes. La mise à l'échelle compensée permet de réduire encore le nombre de glyphes à dessiner. Si on prend le Minion comme exemple, 172 glyphes soit 39 % des glyphes restants peuvent être produits automatiquement, au moins en tant que bases pour une finition manuelle ultérieure. On pourrait se demander si l'utilisation de la mise à l'échelle compensée a un effet sur la forme finale des glyphes, même si le concepteur fait toutes les corrections qu'il considère comme nécessaires. Si l'outil a un effet sur le dessin, il est probable que les glyphes produits seront plus proches des glyphes existants que ceux qui seraient produits à la main, ce qui pourrait donner l'impression qu'ils sont « trop parfaits » ou « insipides ».. Toutefois, il n'existe pas d'argument convaincant qui batte en brèche l'idée selon laquelle il est préférable de maximiser l'homogénéité visuelle des polices. L'extension de polices préexistantes par un tiers est un cas particulier – qui n'est pas rare – quand il faut réduire au maximum l'originalité des nouveaux glyphes. Une utilisation de notre méthode qui ne crée pas de nouveaux glyphes consiste à corriger la chasse des lettres individuelles. Le réglage minutieux des proportions - accapare une part considérable du temps consacré à la conception d'une police. Man fred Klein (1991, p. 132 et suiv.) décrit l'élaboration du Poppl Pontifex en 1973-1974, avant l'ère du numérique, comme « un long parcours semé d'embûches tant lors du dessin que dans les corrections à apporter ». La modification des chasses tenait un rôle de premier plan : « les experts de Berthold, dirigés par Günther Gerhard Lange, lui soufflaient : “plus serré, plus classique, plus lisse” [. ..] À la suggestion de G. G. Lange, des lettres comme les h, g, m, n et o étaient devenues plus étroites. » À l'étape suivante de la conception, il fallait à nouveau modifier la chasse des lettres. « On dut encore réduire la chasse de sept minuscules et de deux majuscules. » Plus tard, il « redessina trente-huit lettres sous une forme plus étroite tout en conservant l'esprit du style qu'il recherchait. » On peut faire l'hypothèse qu'avec les outils numériques - d'aujourd'hui ce long labeur serait singulièrement allégé. La mise à l'échelle compen sée permet une amélioration supplémentaire – et radicale ! – du temps nécessaire au dessin en réduisant la création d'un glyphe plus étroit ou plus large à une seule étape. La mise à l'échelle compensée permet d'ajuster la hauteur des « x » (la hauteur des bas de casse) ou d'ajuster la chasse de la police dans son ensemble ou encore d'ajuster la chasse des majuscules par rapport aux bas de casse. Comme nous l'avons expliqué - dans l'introduction, effectuer ces ajustements à la main nécessite un effort considé rable. Si la mise à l'échelle compensée modifie la hauteur des « x », il suffit alors de ne corriger par la suite que la longueur des jambages ascendants et descendants, ce qui ne prend qu'une fraction du temps nécessaire par rapport à la méthode classique. En dehors de la production de polices, le modèle présenté ici peut également servir dans la composition de textes et y jouer un rôle similaire au module Ek du programme - hz qui étroitise ou étend les lettres afin de faciliter la justification de texte et de produire ainsi un texte d'un gris homogène. La mise à l'échelle compensée peut égale ment être mise en œuvre dans un système proposé par Peter Karow (1998, p. 279) : « Extensions à un gestionnaire de polices. La production de textes plus resserrés ou plus espacés, tout comme la mise à l'échelle optique, peut être mise en œuvre dans un gestionnaire de polices. On pourrait alors charger une police MM qui ne com prend que deux graisses tout en pouvant toujours procédant à l'interpolation à trois dimensions typique », c'est-à-dire la graisse, la chasse et le corps optique. Toutefois, la méthode décrite ici ne permet pas l'interpolation du corps optique. Contrairement au cas où la mise à l'échelle compensatrice sert d'outil de concep tion, la méthode présentée ici permet à l'utilisateur de régler à sa guise les facteurs d'échelle. Toutefois, on est en droit de se demander si cette méthode est préférable à des variantes statiques, dont la force et le corps auraient été définis par un concepteur de caractères. Il s'agit là d'un désavantage semblable à celui qui consiste, pour un utilisateur final, à utiliser la technique des MM sans pouvoir corriger le résultat et les défauts qui s'y seraient glissés. D'un point de vue analytique, les essais effectués à l'aide de la mise en échelle compensée ont permis d'identifier certaines différences « typiques » entre les vrais glyphes et ceux produits par la méthode. Bien que ces indices de différences n'aient pas été obtenus ni analysés de manière systématique, nous avons déjà pu tirer quelques leçons qui pourraient servir dans la conception d'une nouvelle police. Elles laissent à penser que l'outil pourrait servir à établir une étude systématique. Se pencher sur cette question équivaut à poser les questions fondamentales sui vantes : qu'est -ce qui fait qu'un caractère est véritablement étroit au-delà du fait que ce genre de caractères est en règle générale plus ramassé ? Qu'est -ce qui fait qu'une minuscule et une petite capitale cyrillique se distinguent d'une majuscule cyrillique à part le fait qu'elles sont plus petites et un peu plus larges ? Si on compare les majuscules et les petites capitales directement, les différences stylistiques sont parfois difficilement perceptibles, car la disparité de corps domine en termes visuels. Éliminer les différences de corps en produisant des versions de même style par mise à échelle compensée permet d'identifier et de discuter rationnellement de détails invisibles lors d'une comparaison directe. Une recherche dans ce domaine nécessiterait l'analyse de bien plus de polices que nous n'avons eu l'occasion de le faire pour cette communication – un champ d'études fertile pour de futures recherches typographiques. Depuis des siècles, décrire la plastique et les formes idéales sous la forme d'équa--tions mathématiques a constitué un défi pour plus d'un excellent artiste. De nombreuses disciplines artistiques tentent de décrire des formes idéales dans leur disci pline à l'aide d'équations, cela est également vrai pour la typographie que ce soit avec un compas et une règle (Carter, 1991) ou à l'aide de programmes informatiques (Knuth, 1982). Puisque dans notre système d'écriture les glyphes doivent former un ensemble uniforme, il semble raisonnable de produire une description générale pour l'ensemble de l'alphabet. Pour des raisons techniques, esthétiques et pragmatiques, identifier et décrire les - régularités d'une police est séduisant. Réduire son contenu formel à un strict mini mum, même si cela signifie qu'on impose plus de cohérence et d'égalité, s'accorde avec l'essence de l'écriture. C'est exactement ce qui s'est produit quand l'écriture manuscrite, avec des lettres pratiquement identiques, a été transposée en des formes en plomb très typées. Toutefois, dans le domaine typographique, l'égalité mathématique ne se confond pas avec l'égalité visuelle. Pour que des éléments de glyphes aient l'air identique, beaucoup d'entre eux peuvent être différents. Il faut régler finement de nombreux paramètres de glyphe, tant en ce qui a trait aux détails que dans l'ensemble. Ainsi, ne peut-on produire une police grasse à l'aide d'un concept mathématique global. On ne peut pas simplement modifier l'épaisseur de tous les traits qui forment les lettres, encore moins toutes les formes qui ne sont pas des fûts. Les polices à contours constituent le meilleur choix pour ce qui est de la représen tation des glyphes, car elles ne comptent pas sur des traits ou des fûts et laissent plus de liberté aux concepteurs. Il en va de même pour la mise à échelle compensée qui a été décrite et testée dans cet article. Bien que deux archétypes avec des épaisseurs de traits différentes soient nécessaires, cette méthode repose complètement sur le concepteur pour fournir l'in-formation qui respecte ces conditions : c'est la responsabilité – mais aussi le choix – du concepteur de définir explicitement la graisse de chaque glyphe. En traitant chaque point du contour de manière rigoureusement identique, la mise à échelle compensée ne corrompt pas l'essence du dessin. Elle conserve toutes les caractéristiques et corrections faites par le concepteur en fusionnant deux glyphes conçus à la main. Évidemment, même si tous les ajustements et modifications se retrouvent dans la définition, de nouveaux problèmes peuvent surgir quand on modifie le corps ou les proportions des glyphes, comme il est devenu apparent dans les tests de la méthode exposés ci-dessus. Toutefois, nos essais ont démontré que le résultat produit par le modèle se rapproche assez bien de glyphes faits main. Même si cette proximité n'a pas été quanti fiée, nous pensons qu'elle est assez grande pour que le modèle puisse servir de base adéquate à des perfectionnements ultérieurs. « Adéquat » signifie avant tout que la mise à l'échelle compensée peut faire gagner beaucoup de temps aux concepteurs. Outil mathématique de traitement et de fusion de glyphes, la mise à l'échelle compensée se situe entre les théories de construction de glyphes et les techniques de re production de glyphes conçues en fonction du coup d' œil du concepteur (fig. 14). Cet - outil intègre les « deux cultures » décrites par Carter (1991) et surmonte « cette dicho tomie profondément ancrée dans nos habitudes mentales et notre éducation – peut-être même dans l'anatomie des hémisphères droit et gauche de nos cerveaux, comme il est à la mode de penser. »
Cet article présente la « Mise à échelle compensatrice », une méthode d'avant-garde qui permet de modifier automatiquement les dimensions des glyphes. Pour les polices Multiples Masters ayant un axe « épaisseur », cette information sur la graisse permet de compenser les changements d'épaisseur de trait dus à un changement d'échelle. Elle peut également servir à créer de véritables petites capitales, des minuscules cyrilliques et - puisque les échelles verticale et horizontale peuvent être ajustées indépendamment l'une de l'autre - de vraies polices étroites. La comparaison avec des styles de caractères existants montre que le résultat du modèle est relativement proche de celui des vrais oeils. Contrairement aux formats de données « intelligents », le modèle présenté ci-dessous est une méthode de traitement de formes préexistantes qui n'est pas tributaire d'une technique de police particulière. Le résultat produit par cette méthode a le même format que celui des données fournies en entrée et il peut donc être réutilisé par d'autres outils. Cette méthode peut donc être l'un des modules d'une chaîne de dessin de caractères, plutôt qu'un outil autonome.
sciencesInfo_07-0514621_tei_DN_093_0133.tei.xml
termith-387-communication
Sollicité par Béatrice Fleury et Jacques Walter pour réagir aux deux articles deRobert Boure (2006, 2007) sur l'histoire des sciences de l'information et de lacommunication (sic), je ne me suis pas interrogé sur lalégitimité de ma contribution éventuelle (après tout chaque membre de la section estfondé à témoigner de sa perception de cette histoire au cours des 35 dernièresannées, sous réserve évidemment de ne pas tenir son « vécu » comme un élément depreuve irréfutable et de marquer autant que possible une distance critique parrapport à lui), mais je me suis demandé selon quelle perspective je pouvaisintervenir sans risquer de dériver vers quelque chose qui serait assimilable au« présentisme » justement dénoncé par l'auteur, en ce que cela constitue une« reconstruction du passé en fonction de préoccupations et d'enjeux intellectuels etsociaux contemporains, ce qui revient à chercher dans l'hier les antécédents et lalégitimation de l'aujourd'hui » (Boure, 2006 : 279). En effet, Robert Boure noteavec raison que je fais à la fois partie des « auteurs » qui ont proposé dessynthèses d'ordre théorique sur l'histoire et l'épistémologie des théories del'information - communication (synthèses qui, notamment pour ce que j'ai définicomme « la pensée communicationnelle », ont eu un « effet » performatif sur lesapproches des universitaires et des étudiants) et des « constructeurs » qui ont prispart plus ou moins régulièrement à l'édification des sic .Doublement impliqué, mes chances d'échapper à une reconstitution aposteriori étaient bien minces, soit d'un point de vue théorique, soit d'unpoint de vue socio-institutionnel. Dès lors, quel positionnement adopter ? Finalement, le choix qu'il me fallait opérerm'est apparu d'autant plus aisé que, partageant très largement le « projet » deRobert Boure depuis les travaux du groupe Théories et pratiques scientifiques (tps), en passant par l'ouvrage Lesorigines des sciences de l'information et de lacommunication. Regards crois é s( Boure, 2002) jusqu' à ces deux articles, à la fois très documentés et appuyéssur une vision épistémologiquement fortement étayée, je n'avais qu' à m'inscrire dansla voie qu'il avait tracée et y apporter, si besoin est, des compléments, desquestionnements, ou tout simplement des éléments d'information à ma disposition. End'autres termes, je ne chercherai pas à produire une analyse nouvelle ou différente ,et ne tenterai pas non plus de proposer cette illusoire synthèse entre des rôlesrelevant, d'une part, de l'élaboration théorique et, d'autre part, de laparticipation à la construction d'une interdiscipline, puis d'une discipline. Maperspective prolongera, ou plutôt accompagnera, le « projet » de Robert Boure qui meparaît constitué de quatre composants : le souci d'intéresser nos « contemporains endiscipline » (j'ajouterai : les plus jeunes mais aussi les moins jeunes, souventtout aussi déconnectés) aux enjeux, conflits, filiations et cheminements del'édification des sic, en mettant en parallèle, voire entension, les interprétations du passé comme du présent; l'enracinement de cettehistoire intellectuelle, non seulement sur le temps long, mais dans son contexte deproduction où le social (et donc le socio-institutionnel) précède le plus souvent lecognitif, ce qui n'est en rien dépréciatif mais signifie la mise en avant autant desméthodes historiographiques que de la réflexivité - celle -ci est toutparticulièrement indispensable pour les sciences humaines et sociales (shs) qui ont à s'interroger sur leur « régime de vérité »- et de l'analyse critique; l'engagement de travaux scientifiques mêlant le recoursà des éléments d'ordre empirique et la réflexion théorique (ce que l'auteur effectueavec un soin méticuleux à propos de l'origine littéraire des sic dans son deuxième article (Boure, 2007), à la fin duquel il donned'autres pistes sur des éléments-clés de l'histoire des sic). Marquant mon accord avec ce « projet » (l'auteur accepte -t-il ce qualificatif ?), jem'efforcerai d'en évaluer la réalisation actuelle comme les objectifs qui lui sontassignés pour l'avenir à la fin du deuxième article. Qu'on ne cherche donc pas dansla présente réaction une tentative de recherche d'ordre historiographique. Ce sontdes matériaux pour une telle recherche que je livre, comme je l'ai fait à plusieursreprises dans le cadre d'interviews accordées à des chercheurs, souventétrangers, et comme je le ferai sans doute encore. Il est vrai que j'ai dérogé unefois à cette règle, mais dans un contexte spécifique, celui d'une confrontation ausein du groupe tps (la précision est d'importance car il ya eu discussion et débat), et en collaboration étroite avec Jean Meyriat quidisposait d'archives de première main auxquelles s'ajoutaient celles à laquelle onm'avait donné accès à la Direction de l'enseignement supérieur à propos de lacréation des premiers départements d'IUT. À ce moment de l'argumentation, l'occasion m'est donnée de rectifier une erreursouvent commise. Il est faux de me considérer comme l'un des fondateurs des sic, ce qui serait loin d' être déshonorant mais qui est peuconforme aux faits. Si, à l'université Stendhal-Grenoble 3, la création des filièresde 2 e puis de 3 e cycles par une petiteéquipe de néo-universitaires au statut instable est effectivement contemporaine àd'autres créations de filières « historiques » (entre 1974 et 1976), nous avonsfonctionné en circuit quasiment fermé, au moins jusqu'en 1978 (date du I er congrès de la Société française dessciences de l'information et de la communication - sfsic -de Compiègne), essentiellement parce que notre insertion était pour le moinsaléatoire. Personnellement, je dois à Robert Escarpit de m'avoir accordé toute saconfiance, ce qui était très estimable dans une période aussi troublée pour lesnouvelles formations. Mais c'est seulement au début des années 80 que j'ai commencéà prendre activement part aux activités des instances nationales. Durant deuxdécennies, j'ai participé aux étapes d'étaiement, d'élargissement, et deconsolidation (en première approximation, on peut les qualifier ainsi, et il seraiteffectivement temps de s'intéresser de près à elles en ce qu'elles marquentprofondément le dispositif actuel). La question des origines littéraires des sic est traitéedans le plus grand détail par Robert Boure (2007). Certains y verront peut-êtrela marque d'une minutie excessive, et sans doute ne savent-ils pas combien dedétermination il a fallu à l'auteur pour dresser les deux listes annexées, celledes premiers enseignants-chercheurs reconnus par la l è re instance du Conseil consultatif des universités (la 52e section qui a précédé la 71 esection du cnu) comme celle des premières thèsessoutenues. L'ayant aidé dans certains cas, j'ai pu mesurer combien le caractèrelaconique des archives écrites se trouvait difficilement remplaçable par lerecours aux seules mémoires individuelles. Quoiqu'il en soit, ces états sontd'une richesse évidente et leur interprétation est loin de se limiter à lasommation des situations individuelles; on peut d'ailleurs considérer quel'auteur laisse les lecteurs procéder à leur propre lecture de ces données, etcertains découvriront peut-être avec étonnement combien les origines et lespratiques universitaires (pas seulement scientifiques) étaient diverses et mêmeéclatées. À l'évidence, les sic, même dans cettepériode qui suivait immédiatement Mai 68, ont été à l'origine, et pendant delongues années encore, un espace d'accueil pour des universitaires dont lespratiques d'enseignement et/ou de recherche, comme les réponses qu'ilsapportaient dans les programmes aux demandes sociales et professionnellesémergentes, les plaçaient (pour le moins) en porte-à-faux avec le fonctionnementdes universités et de la grande majorité des universitaires des shs. Robert Escarpit ne s'est jamais caché pour avouerses motivations dans ses démarches auprès des instances ministérielles : lanon-reconnaissance de facto de l'activité des (nouveaux )enseignants de journalisme et de documentation dans les départementscorrespondants d'iirr. Ainsi les sic ont-ellesaccueilli une grande partie de ceux qui ne se reconnaissaient pas dans lesdisciplines en place, ou même dans celles ayant récemment accédé à unereconnaissance institutionnelle (sociologie, sciences du langage, sciencepolitique, etc.). Dans ces conditions, on s'explique que certains, dont des fondateurs, rapidementmal à l'aise, aient rejoint leurs disciplines d'origine. Du reste, cela neconcerne pas prioritairement ceux qui avaient une formation en sciencesphysiques, mathématiques ou chimiques (qui, pour quelques-uns, trouvaientintérêt à la construction des sic pour l'avancée deleurs propres spécialités : documentation, audiovisuel, etc.). Ainsi RobertBoure (2007 : 277) a -t-il raison d'opposer l'argument fort de la pluralité despratiques universitaires face à ceux qui portent haut et fort l'étendard « desattributs cognitifs et sociaux de la scientificité ». Mais son objectif premier était autre : il était de vérifier l'interprétationantérieure de Jean-François Têtu (2002 : 89) selon laquelle « l'histoire de ladiscipline, par rapport à ses origines littéraires, apparaît donc commel'histoire d'une émancipation d'autant plus rapide que les « littéraires » n'ontjamais cherché à retenir les sciences de l'information et de la communication » .Fondé sur l'analyse de quelques parcours significatifs et sur l'examen desdirections de recherche, la conclusion de Jean-François Têtu se trouve sinoninvalidée, du moins nettement nuancée et repositionnée dans un ensemble ladépassant largement. L'acquis est incontestable. Encore convient-il del'expliquer, ce que Robert Boure ne fait qu'esquisser II me semble que l'on peuttenir pour des conjectures plus ou moins avérées (selon les universités) leconstat selon lequel l'organisation universitaire (et notamment la répartitiondes disciplines) d'après Mai 68, laissant de côté toute une série de domainesdonnant lieu à des filières de formation nouvelles, les universités et uer littéraires sont les plus promptes (et certainementles plus libérales) à admettre en leur sein les représentants de ces extensions .En quelque sorte, elles jouent le rôle de « structures porteuses », ce qui serévélera souvent appréciable, notamment pour la direction de thèses et laformation des docteurs. Mais cette incontestable ouverture a fonctionné auxmarges de ce qui demeure le cœur de leur activité, et leur absence de moyens( relativement à toutes les autres disciplines) a été source de conflits etsouvent de crises. Les sic sont donc toujours restéesen situation d'extériorité par rapport aux études littéraires, même si ellessont souvent apparues comme une voie de renouvellement des filières littéraires .Mais ceci ne se vérifie pas dans toutes les universités à dominante littéraire .En ce sens, l'émancipation des sic était en quelquesorte nécessaire, sous peine de rester marginalisées (c'est sans doute le destinqui les attendaient si elles avaient été « accueillies » par des disciplinescomme la sociologie ou la science politique, la psychologie aussi; mais ladistance scientifique était trop grande dans ce dernier cas). Il en auraitvraisemblablement été autrement si les sic avaientmajoritairement choisi l'option des « études culturelles ». Ceci étant, la miseau point de Robert Boure est d'autant plus judicieuse que l'analyse deJean-François Têtu a été parfois mal comprise et a conduit certains àconsidérer, y compris dans des écrits, les sic commes'étant émancipées des études littéraires sans une reconnaissance minimale del'apport de celles -ci; le reproche d'ingratitude est parfois même invoqué. Ensuite, à la lecture des deux articles de Robert Boure, il m'apparaît qu'il meten évidence un tournant - ou un seuil - autour de 1990. S'il n'emploie pas leterme, plusieurs éléments de son argumentation vont dans ce sens : l'analyse du7 e Congrès de la sfsic( Aix-en-Provence, 1 990), la présentation trèsprécise qu'il fait de mon rôle et de mon activité autour de cette date( avouerais -je que la lecture de ces passages fort documentés m'a remis enmémoire des événements ou des situations. .. oubliés), mais aussi la parution, àpeu près à la même période, de ce qu'il tient pour des histoires spontanées, enfaisant un sort particulier aux textes essentiels de Daniel Bougnoux pour uneraison qu'il explicite peu mais qui, à mon avis, a beaucoup à voir avec laquestion des « études culturelles ». C'est la reprise de tous ces éléments quime conduit non pas à cette conclusion, mais à cette hypothèse majeure quipourrait donner lieu à des travaux historiques ultérieurs, et que Robert Boureappelle de ses vœux. Mais à eux seuls, ils ne sont pas suffisants. Encoreconvient-il de les inscrire dans le contexte dans lequel ils se sont produits ,et qui me paraît marqué par le choix largement majoritaire de l'orientation versdes filières spécialisées, professionnalisées ou non, au détriment des deug à dimension « culture et communication ». Ce choixdes filières spécialisées permettait entre autres modalités : la gestion desflux d'étudiants séduits par la communication, la structuration de et par larecherche (commencée prioritairement en 1986, elle prend son essor un peupartout autour de 1990), l'élargissement de la carte des formations et desuniversités impliquées dans le développement des sic ,et le fait (comme le signale Robert Boure) que les différentes instancesnationales marchent alors d'un même pas et se coordonnent, conscientes desenjeux et de la nécessité de ne pas se disperser, et de concentrer les effortsvers des tâches d'édification et vers la résistance face aux menacesd'émiettement, comme ce fut le cas antérieurement en quelques occasions. Toutcela reste à préciser et à vérifier Encore une fois, je suis mal placé pour lefaire. Mais j'ajouterai qu'au cours des années ici identifiées, j'ai souvent eule pressentiment que nous étions passés près de l'éclatement et de ladispersion. Je n'ai d'ailleurs pas dissimulé cette position auprès de collèguesqui avaient fait le choix des « études culturelles », notamment en I er cycle, et qui avaient gagné à leur cause des étudiants actifset quelques journalistes nationaux. Mais encore faut-il ajouter : saufexceptions, ceux qui défendaient cette orientation des études culturelles dansdes universités françaises ne s'inspiraient pas du courant des cultural studies que, généralement, ils ignoraient. Leur préoccupationétait effectivement de moderniser les humanités littéraires (la visée était plussocio-politique en Grande-Bretagne) sans s'intéresser aux finalitésprofessionnelles des formations, voire sans chercher à établir un ensembled'enseignements spécifiques à la discipline. C'est en cela que Robert Boure araison d'accorder une mention spéciale à l'ouvrage de Daniel Bougnoux. Celuid'Yves Winkin est postérieur surtout traversé par une visée polémique et relèvede l'essayisme (Heller, Miège, 2004). Telles sont les questions, abordées parRobert Boure, qui m'apparaissent centrales dans ses deux articles. Sur cespoints-clés, je me trouve très largement en accord avec ses analyses ou avec lesperspectives qui s'en dégagent. Venons en maintenant à quelques aspects plusponctuels à propos desquels je suis en mesure d'apporter des précisions. Dans l'ordre d'exposition, je procéderai en reprenant successivement le premierpuis le second article. Les références à l'ouvrage Th é orie g é n é rale del'information et de la communication de RobertEscarpit (1976) sont, selon Robert Boure, pour leur quasi-totalité étrangèresaux sciences sociales. Cela n'a rien d'étonnant puisque cette théorie générale( dans laquelle le professeur de Bordeaux 3 voyait comme une ultime tentativepour fonder « scientifiquement » les sic) s'appuyaitpour l'essentiel sur la cybernétique, la théorie générale des systèmes etcertains courants de la linguistique. Cela n'empêchait pas l'animateur du comitédes sic d' être ouvert aux sociologues, économistes ,etc., dans la formation de la section. Et comme Robert Boure, critiquantjustement le point de vue assez unilatéral d'Yves Winkin à ce sujet, je ne voispas, dans les positions de Robert Escarpit, la manifestation d'un sectarismeanti-américain. Ne peut-on d'ailleurs pas considérer que, dans les années 70, lagrande majorité des universitaires français, par-delà la diversité de leurscourants théoriques d'appartenance, partageaient des positions effectivementantiaméricaines, en ce qu'ils critiquaient les thèses empirico-fonctionnalistesdans l'étude des médias de masse qui avaient effectivement pris racine auxEtats-Unis ? Le comité des sic, qui semble ne pas avoir eud'existence juridique, était un lobby au sens précis du terme, réunissant des« personnalités », et dont l'action a débouché sur la création de la 52 e section du ccu. Comme le noteRobert Boure, il était presque entièrement extérieur aux débats d'idées, souventfort vifs, entre les différents courants intellectuels présents dans le mondeuniversitaire mais animés surtout par des chercheurs organisés au sein du cnrs ou de l'Ecole pratique des hautes études (ephe), qui deviendra la 6 e section de l'Ecole des hautes études en sciences sociales (ehess). La plupart de ces chercheurs étaient indifférents à ce qui sejouait alors dans les nouvelles filières (iut ,universités en région). À l'occasion d'une réunion qui s'est tenue àBordeaux le 8 novembre 1975 (et qui avait pour sujet les « rapports entresciences de l'information et de la communication »), le comité des sic a effectivement tenté de donner des soubassementsthéoriques à la nouvelle architecture universitaire mais, pour l'essentiel, ense plaçant dans les perspectives théoriques qui étaient proches de celles deRobert Escarpit. Tout naturellement, l'activité du comité s'est éteinte lorsquela section et la sfsic se sont mises à fonctionner Il est difficile de me qualifier de premier universitaire rattaché aux sic à avoir présidé une université alors que RobertEscarpit, qui se présentait comme théoricien de l'information, a été Présidentde l'université Bordeaux 3 à la fin des années 70. S'agissant de l'activité dela « majorité conservatrice », conduite par Charles-Pierre Guillebeau, jeconfirme qu'elle se préoccupait fort peu de structuration de la discipline parla recherche et d'édification de celle -ci. Pendant longtemps, ses efforts sesont limités à peser (fortement) dans les nominations et les promotions .Minoritaires dans la section, ses membres se retrouvaient à sa direction àchaque retour d'un gouvernement de droite (par le jeu des nominations). Ce n'estpas polémiquer que de le rappeler II est exact que Jean Devèze a tenu les proposque rapporte Robert Boure, et qu'il a parfois considérés comme de« l'auto-flagellation » : la critique de la faiblesse de la recherche (et del'organisation de la recherche). Ceci intervenait dans le cadre des débatsdémocratiques qui se tenaient au sein de la sfsic( auxquels nous étions attachés l'un comme l'autre, malgré nos différenceset nos différends). Ceux dont il avait - ou recherchait - le soutien n'avaientsans doute pas le même rapport à la recherche que ceux dont il pensait qu'ilsaimaient bien se flageller En tout cas, la permanence de l'investissement deJean Devèze à la sfsic et pour les sic pendant 30 ans, jusqu' à la fin de sa vie, est effectivementremarquable. Aux activités universitaires de Jean Meyriat, précisément recenséespar Robert Boure, il convient d'ajouter non seulement les importantesresponsabilités qu'il a régulièrement exercées dans des organisationsprofessionnelles de bibliothécaires et de documentalistes (adbs notamment), mais surtout son rôle de « cheville ouvrière » dansle fonctionnement du comité et de la sfsic, de longuesannées durant. La Lettre d'Inforcom (qui bénéficia ausside quelques moyens matériels liés à son activité professionnelle) lui doitbeaucoup, mais aussi le quotidien de la société scientifique. En d'autrestermes, Jean Meyriat était également présent dans ce qui relevait du stratégiqueet dans la mise en œuvre des décisions prises. C'était très appréciable, et sansdoute peu compréhensible à l'heure actuelle. Enfin, à propos des études littéraires, Robert Boure a tendance à opposerhumanités et pratiques scientifiques, et à étendre cette opposition aux sic qui en sont - partiellement - issues. Si je suisévidemment en accord avec ses préférences qu'il ne dissimule pas (les sic n'avaient d'autre choix que de mettre l'accent surune orientation scientifique résolument affirmée), cela n'exclut pas qu'uneplace, secondaire sans doute, soit réservée aux humanités dans lesenseignements, et donc dans la vie des départements et des laboratoires. Cetteco-existence n'est sans doute pas facile à organiser, surtout tant quel'existence de la discipline reste fragile, mais elle est souhaitable eteffectivement moins problématique avec les humanités littéraires qu'avec les cultural studies. Il est vrai que les conflits naissenttoujours lorsqu'il s'agit de répartir des moyens réduits ou de réserver desplages d'emploi du temps. Je regrouperai les réflexions auxquelles certains passages des deux articlesm'ont conduit autour de deux interrogations, d'ailleurs corrélées. Tout d'abordla question du « bornage territorial », induite par l'emploi de ce (malheureux )terme de « périmètre », lancé en 1 985 comme une boutadepar un membre du cnu habitué des mots d'esprit, àl'issue de longs débats pas toujours clairs et alors très conflictuels. Pourquoice terme me paraît-il à l'origine de bien des simplifications, et toujours lacause de méconnaissances et d'incompréhensions ? D'abord, parce que l'approcheainsi suggérée néglige bien d'autres aspects fondamentaux des textes successifs ,comme le signale l'auteur (dans son premier article) à propos du texte de 1993 .En effet, si ce texte admet le recours à une diversité de méthodes pour lestravaux du domaine de compétences, il précise que ceux -ci doivent « reposer surdes méthodologies bien identifiées », ce qui n'est pas anodin. D'autres traitsdu même ordre pourraient être évoqués. Ensuite, parce que l'activité successivedes différentes sections a produit ce qui s'apparente à une « jurisprudence »assez consensuelle, régulièrement mise à jour, complétée, précisée et mêmediffusée avec des moyens à chaque fois plus étendus. Elle est accessible à ceuxqui sont concernés (par exemple pour une candidature), mais ne saurait suffirepour informer et convaincre ceux qui en auraient besoin (membres d'autressections, responsables des publications de postes, etc.). Enfin et surtout ,parce que les divers textes contiennent bien des éléments qui ne tiennentnullement du bornage disciplinaire, et qui ont tenté de préciser ce qu'ilfallait entendre par processus d'information et de communication, plusexactement parce qu'on désignerait aujourd'hui comme de l'information et de lacommunication médiatisées par des actions organisées, des politiques et destechniques. Pour avoir pris part directement à la mise au point des textes de1985 et de 1993 (et même aux ajouts de 1999), je sais que ces perspectivesétaient déjà présentes et affirmées. En effet, le texte de 1 993, repris en 1 999 puis en 2005, ets'appuyant sur des points déjà présents en 1985, définit ainsi la spécificité del'approche : « Est donc du ressort de la 7 1 e section l'étude des processus d'information ou decommunication relevant d'actions contextualisées, finalisées, prenant appui surdes techniques, sur des dispositifs, et participant des médiations sociales etculturelles. Sont également pris en compte les travaux développant une approchecommunicationnelle de phénomènes eux -mêmes non communicationnels ». Comme pourcelle de tout texte à visée normative, la rédaction est assez contournée. Commeon l'imagine, elle est le fruit de patientes négociations. Il ne m'appartientpas de faire l'analyse des autres textes ou fragments disponibles, nid'apprécier en quoi ils ont été reçus ou sont recevables. Mais je tenais à fairepart de ma propre perception : quand bien même une boutade simplificatriceoccuperait-elle encore le terrain (ou plutôt le terrain assigné par ceux quijouent de la confusion sémantique difficilement évitable pour information etcommunication, à l'image de ce qui se produit encore pour des disciplines bienen place), il serait malencontreux pour l'analyse historique de lui faire jouerun rôle qui la dépasse. J'ai déjà indiqué mon accord avec la position défendue par Robert Boure, selonlaquelle le social précède le cognitif ce qui favorise incontestablement lesprises de distance avec les conceptions nominalistes, ou même idéalistes ,toujours prêtes à s'exprimer Cependant, cette affirmation mérite d' être préciséeau risque d' être incomprise. Si toutes les différentes disciplines, y compriscelles qui sont « installées » de longue date, sont des constructionssocio-institutionnelles devenues également des constructionssocio-intellectuelles - dont nous avons le plus souvent oublié les conditionsd'émergence (i.e. le contexte de leur production) - ,elles ne sauraient se maintenir et se développer en l'absence de basesépistémologiques reconnues en leur sein et en dehors d'elles, dans lesdisciplines proches ou concurrentes, dans les instances universitaireselles -mêmes, et de plus en plus, dans les sphères professionnelles directementconcernées. Comme on l'a souligné, ceci n'était pas indispensable dans lapériode de formation elle -même, mais c'est rapidement devenu comme uneobligation impérieuse. C'est pourquoi le comité des sic s'est très rapidement efforcé d'organiser des échanges scientifiques et dechercher des soubassements théoriques à la nouvelle interdiscipline. Cetterecherche quelque peu fébrile, voire pathétique, est encore très nettementobservable lors du I er Congrès deCompiègne en 1978, où l'on a encore beaucoup de mal à se parler tant les pointsde vues restent éloignés. Cette exigence d'une co-construction, tantsocio-institutionnelle que cognitivo-épistémologique, est évidemment inégalementpartagée et ressentie selon les disciplines. Elle peut être l'occasion deconflits parfois aigus (comme ce fut le cas au sein des deux principalescomposantes de la 7 1 e section du cnu au cours des années 80). Mais elle s'imposeprogressivement sous peine de voir les premiers efforts de construction réduitsà néant. Chacun trouvera aisément des exemples, tant dans les projetsintellectuels aspirant à devenir des disciplines et qui n'ont pas réussi ourecherché leur insertion dans les universités, que dans les rassemblements destructures sans fondements scientifiques forts. Il s'ensuit que le projet d'unehistoire scientifique des sic doit, à partir d'unepériode donnée (le tournant de 1990), se positionner sur l'un et l'autre plan ,en se donnant pour tâche de les articuler et d'en mettre en évidence lesinteractions. Evidemment, cette perspective apparaîtra secondaire ou superflue àceux qui placent toujours la production scientifique à part, dans une situationd'extériorité ou de supériorité par rapport à la formation. Comme on le sait ,cette ambition est aujourd'hui renaissante, sans qu'il soit tenu compte deséchecs ou des incomplétudes auxquels elle a conduit antérieurement. S'il nes'agit aucunement de reconstruire le passé en fonction de préoccupationsactuelles, rien n'interdit de s'emparer d'enseignements historiquessoigneusement établis pour comprendre des enjeux d'aujourd'hui .
En discutant les deux articles publiés par Robert Boure dans les précédentes livraisons des Questions de communication, l'auteur; en raison même de sa double activité d'auteur et de participant à l'édification des sic s'interdit d'intervenir comme historien de la discipline. Mais sans dissimuler son large accord avec le projet de Robert Boure, il apporte à son analyse diverses précisions et compléments, souvent ponctuels, parfois plus essentiels (par exemple, sur les relations avec les études littéraires ou les études culturelles). Et surtout il reconnaît l'importance du « tournant » de 1990 en plaidant pour que la recherche historique se focalise sur cette période, en articulant désormais construction socio-institutionnelle et construction épistémologico-cognitive ; les enjeux de toute nature qui se sont alors manifestés restent pour certains d'entre eux d'actualité et, sous conditions, on peut en tirer des enseignements pour le présent.
sciencesInfo_10-0023558_tei_1117.xml
termith-388-communication
On m'a demandé de réagir à l'article de Patrick Charaudeau (2010) publié par Questions de communication. Dans la mesure où je partage pourl'essentiel le point de vue qu'il défend et n'ai pas de programme alternatif àproposer, il m'est difficile de procéder à une critique tranchante. Plutôt qued'élaborer une contre-proposition, je vais pointer dans ce texte quelques élémentsqui me semblent insuffisamment développés ou oubliés. L'article de Patrick Charaudeau se présente comme une sorte de manifeste dont letitre indique clairement le contenu  : « Pour une interdisciplinarité« focalisée  » dans les sciences humaines et sociales  ». Le propos se veutdonc ambitieux; il excède largement le cadre habituel des sciences du langage ,domaine dans lequel travaille l'auteur. Patrick Charaudeau (2010  : 195) met ledoigt là où ça fait mal, pour dire les choses trivialement, quand il part d'unparadoxe ainsi énoncé  : « À une époque où il est beaucoup question depluridisciplinarité ou d'interdisciplinarité […] le système institutionnel etune certaine corporation de chercheurs ne prennent en considération que desétudes monodisciplinaires technicistes au nom de la scientificité  ». Comme on peut s'en douter, Patrick Charaudeau souhaite qu'il soit mis fin à cedécalage entre les bonnes intentions affichées et les pratiques effectives denombreux chercheurs. L'argumentation qu'il développe à cette fin s'appuie surses propres recherches en communication, qui ont été menées dans une perspectived'analyse du discours où il place au centre le pouvoir d'influence qu'a lelangage dans une situation de communication déterminée. Ainsi la réflexionépistémologique est-elle fondée sur l'expérience d'un chercheur qui revient surles difficultés qu'il a rencontrées. Inutile de dire que les règles de bonneconduite qu'il propose fonctionnent également comme des justifications d'uneentreprise qui a montré sa cohérence et sa fécondité, en particulier à traversles travaux du Centre d'analyse du discours de l'université Paris 13, dont il aété le principal animateur. Dans la mesure où l'analyse du discours comme champspécifique n'a émergé qu' à la fin des années 60, au moment où Patrick Charaudeaua commencé sa carrière d'enseignant-chercheur, ce retour sur sa propre pratiques'explique aussi par son statut de pionnier qui n'a pas pu s'appuyer sur unbalisage préalable de son espace de recherche. Il est de ceux qui ont été enquelque sorte obligés d'inventer une bonne part du chemin sur lequel ilss'avançaient, ce qui donne un prix particulier à cet article qui est à la foisun bilan et un programme. Pour lui, quand le chercheur en analyse du discours nemène pas une réflexion sur sa pratique, il risque de basculer dans lesgénéralités édifiantes mais largement stériles, ou à l'inverse dans les travauxd'orientation descriptive dénués de toute ambition. Contre ces dérivessymétriques, son propos se veut normatif, et il est inévitable qu'il le soit. Onne peut pas se contenter de cartographier les travaux qui se réclament del'analyse du discours, sans principe de hiérarchisation. Ce faisant, PatrickCharaudeau se distingue d'un grand nombre d'analystes du discours qui s'abritentderrière le présupposé rassurant que leurs démarches relèvent des « sciences dulangage  », évitant par là même de s'interroger plus avant sur ce qu'ils font .Il se distingue aussi d'autres chercheurs, et tout particulièrement de ceux quise situent hors des sciences du langage pour lesquelles l'analyse du discoursserait seulement une « méthode qualitative  » parmi d'autres, disponible dans laboîte à outils du chercheur en sciences humaines ou sociales. À la fin de sonarticle, Patrick Charaudeau (2010  : 219) recense les trois écueils qu' à sonsens il convient d'éviter  : « Penser que seuls de grands systèmes explicatifspermettraient de rendre compte des phénomènes sociaux  »; « penser que lerecours simultané – et non critique – à plusieurs disciplines devrait permettrede mieux expliquer les phénomènes. Ce serait pratiquer un amalgame qui pourraitfaire illusion mais ne serait que de la poudre aux yeux  »; « défendre unrelativisme neutre accumulant des études empiriques locales sans autre visée qued'apporter un petit caillou à l'édifice d'une cathédrale du savoir dont on neverrait jamais que quelques pierres  ». La solution qu'il propose est de recourir à une véritable interdisciplinarité .Cette notion prêtant à équivoque, il procède à quelques distinctionsterminologiques de base, qui convergent largement avec celles proposées il y aquelques années par Frédéric Darbellay (2005). En particulier celle entre la« pluridisciplinarité  », qui ne serait qu'une juxtaposition de disciplines, etla « transdisciplinarité  », à concevoir comme une traversée des disciplines quiaboutit à une « co-construction des savoirs  »  : pour Patrick Charaudeau ceserait, par exemple, le cas de Roland Barthes (« entre littérature, philosophie ,psychanalyse  »), de Michel Foucault (« entre philosophie et histoire  ») oud'Edgar Morin (« entre les différentes disciplines de la connaissance  ») .Chacun à sa façon a fait émerger « un discours suigeneris construisant son propre lieu de pensée  ». En revanche, dans lapluridisciplinarité chaque discipline garde son autonomie, ne réinterroge passes présupposés au regard de l'autre discipline, et ne fait qu'apporter( entreprise salutaire) son propre éclairage sur un objet d'étude lui -mêmeanalysé par d'autres. Il s'agit d'une juxtaposition de points de vue quidélivrent chacun une connaissance particulière sur le phénomène étudié. Parexemple, à l'heure actuelle, le cnrs met en place desprogrammes de recherche associant des spécialistes des disciplines du« vivant  » (biologie humaine ou animale, biodiversité, évolution, écologie) àdes spécialistes des sciences humaines et sociales (sciences du langage ,sciences de l'information et de la communication, sociologie). Les premiers ,préoccupés par la façon dont les résultats de leurs travaux circulent dansl'espace public, cherchent à savoir comment les discours tenus par lesscientifiques sont traités, transformés, voire dévoyés par les médias. Si cesscientifiques s'intéressent à ce que peut leur apporter d'autres disciplines ,c'est de façon périphérique, dans la mesure où cela n'est pas destiné à remettreen cause leur propre discours en tant que scientifiques. Quant à la « multidisciplinarité  », Patrick Charaudeau y voit une autre forme dejuxtaposition  : on pourra également citer le cas de colloques qui convoquentplusieurs disciplines pour que chacune apporte son point de vue sur un mêmephénomène touchant la santé, la sécurité, l'environnement, etc. Dans ce cas, onparlera de multidisciplinarité que l'on distinguera de la pluridisciplinarité ence que cette dernière est centrée sur un questionnement commun aux disciplinesconcernées, alors que la première est ouverte, sans limites, sur de grandesquestions, sans problématisation particulière. À ces diverses stratégies demises en relation des disciplines, l'auteur préfère l'interdisciplinarité quiconsiste à établir de véritables connexions entre concepts, outils d'analyse etmodes d'interprétation de différentes disciplines. Il ne suffit pas d'ajouterdes disciplines sur un même objet d'analyse; il faut faire se confronterdiverses compétences disciplinaires afin de rendre plus pertinents ces conceptset outils d'analyse, ou d'étendre le champ des interprétations à partir derésultats eux -mêmes issus de protocoles d'analyse communs. La position de Patrick Charaudeau sur les relations entre disciplines me paraîtjustifiée; ce n'est donc pas sur ce point qu'il me paraît utile de revenir. Enrevanche, la condamnation des « grands systèmes explicatifs  » serait sans douteà nuancer. Patrick Charaudeau (2010  : 219) illustre son propos en citantquelques « grands - ismes : les structuralisme ,générativisme, interactionnisme ou historicisme d'hier, les sociologisme ,économisme et juridisme d'aujourd'hui  ». Recourir à de tels systèmes, « ceserait vouloir essentialiser des modèles d'analyse, au nom de la scientificité ,et en les rendant dominants ouvrir la voie à un totalitarisme intellectuel  » (ibid.). Certes, mais on peut se demander si cetteliste ne mêle pas des phénomènes d'ordres distincts; en particulier, s'il nefaut pas distinguer deux sortes de « grands - ismes  »  : ceux qui sont devéritables systèmes explicatifs à visée totalisante et ceux qui sont plutôt cequ'on appelle péjorativement des « modes intellectuelles  ». Quoi que l'onfasse, on ne pourra pas empêcher qu' à un moment donné, le savoir ne soit sousl'emprise d'un certain nombre de leitmotive qui orientent les recherches et qui ,par la suite, se révèleront pour une part porteurs d'illusions. Mais ces grandscourants qu'on peut stigmatiser comme des « modes  » sont également de puissantsstimulants pour la recherche; ils permettent de définir de nouveaux programmesde travail, ils permettent aussi à de nouvelles générations de chercheurs depérimer des démarches antérieures et de faire valoir leur propre légitimité .Cela fait partie du fonctionnement normal de la recherche scientifique. Ainsiest-il inévitable qu'il y ait des secteurs plus « porteurs  » que d'autres ,voire parfois hégémoniques. Les hommes de science de la seconde moitié du XVIIe siècle considéraient la mécanique comme la disciplinereine et ceux du XVIII e siècle voyaient dans la loi deNewton le paradigme de la scientificité. Pour prendre un exemple plus proche denous et qu'évoque Patrick Charaudeau  : le Roland Barthes des années 50 ignorela linguistique et la psychanalyse, celui des années 60 la met au pinacle; lestructuralisme est passé par là. Mais le Roland Barthes postérieur accompagne lereflux de ce même structuralisme, au point qu'aux États-Unis, on l'a intégrédans les penseurs « post-structuralistes  ». Localement, tel spécialiste dudiscours peut bien décider d'entretenir des relations privilégiées avec lapsychologie sociale, les mathématiques ou l'anthropologie de la connaissance ,mais ces « contrats  » d'échange locaux seront inévitablement influencés par lesgrands courants qui dans cette conjoncture dominent l'ensemble des scienceshumaines et sociales. Pour prendre un exemple qui nous concerne plusparticulièrement, Patrick Charaudeau et moi -même, en tant qu'analystes dudiscours, les problématiques sur le « discours  » bénéficient aujourd'hui d'uneaura évidente. Il en va de même pour tout ce qui peut se réclamer de la« cognition  ». Quand il énumère quelques « sous-disciplines  » de lapsychologie – « psychologie cognitive, sociale, clinique  » (Charaudeau, 2010  :201) –, il lui est difficile d'ignorer que l'une des trois, la psychologiecognitive, joue aujourd'hui un rôle dominant et exerce son influence bienau-delà de la psychologie. Bien entendu, un chercheur en analyse du discours ouen sociologie qui veut travailler avec des psychologues peut minorer lapsychologie cognitive, mais s'il le fait, il aura de moins bonnes chancesd'accéder à des financements et d' être reconnu au-delà de son domaine .L'interdisciplinarité au sens fort est une nécessité pour toute recherchescientifique, puisque toute vraie innovation dans ce domaine implique que leschercheurs sortent de leur espace, qu'ils entrent en dialogue avec d'autresmodèles, d'autres disciplines, d'autres manières de penser. Mais cette nécessitépeut aboutir à des résultats très variés, qui peuvent aller dans des directionsopposées. On sait par exemple ce que la pensée de Ferdinand de Saussure doit àla théorie économique de son époque ou à la sociologie d' Émile Durkheim ;pourtant, la démarche du Cours de linguistique générale va dans le sens d'une linguistique autonome, où le système est envisagé enlui -même et pour lui -même. De manière générale, il est très difficile d'énoncerdes règles en matière de création intellectuelle. On est en droit de porter unjugement très critique sur la volonté de Pierre Bourdieu de placer la sociologieen position dominante, volonté qui l'a constamment conduit à polémiquer avec lestenants d'autres disciplines, reléguées dans la position subalterne de ceux quiagissent dans l'illusion. Le problème est de savoir si Pierre Bourdieu aurait puproduire ce qu'il a produit s'il n'avait été animé par ce désir de construireune science souveraine, s'il n'avait pas eu cette prétention de tout analyser àtravers ses catégories  : de la métaphysique de Martin Heidegger à la science enpassant par la reproduction sociale, la différence sexuelle, la littérature oula télévision. Certes, la confrontation avec d'autres disciplines est constantechez lui, mais elle tend à établir un rapport de forces au profit de sa propreentreprise, non un véritable dialogue. Les disciplines sont des réalitéshistoriques qui ne se maintiennent que par les relations qu'elles entretiennentavec les zones du savoir qui les bornent. Autant dire que leur survie n'estjamais complètement assurée. Elles ne sortent pas nécessairement renforcées detoute mise en relation. On a beau encourager l'interdisciplinarité, on ne peutignorer que l'interaction peut affaiblir l'un des termes de la relation. Pourprendre un exemple caricatural, si l'informatique entretient une relationprivilégiée avec les mathématiques, cela ne manquera pas à la longue detransformer profondément les deux « partenaires  » et d'amener certainsmathématiciens à dénoncer une subordination de leur discipline à l'informatique .Si beaucoup de spécialistes de philosophie ou de littérature sont très réticentsà l'égard de l'analyse du discours, c'est qu'une relation assidue avec cettedernière risque de délégitimer un certain nombre de pratiques en vigueur dansleurs champs, voire de faire disparaître certains secteurs de ces champs. Autantdire que les résistances à l'interdisciplinarité font malheureusement partie dujeu, puisque l'interdisciplinarité n'est pas nécessairement une relation quienrichit les deux partenaires. Un autre point qui me paraît insuffisamment discuté par Patrick Charaudeauconcerne l'analyse du discours elle -même. Ce dernier lui donne le statut d'une« sous-discipline  » à l'intérieur d'un « champ disciplinaire  », celui dessciences du langage. Ainsi en est-il du champ des sciences psychologiques qui sesubdivise en sous-disciplines (psychologie cognitive, psychologie sociale ,psychologie clinique) mais qui se réfèrent toutes à une certaine conception dupsychologique par opposition, par exemple, au sociologique ou àl'anthropologique. Ainsi en est-il du champ des sciences du langage qui sesubdivise en diverses sous-disciplines (linguistique descriptive de la langue ,linguistique cognitive, sociolinguistique, ethnolinguistique, linguistique dudiscours, etc.) mais qui se réfèrent toutes à des concepts communs de signe ,forme et sens, ordres syntagmatique et paradigmatique, énoncé/énonciation et deprocédures de recueil et analyse de corpus. Il en est de même pour lasociologie, l'anthropologie et l'histoire parfois, où s'instaurent, àl'intérieur de chacune de ces sous-disciplines, des courants disciplinaires proposant des hypothèses, des catégories et une démarched'analyse spécifiques. C'est le cas en sociologie avec les courantsinteractionniste, compréhensif, critique, dans le droit fil d'un constructivismesocial (Corcuff, 1995). C'est également le cas en analyse du discours ,sous-discipline appartenant au champ des sciences du langage, à l'intérieur delaquelle on constate divers courants, les uns plutôt historicisants, d'autresidéologisants, d'autres plus formels, d'autres davantage communicationnels. Dansce passage, on notera que c'est tantôt « l'analyse du discours  », tantôt la« linguistique du discours  » qui est présentée comme « sous-discipline dessciences du langage  ». On peut penser que dans l'esprit de l'auteur l'analysedu discours est elle -même une composante de la « linguistique du discours  » ,qui serait placée à un niveau supérieur. Mais c'est là un point de détail. L'undes problèmes que pose cette juxtaposition de « sous-disciplines  » est qu'elletend à atténuer leur hétérogénéité. Or, la question de l'interdisciplinarité nese pose sans doute pas tout à fait de la même manière quand il s'agit de« linguistique descriptive de la langue  » et d'analyse du discours. En effet ,cette dernière se situe par nature aux frontières de multiples sciences humaineset sociales, ce qui n'est pas le cas de n'importe quelle sous-discipline dessciences du langage. Par exemple, la grammaire générative s'est constammentprésentée comme une branche de la psychologie. Il n'empêche que, pour la plupartde ses praticiens, elle est apparue avant tout comme une approche qui permettaitde modéliser des propriétés du système linguistique mieux que ne pouvaient lefaire d'autres courants linguistiques. Les considérations d'ordre psychologiquejouaient finalement un rôle marginal dans cette affaire. Le grand scepticismedes linguistes français à l'égard de La linguistiquecartésienne de Noam Chomsky (1966) n'a pas empêché le modèle génératifet transformationnel de connaître un très grand succès. Ce type de dissociationpeut difficilement s'appliquer à l'analyse du discours qui, par nature, manipuledes catégories hybrides, puisées à la fois dans la linguistique et dans diversessciences humaines et sociales. Cela explique d'ailleurs en partie lesdifficultés que l'on rencontre quand on veut raconter les origines de l'analysedu discours  : les nombreux auteurs qu'on peut identifier comme ayant joué unrôle dans sa fondation – si l'on peut parler ici de fondation – se trouventplacés dans des situations d'interdisciplinarité très diverses  : MichelPêcheux, par exemple, inscrit son entreprise d'analyse du discours entre lalinguistique et une théorie de l'idéologie appuyée sur une conceptionalthussérienne du matérialisme dialectique, Dell Hymes s'installe entrelinguistique et anthropologie, etc. Et que dire d'auteurs comme Erving Goffmanou Harold Garfinkel qui situent leur démarche non dans l'orbite des sciences dulangage mais dans celui de la sociologie ? L'objet de l'analyse du discoursn'est de toute façon qu'une zone de contact, une frontière, comme nous lerappelle ce passage célèbre de L'Archéologie du savoir deMichel Foucault (1969  : 65 )  : « Ce dont il s'agit ici n'est pas de neutraliserle discours, d'en faire le signe d'autre chose et d'en traverser l'épaisseurpour rejoindre ce qui demeure silencieusement en deçà de lui, c'est au contrairede le maintenir dans sa consistance, de le faire surgir dans la complexité quilui est propre. En un mot, on veut, bel et bien, se passer des “choses ”. Les“ dé-présentifier ”  ». Ainsi, quand l'analyse du discours veut adopter une démarche foncièrementinterdisciplinaire, peut-elle oublier qu'elle est elle -même prise dans uneinterdisciplinarité constitutive et que c'est précisément sur la manière degérer cette interdisciplinarité constitutive que les grands courants d'analysedu discours divergent ? Autant dire que même l'inscription de l'analyse dudiscours dans l'orbite des sciences du langage ne peut aller de soi. Venons -en à présent à la notion de « discipline  ». Patrick Charaudeau souligne àjuste titre que ce terme associe divers types de normes et de catégories et unappareil méthodologique. Une discipline est constituée d'un certain nombre deprincipes fondateurs, d'hypothèses générales, de concepts qui déterminent unchamp d'étude et permettent en même temps de construire le phénomène en objetd'analyse. Se constitue ainsi un cadre conceptuel, et c'est à l'intérieur decelui -ci que peuvent être construites diverses théories, comme proposition d'unesystémique autour de certaines catégories. Sans cadre théorique, point dediscussion possible, car on ne saurait dire au nom de quoi on pourrait évaluer ,confirmer ou contester les résultats d'une analyse. Il s'agit là d'un principede pertinence  : discuter les explications que l'on donne sur le monde n'estpossible que si l'on connaît le cadre conceptuel de référence, les catégories ,les modes de raisonnement et les procédures d'analyse dont elles dépendent. Pourêtre opérationnel, ce cadre a besoin de se doter d'outils de description et deprobation qui permettent à la fois de construire l'objet d'analyse, de ledécomposer autant que de besoin, d'effectuer des distinctions ou desrapprochements, de mettre au jour des mécanismes de fonctionnement du phénomèneétudié, et de présenter le tout sous forme de résultats à interpréter. Cetoutillage constitue une méthodologie, et c'est ce couple théorie-méthodologiequi fonde une discipline en en déterminant le lieu de pertinence. Patrick Charaudeau ne met pas ici l'accent sur la dimension foncièrementcoopérative des disciplines, sur les communautés qu'elles rendent possibles etqui les rendent possibles, mais ce versant « sociologique  » de la disciplineest en filigrane dans la conception qu'il présente. Elle est tout à faitcompatible avec d'autres caractérisations, qui soulignent plus fortement cetaspect « sociologique  », comme celle de Jean-Marie Berthelot (1996  : 99-100) ,pour qui les disciplines sont, à la fois, « un lieu d'échange et de reconnaissance, et matrice de discourset de débats légitimes, […] un lieu de ressources sociocognitives, de référencesautorisées, de normes partagées et d'exemples communs, permettant le tissaged'une tradition, problématique, conflictuelle, maisréelle, de connaissance. Cet espace de spécialisation disciplinaire est donc unlieu où peuvent s'articuler en une entreprise de connaissance légitime – nonplus seulement socialement mais épistémologiquement, c'est-à-dire en uneentreprise de connaissance argumentée – les divers langages par lesquelss'organise le travail analytique. Espace social de légitimation de savoirs, unediscipline est, indissociablement, un espace logique de constructiond'argumentations  ». S'il est indéniable que la discipline comporte un versant épistémologique ,« heuristique  », et un versant sociologique, il n'en est pas moins vrai que lesrelations entre ces deux versants sont très variables. Il existe une tensionpermanente entre les critères heuristiques et les critères institutionnels dansle découpage des disciplines. Ce qui conduit à faire communément une distinctionentre les disciplines au sens institutionnel, celles quereconnaissent les pratiques de l'administration universitaire, et lesdisciplines qui structurent la recherche, celles qui permettent aux acteurs deschamps scientifiques d'élaborer leurs modélisations. Patrick Charaudeau netraite pas de cette dimension institutionnelle; il faut dire qu'en générall'analyse du discours apparaît surtout comme une discipline qui – du moins pourle moment – n'a guère d'existence institutionnelle forte. Et c'estparticulièrement évident en France où les cadres disciplinaires structurent lagestion de la recherche, y compris les carrières des chercheurs. Même s'il ne ledit pas explicitement, il semble que, pour Patrick Charaudeau, la notion dediscipline s'applique aux disciplines qui correspondent à des espaces derecherche consistants  : la psychologie cognitive, et non l'ensemble du champdisciplinaire de la psychologie. Et on ne peut que lui donner raison sur cepoint. Ces disciplines (qu'il appelle « sous-disciplines  »), il les intègredans des « champ disciplinaire  » (par exemple les sciences du langage). Ilparle d'ailleurs de « champs disciplinaires  » pour les sciences del'information et de la communication ou pour les sciences de l'éducation, aumême titre que pour les sciences du langage ou pour la psychologie. Selon lui ,cette notion de champ disciplinaire est utile pour éviter certaines querellesqui ont lieu au sein des sciences humaines et sociales déniant aux sciences del'éducation et aux sciences de l'information et de la communication le label dediscipline. On a affaire à deux champs disciplinaires qui circonscrivent, chacunà sa façon, leur domaine d'étude, et qui, selon l'objet qu'ils étudient, peuventavoir recours, autant que de besoin, à d'autres disciplines, telles lasociologie, la psychologie sociale, les linguistiques de la langue et dudiscours, l'histoire, etc. On peut se demander si cette notion de « champdisciplinaire  » n'est pas trop laxiste, si par exemple les sciences del'éducation sont un champ disciplinaire au même titre que les sciences dulangage, telles que caractérisées par Patrick Charaudeau. Ainsi en est-il duchamp des sciences du langage qui se subdivise en diverses sous-disciplines( linguistique descriptive de la langue, linguistique cognitive ,sociolinguistique, ethnolinguistique, linguistique du discours) se référanttoutes à des concepts communs de signe, forme et sens, ordres syntagmatique etparadigmatique, énoncé/énonciation et de procédures de recueil et analyse decorpus. En fait, on peut très bien admettre que la notion de « champ disciplinaire  »recouvre plusieurs régimes de disciplinarité. Il est normal que l'existence d'uncertain nombre d'espaces de recherche se justifie essentiellement en raisond'une forte demande sociale et qu'ils subissent immédiatement les effets desfluctuations de cette demande. Dans ce cas, le partage de « concepts  » et de« procédures  » communs à tous les membres d'un même champ disciplinaire passeau second plan. Pour ma part, j'aurais tendance à mettre davantage l'accent surle caractère hétérogène de ce que Patrick Charaudeau appelle des « champsdisciplinaires  » et qu'on appelle communément « disciplines  ». En effet, cequ'on entend par « sciences humaines et sociales  » recouvre des réalités trèsdiverses  : il y a des disciplines qui répondent à des demandes socialesimmédiates, d'autres qui mêlent recherche fondamentale et technè (ingénierie, gestion, médecine, etc.), d'autres qui sontobligées de privilégier la cohérence heuristique (sociologie, psychologie ,linguistique), ce qui entraîne d'incessants débats épistémologiques. Et que direde la philosophie, dont l'existence même est l'enjeu de chaque doctrine et pourlaquelle l'idée même d'une appartenance aux « science humaine et sociale  » estfoncièrement inadéquate ? Après tout, quand des chercheurs issus d'horizons trèsdivers s'intéressent à un même domaine empirique, à un même « territoire  », desespaces d'échanges se constituent qui peuvent avoir autant, voire davantage deproductivité que des champs disciplinaires canoniques comme l'économie ou lapsychologie. L'important – Patrick Charaudeau a raison de le souligner – est queles chercheurs ne se contentent pas de juxtaposer leurs démarches. Si ons'appuie sur une conception délibérément « sociocognitive  » des disciplines derecherche (un certain nombre de gens qui partagent un certain nombre deréférences, publient dans les mêmes lieux, se lisent les uns les autres, seretrouvent aux mêmes colloques, etc.), et si l'on prend au sérieux l'exigenced'interdisciplinarité que défend vigoureusement Patrick Charaudeau, il me sembleque la notion de champ disciplinaire perd un peu de son intérêt, en cela qu'ellene peut pas être généralisée à l'ensemble des sciences humaines et sociales .Pour dire les choses simplement, je ne suis pas certain qu'il y ait davantaged'échanges à l'intérieur d'un même champ disciplinaire qu'entre tel ou telsecteur de champs qui sont supposés distincts. L'idée même que, dans le mêmechamp disciplinaire, les chercheurs partageraient un certain nombre deprésupposés et de méthodes est loin d'aller de soi. Pour ne pas rester totalement dans le vague, on peut prendre l'exemple de l'étudede la littérature, dont l'assise académique est indiscutable. Il ne s'agit pasd'une discipline de recherche mais, manifestement, d'un « champdisciplinaire  », au sens où l'entend Patrick Charaudeau qui intégreraitdiverses « sous-disciplines  »  : l'histoire littéraire, la narratologie, lastylistique, etc. Mais en fait, il apparaît bien difficile de découperl'ensemble de ce champ en disciplines; on y trouve aussi des divisions parcourants (analyse thématique, psychanalytique, théorie de la réception, etc.) ,par périodes (ancien français, XVII e siècle, etc.), pargenres (roman, théâtre, etc.). Et que dire de la sociologie de la littérature ,de l'histoire de l'édition, de la codicologie, de la littérature comparée ,etc. ? On aurait bien du mal à discerner des concepts ou des présupposés communsaux acteurs de ce champ. Certes, dans les années 60, s'est fait jour laprétention, rapportée aux formalistes russes, de donner une consistancethéorique forte à l'étude de la littérature, mais l'acuité de ces interrogationss'est fortement émoussée avec le reflux du structuralisme. En fait, en France ,c'est surtout l'existence d'un certain nombre d'institutions qui n'ont pas grandchose à voir avec la recherche (classes préparatoires, écoles normalessupérieures, concours d'agrégation et de capes) etd'exercices (dissertation, explication de texte, etc.) qui assurent une certaineunité à cet espace. Sans cela, on aurait seulement affaire à un « territoire  » ,à un groupement de chercheurs qui traitent du même objet. Mais ces derniersparlent-ils réellement du « même  » objet, comme peuvent le faire des groupesqui travaillent sur l'internet ou la drogue ? L'incertitude ne porte passeulement sur le type de corpus à prendre en compte (œuvres véritables ousous-littérature ? anciennes ou contemporaines ? française, européenne ,universelle ? etc.), mais aussi sur l'extension de ce domaine. Faut-ilconsidérer seulement les textes et leurs abords immédiats, ou aller jusqu'aufinancement des théâtres, aux techniques de fabrication des livres, au statutjuridique des écrivains, aux pratiques sociales attachées à la littérature (desvisites de maisons d'écrivains aux reportages des magazines en passant parl'enseignement primaire et secondaire, les critiques de journaux, les images quicirculent dans la culture de masse, les prix, les bibliothèques, les loisirs ,les adaptations d' œuvres au cinéma ou à la télévision, les traductions, etc.) ?En d'autres termes, va -t-on prendre en compte un patrimoine d' œuvres consacréesou le fait littéraire dans toute sa complexité ? De la réponse à ce type dequestions dépendent beaucoup de choses, en particulier les qualificationsrequises pour être un vrai « littéraire  ». On peut même aller plus loin etdouter de l'appartenance de ce champ disciplinaire aux sciences humaines etsociales. L'étude de la littérature est une activité qui mobilise deuxpopulations très différentes. Pour les uns, la littérature se ramène à unthésaurus de grands textes à interpréter. Les autres se réclament des scienceshumaines et sociales (sociologie de la littérature, analyse du discourslittéraire par exemple) et ne font nullement du commentaire des « grandsauteurs  » le centre de leur activité. En outre, il existe un grand nombred'universitaires qui se tiennent en-deçà de cette distinction entre deuxpopulations, en particulier ceux qui se livrent à des travaux d'érudition oud'établissement des textes et pour lesquels il est vain de se demander s'ilsrelèvent d'une approche herméneutique ou d'une approche en termes de scienceshumaines et sociales. De toute façon, la divergence entre ces deux approches n'arien de contingent. Dans la mesure où la littérature relève des « discoursconstituants  » (Maingueneau, Cossutta, 1995), elle implique le partage desétudes littéraires entre ces deux paradigmes  : l'un relevant des scienceshumaines et sociales, l'autre d'une herméneutique des œuvres. Pour le premier ,le discours littéraire ne bénéficie pas d'un régime d'extraterritorialité – cequi ne veut pas dire qu'il n'a pas sa spécificité – mais se trouve intégré dansl'ensemble des pratiques d'une société. Pour le second, le « littéraire  » apour mission de faire vivre un thésaurus à travers lequel une communautéconstruit une identité. Mais ces deux paradigmes à l'intérieur du même « champdisciplinaire  » n'ont rien d'étanche  : les mêmes acteurs peuvent passer del'un à l'autre et les tenants des approches herméneutiques empruntent etréorientent nombre d'éléments issus des sciences humaines et sociales. On levoit, quand on aborde ce champ, on ne trouve pas du tout les mêmes facteursd'hétérogénéité qu'avec les sciences de l'éducation, la psychologie, l'économie ,l'ingénierie, la philosophie, etc. L'article de Patrick Charaudeau situe le débat à un niveau qui estindubitablement le plus intéressant pour la grande majorité des chercheurs ensciences humaines et sociales  : celui des disciplines et des relations entrecelles -ci. C'est là une position courageuse car on ne peut pas ignorer que c'estaussi un niveau où bien souvent les chercheurs préféreraient ne pas se posertrop de questions pour ne pas compromettre leur identité et leur légitimité. Ilest toujours plus facile de traiter de grands principes, ou de discuter depoints très techniques qui n'engagent pas une interrogation sur les frontières .Le problème est que la recherche est enfermée dans un paradoxe qu'il lui fautgérer au mieux  : d'un côté, les découpages disciplinaires semblent dérisoires ,d'un autre, la recherche, comme réalité humaine, ne peut qu' être disciplinaire .C'est bien en focalisant l'attention sur l'interdisciplinarité et en assumantl'hétérogénéité des espaces dans lesquels s'effectue la recherche qu'on peutgérer cette difficulté de manière productive .
Cet article commente un texte de Patrick Charaudeau précédemment paru dans Questions de communication: « Pour une interdisciplinarité « focalisée » dans les sciences humaines et sociales ». Il ne s'agit pas d'une critique au sens étroit, car j'exprime mon accord avec les thèses défendues. Après en avoir résumé les idées essentielles, je discute certains points qui me semblent insuffisamment développés ou qui ne sont pas abordés par Patrick Charaudeau. En particulier, le statut singulier de l'analyse du discours, qui est interdisciplinaire par nature, et les problèmes que pose la définition de ce que Patrick Charaudeau appelle un « champ disciplinaire » (les sciences du langage ou les sciences de l'éducation par exemple); j'insiste sur la diversité de ces champs disciplinaires et sur leur caractère hétérogène. Cette discussion est illustrée par l'exemple des études littéraires.
sciencesInfo_11-0404253_tei_1052.xml
termith-389-communication
Ce travail s'inscrit dans un programme de recherche visant à améliorer les modes d'accès aux documents numériques, en exploitant leur structure textuelle et terminologique. Notamment, l'accès aux documents volumineux ou complexes peut être facilité par un index du style que l'on retrouve à la fin d'un livre. Celui -ci présente de manière schématique les concepts abordés dans le document ainsi que la manière dont l'auteur a établi des liens entre eux. De plus, il donne accès directement au passage du document visé par l'entrée et constitue de ce fait une aide précieuse à la fouille d'informations dans un document. On constate ainsi un nouveau champ d'application intéressant pour l'indexation automatique, étant donné la quantité de documents disponibles en format numérique et pour lesquels on aimerait se doter d'outils de navigation supérieurs à la seule recherche plein texte. Les méthodes utilisées doivent cependant dépasser les résultats limités qu'avaient offerts, par le passé, les systèmes d'indexation automatique par fréquence de mots (voir à ce sujet Da Sylva, 2002). Nous décrivons ici un travail de recherche dont l'objectif était d'examiner à la loupe les relations sémantiques présentes dans un index de livre afin de déterminer lesquelles pourraient être dérivées automatiquement. Ces relations constituent la véritable valeur ajoutée par les index : elle fournit un schéma de l'organisation conceptuelle du document, différente de celle indiquée par la table des matières (ou le plan d'un site web, considéré comme un document à fouiller). Notre présentation est axée essentiellement sur les résultats qualitatifs et quantitatifs de notre étude et des pistes relevées; elle présente les exigences dont devrait tenir compte toute implémentation subséquente. Le type d'index visé ici est connu sous le nom anglais de back-of-the-book index. Il suppose une méthodologie de développement très différente de celle faite pour l'indexation sommaire des documents d'une collection. La différence entre les deux est exposée clairement entre autres dans Klement (2002) ainsi que dans Korycinski et al. (1990). Une différence importante se situe au niveau de la forme des entrées d'index. Un index de livre (fait dans les règles de l'art) se présente comme un ensemble d'entrées structurées de façon à capter non seulement les sujets traités dans le document mais aussi les relations établies entre eux par l'auteur. Un exemple est donné ci-dessous. A titre de comparaison avec l'index d'une collection, on constate que ce même ouvrage, dans le catalogue de la bibliothèque de l'Université de Montréal, est décrit globalement par les termes suivants : Grossesse; Soins prénatals; Accouchement; Nourrissons. Température, 186-189 du bain, 138, 141, 227 de la chambre, 118, 121, 178 fièvre, 180, 184, 186-188, 187 pendant la grossesse, 38 prise de la, 187 refroidissement, 178 urgence, 38, 174 voir aussi Thermomètre (Fenwick, 1997) Da Sylva (2002) distingue aussi les deux types d'indexation et brosse un tableau de l'état de l'art en indexation automatique de monographies. Deux tâches importantes peuvent déjà recevoir des traitements adéquats : l'extraction de termes complexes (voir par exemple Jacquemin, 2001) et l'identification de noms propres (voir par exemple Chinchor, site web, pour une revue des résultats pertinents de la conférence MUC-7). En revanche, parmi les difficultés importantes qui subsistent, il y a le défi de structurer les entrées sous la forme de vedettes et sous-vedettes. On veut répliquer dans une certaine mesure, dans un système automatique, certaines caractéristiques des index produits par les humains, mais le traitement sémantique requis pose des problèmes considérables. L'état de l'art en sémantique computationnelle (voir Lappin, 2003) ne permet pas d'aller au niveau de la compréhension automatique des relations entre les concepts exprimés. Des approches prometteuses pour le repérage de relations sémantiques misent davantage sur les cooccurrences statistiques pour établir un lien entre deux termes. Si ces travaux présentent des résultats intéressants, nous croyons pouvoir contribuer à améliorer la performance des systèmes existants en examinant de plus près les relations sémantiques effectivement présentes dans les index produits par les humains, et ainsi proposer des pistes pour la modélisation de l'automatisation. Les hypothèses qui ont guidé ce travail portent sur le type de relations présentes dans un index de livre et sur les propriétés du texte qui peuvent expliquer la relation retenue par l'indexeur. On peut classer les entrées complexes d'un index selon la relation sémantique qui existe entre la vedette principale et la sous-vedette. Cette description offre des pistes de recherche quant aux façons de repérer les indices pertinents dans le texte source, ce qui est remarquable étant donné les difficultés notoires associées à ce repérage automatique. Elle permet aussi de déterminer la forme que devraient prendre les entrées générées automatiquement. On peut classer les types de relations entre la vedette principale et la sous-vedette en relations de subordination, de superordination ou de coordination. A celles -là s'ajoute la relation de renvoi entre deux vedettes principales. La subordination existe entre deux concepts lorsque l'un dépend de l'autre, le dominant se trouvant en vedette principale et, le dépendant, en vedette secondaire : l'hyperonymie, la partinomie, les « facettes », etc. L'hyperonymie est la relation qui existe entre une classe et ses sous-classes. Par exemple, « mammifères » est un hyperonyme de « canidés », « félins », « bovidés », etc. On trouve souvent la relation d'hyperonymie entre une vedette principale et une (ou des) sous-vedettes, par exemple 1 : Allergies, 57 … asthme, 210-211 … eczéma, 102, 220 (Fenwick, 1997) La relation de partinomie (ou de « tout à partie ») tient entre une entité composite et ses sous-composantes : entre « vélo » et « guidon », « roue », « fourche » et « selle », on a une relation partinomique. Elle est moins fréquemment utilisée dans les index, mais présente néanmoins, par exemple : Tapisserie 13, 19, 24-27, 31, 60, … colorants 36 trames excentriques 27 … (Harris, 1993) La relation que nous appelons de « facette » est moins bien définie logiquement. Elle vise la décomposition d'un phénomène complexe en aspects secondaires; ces aspects comprennent notamment les agents, les processus, les outils ou instruments, les produits, les environnements, etc. Une relation de facette existerait par exemple entre la vedette « Intelligence artificielle » et les sous-vedettes « projets de recherche » ou « systèmes » : la facette produits (ou outils). Cette relation rejoint la notion de facettes que l'on trouve dans les thésaurus et spécifiquement l'indexation à facettes telle que décrite par Ranganathan (voir une description mise à jour dans Foskett, 1992). Cette relation n'est pas généralement considérée sémantique (puisque davantage encyclopédique), mais nous la jugeons importante pour un index de livre, en regard de la remarque suivante sur le vocabulaire scientifique de base, dans Waller (1999, p. 89), un traité méthodologique d'indexation. « Il [le vocabulaire scientifique de base] comprend un très grand nombre de termes dit “généraux” ou “athématiques ”, tels que : fonction, modèle, opération, système, etc. que l'on retrouve souvent dans la partie “mots outils” des thésaurus, car ils ne peuvent pas s'insérer seuls dans un champ sémantique déterminé. Ils sont de ce fait polysémiques et porteurs de sens divers. Ce n'est donc pas le vocabulaire prioritairement utile à l'analyste. » Si les mots du vocabulaire scientifique de base (dorénavant, VSB) sont inintéressants lorsqu'ils sont utilisés seuls en vedettes principales, ils sont en revanche d'excellents candidats comme sous-vedettes, comme on voit dans l'exemple suivant : Mise en place et exploitation [d'un système d'information] Activités, 302 Conversion, 307-309 Evaluation, 310, 311 Exploitation, 309-311 Mise en place, 303-309 Objectifs, 300, 302 (Rivard et al., 1992) Les sous-vedettes « activités » et « objectifs » sont effectivement des mots très généraux, mais ils prennent tout leur sens quand ils accompagnent la vedette principale. Cette constatation est d'autant plus intéressante que les mots du VSB sont souvent exclus, dans les systèmes d'indexation automatique, des candidats potentiels pour l'indexation sur la base de leur fréquence élevée. Nous proposons d'une part de ne pas les éliminer a priori, d'autre part de les utiliser spécifiquement comme sous-vedettes, accompagnant une vedette principale tirée du vocabulaire scientifique et technique spécialisé (VSTS) de la monographie en question. Aux relations de subordination déjà nommées s'ajoutent des relations sémantiques variées que l'on peut exprimer par une préposition à contenu sémantique : « pour », « par », « contre », « envers », etc. Par exemple : Accessoires les aliments solides, 108-109 … premier secours, 229 … sommeil, 120-121 (Fenwick, 1997) Bain, 134, 145 … bébé, 140-141 danger, 141 l'éponge… (Fenwick, 1997) La préposition suffit à exprimer le lien entre la vedette principale et les sous-vedettes; elle devrait être facilement repérable de manière automatique. Enfin, une relation de subordination récurrente est celle que nous appellerons « de préfixe partagé ». Elle tient entre deux sous-vedettes qui sont regroupées sous la même vedette principale puisqu'elles commencent par le ou les mêmes mots (le préfixe partagé), qui constituent alors la vedette principale. En voici un exemple simple, dont le préfixe partagé est « lecture » : lecture, 76, 140 extensive, 165, 170, 173 intensive, 169, 170, 186 sélective, 173 silencieuse, 17 sur écran, 90, 173, 192, 193, 198 de l'image, 139 (Vandendorpe, 1999) Des exemples plus complexes peuvent faire intervenir des inversions dans les sous-vedettes (avec prépositions isolées à la fin) ou autres permutations, l'omission des articles, etc. 2 La version simple de cette relation, très facile à établir de façon automatique, est intéressante puisqu'elle est très répandue dans les index de livres. La relation de superordination entre la vedette principale et la sous-vedette provient souvent d'une entrée inversée, illustrée par la paire d'entrées suivante. Tapis et carpettes … Egypte 28, 60, 118-119, … Egypte 8, 9, 10, … tapis et carpettes 28, 60, 118-119, … (Harris, 1993) Alors, dans une autre entrée, la sous-vedette est subordonnée à la vedette principale. L'indexeur a jugé bon d'inverser les entrées pour aider au repérage. Il faut se rappeler que l'index est présenté en ordre alphabétique puisque la stratégie de recherche utilisée par l'humain se fonde sur cet ordre 3. Les relations de coordination sont celles où ni la vedette principale ni la sous-vedette ne sont subordonnées l'une à l'autre par une relation facilement identifiable. Ce type de relation est présent dans les exemples suivants : Café et allaitement, 93 et grossesse, 53 (Fenwick, 1997) La forme même de l'entrée laisse croire que les sous-vedettes sont subordonnées à la vedette principale « Café », mais, dans le texte, il est possible que le contraire soit vrai (et d'ailleurs, on pourra retrouver dans le même index les entrées inversées « Allaitement, et café » et « Grossesse, et café »). On trouve parfois des entrées similaires, mais sans « et » explicite; on parle alors de coordination implicite, comme dans l'exemple suivant : Température, 186-189 urgence, 38, 174 (Fenwick, 1997) La relation n'est pas explicitée. Pourquoi ? Peut-être n'est-elle pas facile à exprimer succinctement, mais peut-être aussi n'est-il pas jugé nécessaire de la préciser. L'utilisateur de l'index intéressé par les liens entre la vedette principale et la sous-vedette ira consulter le texte et découvrira ainsi la nature de la relation. Mais il est clair qu'il est utile d'avoir dans l'index une indication que ces deux sujets sont traités conjointement dans le texte. Dans le contexte de production automatique d'index, comme il sera difficile souvent d'expliciter la relation qu'entretiennent deux termes dans le texte, on aimera exploiter cette relation de coordination implicite. Il est utile aussi de mentionner d'autres relations présentes dans les index de livres, soit les renvois entre les entrées. Des renvois de type voir dirigent un utilisateur d'une entrée sans références vers une autre où elles sont toutes regroupées (il s'agit alors d'un synonyme dans le contexte). Des renvois de type voir aussi ajoutent aux références données dans l'entrées d'autres vedettes que l'utilisateur pourrait trouver intéressantes. Ces dernières sont particulièrement difficiles à repérer et à générer automatiquement, puisqu'elles sont établies sans critères précis, sur la base de diverses associations faites par l'auteur ou par l'indexeur. Elles sont liées à la coordination implicite mais entretiennent une relation moins proche 4. Avant d'aborder le développement d'un prototype d'indexation automatique qui chercherait à repérer ces relations dans le texte pour les exprimer dans l'index, nous avons jugé intéressant d'examiner des index existants afin, d'une part, de mesurer l'importance relative de chaque relation (pour orienter les efforts de développement) et, d'autre part, de voir si d'autres relations seraient attestées et viendraient augmenter la liste. Et effectivement, la relation de subordination exprimée par une préposition nous a été suggérée par l'examen des index. La première étape a été de choisir les index à examiner. Les traités d'indexation de livres soulignent l'individualité de chaque livre et, par conséquent, l'individualité de chaque index. Nous risquions donc d'obtenir des résultats très différents d'un index à l'autre. Comment, alors, s'assurer de la validité des observations ? Nous avons choisi d'examiner uniquement des index qui, par leur grande qualité, seraient au moins de bons exemples de ce qu'un index devrait contenir. Nous avons donc retenu des index ayant reçu un prix. En effet, certaines sociétés nationales d'indexeurs (The American Society of Indexers, The Society of Indexers au Royaume-Uni, The Australian Society of Indexers) accordent un prix annuel à un index de livre, sur la base de critères de qualité clairement établis. Ces critères sont publiés sur le site web des sociétés 5; un maximum d'un prix par année est accordé par chaque société, depuis 1978 (1985 dans le cas de l'Australie) 6. Il faut noter que ces prix sont accordés par des sociétés d'indexeurs anglophones. Par conséquent, les livres et leurs index sont uniquement en anglais. Par ailleurs, les livres publiés en français contiennent moins souvent des index. Tel que prévu, les livres retenus présentent une grande variété de thèmes et de modes de présentation (voir le corpus décrit ci-dessous), des ouvrages philosophiques aux techniques de gestion d'oiseaux de proie. Ils partagent néanmoins la caractéristique d'avoir été considérés « de très bonne qualité » par des experts 7. Une sélection d'index primés a ensuite été examinée afin de caractériser aussi finement que possible la relation entre les vedettes principales et chacune de leurs sous-vedettes. Nous avons donc examiné un corpus constitué de 4 index primés, ceux des ouvrages suivants : Arnold, The Letters of Matthew Arnold (index préparé par Margie Towery; Wilson Award, 2002); Jammer, Concepts of Mass in Contemporary Physics and Philosophy (index préparé par Nedalina Dineva; Wilson Award, 2000); Giron Pendleton, Raptor Management Techniques Manual (index préparé par Jeanne Moody; Wilson Award, 1988); et Darwin, The Works of Charles Darwin (index préparé par Richard Raper; Wheatley Medal, 1989). Cet examen a été précédé d'un prétest, sur trois autres monographies (Eden etal., 1989; Morris et al., 1998 et Cooke, 2001), afin de valider notre approche et de raffiner la grille d'analyse. Parmi ces livres, l'index de Eden et al. (1989), préparé par Marcia Carlson, a lui aussi reçu une distinction (Wilson Award, 1990) alors que les deux autres ont reçu des critiques élogieuses rapportées dans The Indexer (vol. 21, n° 3, 1999, p. 137 et vol. 23, n° 1, 2002, p. 43, respectivement). Pour la plupart, l'index au complet a été scruté, entrée par entrée 8. Chaque paire « vedette/sous-vedette » a été classée selon la relation perçue. Par contre, certains index trop volumineux ont été traités partiellement. Pour l'index de l'ouvrage de Darwin l'examen n'a porté que sur les entrées aux lettres E et F (24 pages; ces lettres ont été prises plutôt au hasard, mais illustrent des exemples intéressants). Quant à l'index de The Letters of Matthew Arnold, qui contenait presque uniquement des noms propres (pour lesquels les relations sémantiques sont souvent peu appropriées), seules les pages contenant plusieurs entrées constituées de noms communs ont été retenues (28 pages en tout). Certaines relations avaient été identifiées au départ : générique-spécifique; tout-partie; VSTS-VSB. Certaines autres ont émergé du prétest, notamment l'utilisation d'une préposition véhiculant un sens précis (par exemple, « entre », « versus », etc.). Notons qu'il n'est pas toujours facile de déterminer la relation en jeu. Par exemple : identificateur … association nom-adresse : 193 choix des noms : 187-190 (Meyer et al., 1980) La relation dans le premier cas n'est pas un des types spécifiques identifiés ci-dessus. Elle s'apparente sans doute à « expliqué en termes de » … et illustre le fait qu'il n'y a en réalité aucune limite quant aux relations qui peuvent être mises en jeu dans les index; on aurait tort de vouloir établir une liste fixe. Dans ces cas, nous avons le plus souvent opté pour la relation générale de « coordination implicite ». Les entrées d'index sont très courtes, elliptiques, et peuvent donner lieu à plusieurs interprétations, que l'utilisateur aura tout le loisir d'aller vérifier dans le texte. La difficulté principale consistait bien sûr à déterminer objectivement la nature de la relation sémantique en jeu dans une paire donnée. Si certaines étaient claires, d'autres étaient plutôt ambiguës. Dans le premier exemple ci-dessous, s'agit-il de VSTS/VSB ? et dans le deuxième, partie-tout ou VSTS/VSB ? Finalement, pour le troisième : VSTS/VSB ou subordination par préposition ? advertising … accuracy 136 (Cooke, 2001) European Union regulations and directives (Morris et al., 1998) age abilities, attitudes and susceptibilities related to … (Morris et al., 1998) Dans le doute, la paire était le plus souvent classée dans les relations de coordination implicite. Une autre difficulté était de déterminer si une sous-vedette donnée représentait dans le contexte un mot du VSB. Encore une fois, certains cas étaient clairs (tel le premier, ci-dessous) alors que d'autres, non (le deuxième). checklists and rating tools 154-64 advantages and disadvantages 160-4 (Cooke, 2001) personal home pages 97-104, 207 counter 70, 101, 203 (Cooke, 2001) En effet, « counter » peut être un mot général dans certains contextes et spécialisé dans d'autres. Le mot « analyse » est un autre bon exemple; en mathématiques, il a un sens spécialisé mais il possède aussi un sens général. Ou encore, un terme peut être relativement général, selon le contexte, comme « cellule », qui appartient au vocabulaire de base de la biologie, mais pas nécessaire à celui d'autres domaines. Egalement, dans certains cas deux relations différentes peuvent être identifiées pour une même paire, comme dans l'exemple suivant (préposition et VSTS/VSB) : automation positive reactions to 101, 304, 315 (Morris et al.) Dans ces cas, par contre, si la préposition est régie par la sous-vedette, elle est considérée sémantiquement vide; la relation sémantique avec la vedette principale (ici VSTS/VSB) prime alors (ce même traitement a été appliqué à la préposition « of »). Cependant, nous avons noté également (donc, en double) la relation indiquée par la préposition, pour des questions d'aisance de repérage automatique. Enfin, dans le cas de sous-vedettes exprimées par plusieurs mots, parfois un des mots de la sous-vedette appartenait au VSB mais la sous-vedette dans son ensemble exprimait un concept plus complexe. Nous avons retenu dans ce cas la relation entre la vedette principale et la tête sémantique de la sous-vedette. Pour le premier exemple ci-dessous, c'est une coordination implicite entre « equivalence principle » et « first use of term » (malgré « use » et « term » qui appartiennent au VSB) alors que pour le deuxième c'est VSTS/VSB puisqu'en plus du fait que « level » soit du VSB, le lien entre « coverage » et « detail » est du même type. equivalence principle first use of term, 109 (Jammer, 2000) coverage 64-9 level of detail 65 (Cooke, 2001) Quand une vedette principale possède une seule sous-vedette, il est courant pour l'indexeur de fusionner en une seule vedette, par exemple : « dépliage d'une boucle » plutôt que « boucle, dépliage (d'une) » ou encore « dépliage, (d'une) boucle) ». Nous n'avons pas considéré ces cas dans notre analyse. Les tableaux 1 (prétest) et 2 (index primés) en page suivante présentent un résumé des résultats obtenus pour les relations de VSTS/VSB, hyperonymie, relation tout-partie, coordination implicite, coordination explicite (avec « et »), subordination (par la préposition « of »), préposition véhiculant un sens et renvois de type « voir » (synonymie). Pour le tableau 1, comme cette étape constituait le prétest durant lequel nous avons raffiné notre grille d'analyse, les données compilées sont incomplètes. Elles illustrent toutefois les particularités variables des index. Les relations sont présentes à des degrés (très) différents dans les index étudiés, et elles requièrent des stratégies différentes pour la détection automatique. Prétest 9 10 Eden et al . Morris et al . Cooke Taille de la monographie9 323 p . 340 p . 208 p . Taille de l'index10 4 % (14 p. ) 2,4 % (8 p.) – index sujets 1,9 % (4 p. ) Nombre d'entrées 487 563 230 Nombre de sous-vedettes 678 111 344 Références venant de sous-vedettes 58,2 % (678 / 1165 ) 16,5 % (111 / 674 ) 60,0 % (344 / 574 ) VSTS/VSB 8,3 % (56 / 678 ) 31,5 % (35 / 111 ) 25 % (86 / 344 ) Hyperonymie 2,6 % (9 / 344 ) Partinomie 0 Instance 19,8 % (68 / 344 ) Coordination implicite 19,5 % (67 / 344 Coordination explicite 55,3 % 375 / 678 ) 1,8 % (2 / 111 ) Préposition « of » 14,5 % (98 / 678 ) 43,2 % (48 / 111 ) Autres prépositions 30,6 % (34 / 111 ) Synonymie (entrées ) 11,3 % (55 / 487 ) 5,3 % (30 / 563 ) 18,7 % (43 / 230) Test : analyse des index primés 11 12 13 14 15 Arnold Giron Pendleton Jammer Darwin Taille de la monographie11 5 volumes 390 pages 180 pages n/p Taille de l'index12 28 pages (retenues sur 167 ) 5,6 %(22 pages ) 12 pages 24 pages13 Nombre d'entrées 949 510 487 649 Nombre de sous-vedettes 1363 2029 610 1498 Références venant de sous-vedettes 59,0 %(1363 / 2312 ) 80,0 %(2029 / 2539 ) 56 %(610/1097 ) 69,8 %(1498 / 2147 ) Relations étudiées14 1363 2029 670 1498 VSTS/VSB 41,9 % (581 / 1363 ) 65,4 %(1326 / 2029 ) 30,3 %(203 / 670 ) 7,2 %(108 / 1498 ) Hyperonymie 0 0 5,2 %(35 / 670 ) 33,6 %(503 / 1498 ) Partinomie 11,1 % (152 / 1363 ) 0 0,001 %(1 / 670 ) 4,8 %(72 / 1498 ) Instance 0 0 0 0 Coordination implicite 0 0 26,7 %(179 / 670 ) 54,4 %(815 / 1498 ) Coordination explicite 5,0 % (69 / 1363 ) 8,6 %(174 / 2029 ) 20,6 %(138 / 670 ) 0 Préposition « of » 24,4 % (332 / 1363 ) 7,7 %(156 / 2029 ) 3,1 %(21 / 670 ) 0 Autres prépositions 16,8 % (229 / 1363 ) 18,4 %(373 / 2029 ) 13,9 %(93 / 670 ) 0 Synonymie15 (entrées ) 1,5 % (14 / 949 ) 1,5 % (8 / 510 ) 1,5 %(10 / 670 ) 13,4 %(87 / 649) D'abord, il faut remarquer qu'il y a dans certains index un nombre élevé de sous-vedettes par vedette alors que dans d'autres, plusieurs des entrées n'ont aucune sous-vedette. Cela donne des indications sur la richesse des regroupements sémantiques effectués par l'indexeur. Ensuite, certains index privilégient un type de relation au détriment des autres; cela dépend grandement du sujet couvert par la monographie autant que du style de l'indexeur. Par exemple, l'ouvrage de Darwin contient un grand nombre de relations générique/spécifique, prévisibles dans ces traités sur la classification animale. En contraste, l'ouvrage de Giron Pendleton contient un nombre élevé de relations VSTS/VSB, puisqu'on explique diverses facettes de la gestion des oiseaux de proie. Plus que les chiffres observés, il faut retenir que ces différentes relations sont bel et bien attestées dans les ouvrages et que les entrées complexes avec sous-vedettes reliées représentent au bas mot 16,5 % des références des index examinés (et, en moyenne, 57 %). La détection de celles -ci s'impose donc dans un système d'indexation automatique qui veut imiter ce type d'index. Les associations de type VSTS/VSB représentent un sous-groupe intéressant. Bien que pas nécessairement très fréquentes, elles permettent, par des techniques relativement simples (esquissées ci-dessous), de présenter une information utile qu'il serait plutôt difficile de dériver autrement. L'originalité de notre démarche repose donc de façon importante sur la décision d'inclure stratégiquement les termes du VSB comme sous-vedettes dans l'index. La relation de « coordination implicite » a été retenue dans un grand nombre de cas. Il peut être nécessaire de justifier sa présence dans notre étude et dans le modèle que nous développons : lors de la construction automatique de l'index, le repérage risque de n' être pas suffisamment sophistiqué pour identifier spécifiquement dans le texte, entre deux concepts repérés, la relation qu'ils entretiennent. Garder une entrée d'index vague et ambiguë (de coordination implicite) peut être préférable à proposer une relation mal identifiée, souvent erronée 16. Au sujet de la coordination encore, il apparaît que l'utilisation du « et » dans l'index dépende du style de l'indexeur (ou de la politique de la maison d'édition). Les deux relations de coordination (implicite et explicite) pourront être confondues dans un système d'indexation automatique. Egalement, l'utilisation de la préposition (« of » ou une autre), aussi bien à l'initiale qu' à la finale de la sous-vedette, varie elle aussi beaucoup d'un index à l'autre et semble attribuable au style de l'indexeur. On peut avancer que l'omission de « of » ne nuit pas à la compréhension des entrées; ces dernières, dans le système que nous élaborons, se confondraient donc avec les cas de coordination implicite. Par contre, les autres prépositions méritent habituellement d' être maintenues pour conserver le sens de l'entrée. Qu'est -ce qui est nécessaire maintenant pour repérer chacune de ces relations ? Les réponses à cette question constituent les spécifications théoriques pour le modèle d'indexation automatique de monographies que nous sommes en train d'élaborer. D'abord, soulignons que l'approche implique d'une part la détection de deux termes différents dans un même passage, et d'autre part un verdict quant à la relation intéressante qui les unit. Certaines des relations identifiées le seront sur la base de fréquence de cooccurrence statistique significative. D'autres le seront à l'aide de ressources terminologiques externes (synonymes, hyperonymes, VSB, etc.). Nous donnons dans la suite plus de détails et, là où c'est possible, certains exemples produits par notre prototype actuel. Avant de détecter des relations entre termes, encore faut-il identifier ceux -ci (mots isolés et expressions à plus d'un mot). Cette étape exige des stratégies d'extraction de la terminologie, dont nous n'avons pas parlé ici. Notre prototype actuel fait l'extraction de suites de deux, trois et quatre mots pleins après une lemmatisation partielle. Egalement, pour calculer si deux termes ont une fréquence de cooccurrence statistique significative dans une fenêtre donnée, il faut définir ces fenêtres, c'est-à-dire subdiviser le document en « passages » ou « segments » (voir Da Sylva, 2002). Notre prototype procède d'abord à un découpage en passages, basé sur des critères de cohésion lexicale (de façon semblable à celle décrite dans Aït el - Mekki et al., 2002) : deux phrases sont incluses dans le même passage si leur score de similarité (obtenu en comparant des vecteurs de mots) dépasse un certain seuil. Les anaphores (ce, ils, etc.) influencent aussi le score de similarité. Des statistiques d'occurrence de chaque terme et mot sont ensuite calculées pour le document en entier aussi bien que pour chaque passage; elles servent à mesurer la « force » de chaque relation identifiée. Enfin, des poids sont assignés à chaque mot, à chaque terme et à chaque paire vedette/sous-vedette; il s'agit d'une combinaison linéaire d'un score lié à la fréquence et d'un autre lié à la forme, dont la pondération varie selon le type d'entrée candidate. Les candidats dont le poids dépasse un certain seuil sont retenus dans l'index final. La relation de coordination implicite est la plus simple à détecter, vu les précisions que nous avons apportées ci-dessus : on vise à repérer deux termes mentionnés conjointement dans le même passage. La détection repose essentiellement sur une cooccurrence statistique significative entre deux termes dans un passage. Pour repérer cette relation symétrique de coordination implicite, nous appliquons sur les termes du document une métrique basée sur la mesure if*idf, qui combine la fréquence d'un terme dans un document à la dispersion de ce terme dans une collection. Nous voyons un document comme une collection de passages, et nous nous servons de la dispersion du terme dans les autres passages pour relativiser la mesure de cooccurrence. D'autres métriques possibles sont le ratio de vraisemblance (likelihood ratio), la mesure d'information mutuelle (Church et al., 1991) ou l'analyse de mots reliés (co-word analysis, He, 1999), avec lesquelles nous expérimenterons prochainement. Quelques exemples produits par notre prototype (sur un texte portant sur l'accès aux documents sur le web) : relations entre les textes, réseau Internet producteurs de bases de données bibliographiques, textes disponibles sur le web Il est à noter que la relation qui unit la vedette et la sous-vedette n'est pas claire et que la relation de coordination implicite semble plus utile ici. L'outil le plus utile pour soutenir la détection automatique des relations d'hyperonymie et de synonymie est un thésaurus (documentaire) dans lequel sont encodées ces relations. L'accès à un thésaurus du domaine de la monographie serait ainsi indéniablement utile. Bien sûr, les thésaurus spécialisés sont rares, et il serait illusoire de penser en obtenir facilement un pour toute nouvelle monographie. Nous ne ferons qu'esquisser ici des pistes de solutions, sous la forme de techniques de repérage automatique de relations hyperonymiques ou synonymiques à l'aide de patrons lexico-syntaxiques (voir notamment Bertrand-Gastaldy et Pagola, 1992; Grefenstette, 1994; Hearst, 1998; Sundblad, 2002). Par ailleurs, un thésaurus spécialisé ne sera pas suffisant. Il faudra aussi un thésaurus de la langue générale, pour repérer par exemple des relations entre les termes n'appartenant pas proprement à la langue de spécialité (le VSTS de la monographie). Une autre optique est d'exploiter davantage les propriétés de distribution statistique des paires de termes. Des approches comme celles de Lawrie et Croft (2000) de Krishna et Krishnapuram (2001) ou de Vinokourow et Girolami (2000) tentent de déceler des relations hiérarchiques sur la base de cooccurrences asymétriques entre concepts (les résultats reflètent toutefois d'autres relations asymétriques non hiérarchiques). Il est clair que cette relation, qui serait très utile, sera en pratique difficile à réaliser; notre prototype actuel ne s'y aventure pas. Les remarques ci-dessus s'appliquent aussi à la synonymie. La monographie seule ne permettra pas d'identifier des synonymes. En effet, pour deux expressions synonymes, un même document contiendra vraisemblablement une seule des deux expressions (on parle ici de l'utilisation d'une terminologie unique par un auteur) 17. Nous pouvons faire l'hypothèse que des synonymes posséderont des fréquences de cooccurrences similaires avec d'autres termes et qu'ils seront regroupés par un effet secondaire de la détection de la relation de coordination implicite. Cette hypothèse reste à vérifier. Encore ici, un thésaurus contenant cette relation serait utile. Ils sont toutefois rares à l'inclure. Bertrand-Gastaldy et al. (1992) et Sundblad (2002) présentent des moyens d'identifier automatiquement ce type de relation, à l'aide de patrons lexico-syntaxiques du type « est constitué de », etc. Ce serait une piste à suivre. Les relations sémantiques variées exprimées par les prépositions sémantiquement pleines peuvent aider à créer des entrées d'index utiles sans avoir à faire une analyse sémantique complexe du texte. Le cas idéal se présente lorsque l'on repère dans le texte la vedette principale et la sous-vedette, les deux reliées directement par la préposition en question. Dans notre corpus, étant donné l'entrée d'index suivante, on trouve dans le texte la phrase associée qui la suit. empty universe inertial mass of particle in, 157 … that the of a an otherwise totally is zero, … Bien sûr, en contraste avec l'exemple précédent, on trouve des cas comme le suivant, où l'index utilise une préposition différente de celle présente dans le texte (et qui illustre de surcroît la normalisation préalable nécessaire) : colour … personal preferences about Many operators have a strong a particular. (Morris et al., 1998) La stratégie ici repose sur l'identification dans le texte d'expressions complexes contenant une préposition, prépositions qui sont listées dans une ressource lexicale externe. L'entrée d'index est obtenue en découpant le terme en deux parties : la vedette principale (c'est-à-dire ce qui précède la préposition) et la sous-vedette (qui contient la préposition). Ceci aura comme effet secondaire de regrouper les entrées commençant par la même expression mais contenant des prépositions différentes. Un certain regroupement des prépositions quasi synonymes est aussi possible (par exemple « pour » avec « afin de », « via » avec « par », etc.). Il y aurait lieu aussi de regarder de plus près la sémantique de chaque préposition et de proposer des indicateurs autres qui suggèrent la présence de la relation. Voici quelques exemples produits par notre prototype : accès aux documents aux textes par le web pour le grand public à des textes à l'information à leur contenu à tous les textes à un nombre jamais vu de textes Pour repérer la relation entre un terme du VSTS et un terme du VSB, on doit d'abord détenir un VSB approprié. Nous envisageons deux méthodes différentes pour générer le VSB. D'abord, une approche théorique où l'on dégage des propriétés sémantiques des mots du VSB (mots généraux, partagés par toutes les disciplines de la science, de sens abstrait) et où l'on crée une liste manuellement. Une deuxième approche consiste à extraire automatiquement d'un corpus varié les mots communs à tous les sous-domaines de la collection. Nous procédons actuellement à l'évaluation de ces deux méthodes. Pour les termes du VSTS, une analyse statistico-linguistique globale du document fournit des candidats-termes appartenant à la langue de spécialité du document. Il s'agit d'abord de retirer de la liste globale les mots du VSB. Alors, parmi les termes restants, on considère que les plus fréquents définissent le VSTS de la monographie. Les candidats proposés pour l'index pour la relation VSTS-VSB dans un passage consistent de paires de termes, l'un issu du VSTS et l'autre du VSB, et dont la fréquence de cooccurrence dans le passage est significative (par la mesure if*idf ou le ratio de vraisemblance). Notre prototype utilise présentement la liste de VSB établie manuellement et produit des exemples comme les suivants : sciences de l'information rôle texte identification contenu du web taille Il est remarquable que cette méthode de génération automatique, qui ne repose que sur une liste VSB établie au préalable et sur l'identification de la terminologie spécifique au document (par les statistiques de fréquence), donne lieu à des entrées d'index très évocatrices. Nous avons procédé à un examen minutieux de relations sémantiques manifestées dans des index de monographies. Les résultats de notre étude soulignent l'importance de capter de telles relations pour fournir un index utile. Chaque type de relation demande des méthodes de détection différentes : analyse limitée au document en main (pour les calculs de statistiques d'occurrence ou la décomposition de termes complexes avec prépositions) ou utilisation de ressources externes (thésaurus, liste du VSB). Les deux types demandent donc des efforts de développement qualitativement différents. Nous avons ainsi présenté les spécifications nécessaires au développement d'un système d'indexation, résumés ici : identification préalable des mots (isolés) et termes (complexes) du document; subdivision du document en passages; dans chaque passage, repérage et pondération de toute paire de termes unis par une des relations identifiées ci-dessus; extraction des termes retenus pour l'index sur la base de la pondération. Les méthodes reposent donc sur l'analyse de l'organisation textuelle et conceptuelle du document et sur l'extraction de la terminologie spécifique à celui -ci. Notre étude permet de surcroît une stratégie de développement incrémentale : sur un canevas de base qui identifie la terminologie du document et le découpage en passages, on peut greffer des modules de détection de relations selon les ressources terminologiques ou les algorithmes disponibles. Nous travaillons présentement au raffinement du prototype actuel, dont les résultats sont déjà étonnants par leur pouvoir évocateur : des paires vedette/sous-vedette sont plus suggestives à l'utilisateur que de simples listes alphabétiques de termes. Plusieurs aspects du prototype sont à optimiser, une évaluation formelle est souhaitable, et il reste toute la question de l'acquisition (ou de la génération) des ressources terminologiques nécessaires. On voit que la tâche est ambitieuse et les difficultés nombreuses, mais les pistes que nous avons soulevées dans cet article nous semblent des objectifs très intéressants à poursuivre .
L'accès aux documents numériques volumineux ou complexes peut être facilité par un index du style que l'on retrouve à la fin d'un livre, présentant schématiquement les concepts abordés dans le document et les liens que l'auteur a établi entre eux. Il peut s'avérer un outil précieux dans la fouille de documents. Le travail de recherche décrit ici vise à identifier les relations sémantiques présentes dans les index de livre produits manuellement pour déterminer lesquelles peuvent être dérivées automatiquement. Pour ce faire, sept index ont été examinés. Les observations relevées permettent de distinguer deux types de relations : celles pour lesquelles l'analyse du document en main fournit suffisamment d'informations, et celles pour lesquelles des ressources terminologiques externes sont nécessaires. Des pistes pour le développement d'un système d'indexation automatique de monographies sont ainsi identifiées.
sciencesInfo_05-0095593_tei_DN_083_0135.tei.xml
termith-390-communication
Le modèle de référence OAIS (OAI 2002) est devenu une norme internationale en 2003. Cette norme, riche et argumentée, nous permet de percevoir toute la complexité et la portée du problème de l'archivage long terme des informations sous forme numérique. Elle met en place les concepts et le vocabulaire indispensables à la compréhension du problème. Ce modèle constitue aujourd'hui une référence essentielle et reconnue aussi bien dans le domaine scientifique, le domaine industriel que dans le domaine patrimonial. Comprendre le problème et ses multiples aspects organisationnels, techniques, juridiques, normatifs. .. constitue un très grand pas, mais comprendre ne suffit pas : le vrai besoin est de proposer des solutions concrètes et applicables. Parce que l'une des causes majeures des difficultés rencontrées pour la pérennisation des informations numériques réside dans l'obsolescence continue des technologies, nous avons parfois tendance à focaliser nos analyses et nos solutions sur les aspects techniques du problème. Sans sous-estimer le poids de ces aspects techniques, il paraît clair aujourd'hui que les solutions ne pourront émerger que par la conjonction d'un ensemble de facteurs distincts : une organisation adéquate, des personnes ayant à chaque endroit les compétences requises, un ensemble de procédures et de standards applicables, des moyens techniques appropriés, des mécanismes de certification des services d'archives normalisés, etc. Nous nous concentrerons dans cet article sur les questions d'organisation qui nous paraissent déterminantes. Le modèle d'organisation que nous proposons est le fruit d'une large réflexion qui intègre la vision globale du modèle OAIS, le retour d'expérience de la mise en œuvre de l'archivage de données et de documents numériques au CNES, la structuration actuelle de la technologie en grands domaines distincts, et les facteurs humains liés à la grande diversité de compétences qu'il est nécessaire de mettre en œuvre. Dans ce qui suit, le terme Archive, en majuscule, sera généralement utilisé avec le sens défini dans le modèle OAIS (organisation dont la vocation est de préserver l'information pour permettre à une communauté d'utilisateurs d'y accéder et de l'utiliser), c'est-à-dire au sens d'un service d'archives. Les services d'archives peuvent avoir des finalités très diverses. Les archivistes distinguent clairement les archives intermédiaires (on conserve les documents parce qu'ils doivent encore servir dans le cadre dans lequel ils ont été créés) des archives définitives à vocation patrimoniale. Les échelles de temps du numérique – en particulier la périodicité des obsolescences de matériels, médias de stockage, système d'exploitation, logiciel, etc., – sont telles que si on veut conserver nos informations pendant 15 ans, 50 ans ou 200 ans, il conviendra de prendre les mêmes dispositions organisationnelles, techniques et juridiques. On assiste donc, au niveau des solutions à mettre en œuvre, à un certain gommage des différences entre ces catégories d'archives. On met souvent en avant les difficultés soulevées par le fossé qui existe entre la culture archivistique et celle des informaticiens. C'est une difficulté réelle qui sera résolue à terme par des formations nouvelles dans lesquelles l'archiviste devra s' être approprié la part de l'informatique indispensable à la compréhension de la représentation de l'information sous forme numérique. Parallèlement, certains informaticiens devront s'intéresser à la structure et à la signification des informations archivées et pas seulement aux technologies. Le modèle d'organisation proposé vise aussi à résorber les fossés existants entre ces professions. A ces considérations, il conviendra aussi d'ajouter que l'informatique n'est pas vraiment un métier mais une constellation de métiers fort différents et non interchangeables. L'archivage des informations numériques est trop complexe et exige des compétences trop diverses pour être résolu en un seul bloc. Nous avons donc cherché à décomposer le problème initial en plusieurs autres problèmes indépendants et de taille beaucoup plus réduite. Le point de départ de la réflexion est donné par le modèle fonctionnel de l'OAIS tel qu'il est présenté figure 1. Toutes les fonctions identifiées dans ce modèle doivent naturellement être couvertes par l'organisation. Les quatre fonctions opérationnelles essentielles du modèle OAIS sont : le versement, le stockage d'archive, la gestion des données et l'accès. Notre expérience pratique nous a montré qu'il était tout à fait possible d'organiser les fonctions opérationnelles en trois services distincts : un service Collecte et préparation des données prenant en charge l'ensemble des tâches liées au versement; un service Stockage d'archive correspondant de très près à la fonction de même nom; un service Gestion des données et communication assurant la gestion du patrimoine archivé et sa mise à disposition des utilisateurs. En effet, ces deux fonctions sont en étroite interaction et les critères de recherche d'information proposés aux utilisateurs ne sont que la traduction au niveau de l'interface d'accès de mécanismes d'interrogation d'un système de gestion des données. Il n'est pas inutile de préciser ici que, par service, nous entendons un ensemble composé de personnes, de moyens techniques et de ressources financières ou autres, en charge d'un mandat clairement identifié. Nous allons tenter de montrer que pour chacun des trois services proposés, il est possible de définir précisément les fonctions et les responsabilités, de spécifier les interfaces externes (relations avec les autres services et relations avec les entités externes au service d'archives), et de préciser les compétences nécessaires à son fonctionnement. Chaque service est supposé devoir mettre en application un ensemble de procédures et de normes qui lui sont propres et disposer des moyens et ressources adaptés aux tâches dont il a la charge. L'activité des trois services doit naturellement être coordonnée par une structure de direction qui porte la responsabilité d'ensemble, ce qui nous conduit au modèle d'organisation très simple présenté figure 2. La fonction Planification de la préservation n'est pas une fonction opérationnelle. C'est une fonction de veille et de conseil. Elle assure une certaine surveillance de l'obsolescence et de l'émergence des technologies pour anticiper sur les décisions nécessaires à la préservation. Elle s'assure également de l'adéquation au cours du temps des services de communication par rapport aux besoins et attentes des utilisateurs. Elle peut être sous la responsabilité d'un groupe rattaché directement au coordonnateur, elle peut être aussi répartie entre les trois services. On peut aussi penser que plusieurs services d'archives indépendants pourraient mettre en commun certaines de leurs ressources pour conduire cette activité. La fonction d'administration est une fonction de mise à disposition de moyens et de services qui peuvent être là encore soit partagés en sous-fonctions réparties entre les services existants, soit centralisés comme cela peut être le cas pour la gestion du réseau et des moyens informatiques généraux. Dans les sections qui suivent, nous décrivons plus en détail les caractéristiques des trois services du modèle d'organisation. Il s'agit à ce stade d'une première esquisse. Une définition complète et détaillée de chacun des services nécessite en effet des développements beaucoup plus longs. Le service Collecte et préparation des données (CPD) est en charge de la collecte des objets de données auprès des services versants et de l'ensemble des tâches nécessaire pour passer de ces objets transmis par les producteurs à des objets numériques ayant toutes les qualités requises pour être archivés. CPD est en premier lieu responsable des interactions entre services d'archives et les services versants. Pour chaque service versant, les différents objets de données numériques à transférer à l'Archive doivent être définis (plan de classement, plan d'archivage. ..). Le processus de transfert doit ensuite être mis en place et les objets reçus par l'Archive doivent être conforme à ce qui est attendu. Une vue globale de ce processus est présentée dans le projet de norme ISO Producer Archive Interface Abstract Standard (PAI 2003). Il est important de noter ici qu'en général les différents services versants concernés n'ont pas tous la capacité de mettre en application les prescriptions de l'Archive en matière de formats de données et de métadonnées, les capacités techniques et les règles de fonctionnement interne à ces services versants pouvant être très diverses. Il s'ensuit donc une négociation aboutissant à un accord entre les deux parties. Il ne s'agit plus seulement ici d'identifier les documents qui doivent être archivés, mais aussi de préciser les formats dans lesquels ils doivent être livrés, les moyens par lesquels ces objets numériques seront envoyés à l'Archive. .. Les formats de données qui sont acceptables ou recommandés pour pérenniser ces données doivent répondre à des critères bien précis : ces formats doivent être normalisés ou standardisés, indépendants des logiciels mis en œuvre pour les créer, les objets de données doivent pouvoir être décrits (syntaxe et sémantique) de façon exhaustive, etc. Sur ce sujet, le groupe PIN (pérénnisation des informations numériques) (PIN 2004) a conduit un travail de réflexion méthodologique sur les critères d'évaluation des formats au regard de la pérennisation. Le service CPD doit donc : assurer la réception des objets transmis par les services versants et contrôler leur conformité par rapport au plan établi; effectuer lorsque cela est nécessaire, des opérations de transformation de format de données et de métadonnées (par exemple des fichiers livrés au format MS Word pourront être transformés en fichiers au format PDF/Archive, des fichiers texte contenant des métadonnées pourront être transformés en fichiers XML structuré); affecter aux objets numériques reçus, un identifiant unique cohérent dans l'espace de nomenclature de l'Archive; enrichir les métadonnées en mettant les objets reçus en relation contextuelle avec d'autres objets déjà archivés, ou avec des documents disponibles dans d'autres Archives; transférer tous les objets numériques archivables (données et métadonnées) au service de Stockage d'archive; transférer les métadonnées au service Gestion des données et communication. Le modèle OAIS insiste longuement sur la nécessité de rassembler et d'organiser les informations de telle sorte qu'elles puissent être parfaitement compréhensibles, aujourd'hui et demain, par la communauté des utilisateurs. Il s'agit ici d'une question peu triviale qui est au cœur de la responsabilité du service CPD. – Interfaces avec les services versants : un mode de communication pour le transfert des objets de données et pour les interactions entre le service versant et l'Archive doit être spécifié dans un document approuvé de part et d'autre. – Interfaces avec le service Stockage d'archive : les interfaces sont extrêmement simples. Elles se résument à un tout petit nombre d'actions qui peuvent être mises en œuvre depuis un poste de travail du service CPD. Voici une représentation réaliste des actions permettant au CPD de transmettre un objet numérique au service SA : connexion au service SA (sur l'initiative du service CPD) et authentification, demande de stockage d'un objet numérique pour lequel on précise son identifiant et la classe de service attendue pour cet objet (cf. section 4), transmission du fichier, accusé de réception du service SA, fermeture de session. Le processus ainsi mis en œuvre peut être tout aussi bien manuel, et exécuté au cas par cas en fonction des besoins par un opérateur, ou automatique s'il porte sur des grands nombres d'objets numériques. Les actions définies ci-avant peuvent évidemment être formulées, organisées différemment en fonction des contraintes et des choix qui auront été retenus. Cette interface doit être telle qu'elle ne dépende pas en amont des activités du service CPD et qu'elle ne préjuge pas en aval des activités conduites par le service SA. – Interfaces avec le service Gestion des données et communication : les fichiers de métadonnées, sous une forme normalisée, sont transmis au service GDC. Ces métadonnées peuvent inclure des descriptions de collections et de sous-collections (fonds et sous-fonds), mais aussi des descriptions et des identifications d'objets numériques unitaires. Le service CPD peut également transmettre dans ce cadre des objets numériques complémentaires utiles à la recherche d'information au sein des ensembles de données archivées (par exemple des représentations graphiques). Le service SA est totalement aveugle sur le contenu des fichiers qu'il reçoit : il prend en compte des trains de bits accompagnés d'un identifiant et d'une consigne de stockage et il doit assurer la pérennisation de ces bits. Le service GDC par contre va traiter les informations qu'il reçoit pour les organiser au sein d'une base de données et si nécessaire les rendre accessibles à une communauté d'utilisateurs. Les moyens matériels, logiciels et de communication nécessaires à la bonne réception des objets numériques transmis par les services versants ne présentent pas de caractéristiques spécifiques, si ce n'est la nécessité à décider au cas par cas, de sécuriser les transferts afin d'authentifier les objets reçus et de garantir leur intégrité par rapport à l'expéditeur. Ces moyens seront à adapter en fonction du volume des données à prendre en compte et de la périodicité des transferts. Un ensemble de logiciels d'aide à la préparation des données et des métadonnées à archiver sera naturellement nécessaire. Deux types de compétences, aujourd'hui souvent séparées, doivent être rassemblées au CPD : celle de l'archiviste capable de définir, en relation avec le service versant, les informations à préserver, de vérifier l'intelligibilité de ces informations et leur complétude, d'organiser ces informations au sein d'un ensemble structuré, et celle d'un informaticien spécialisé dans la gestion des données et la représentation de l'information sous forme numérique, afin de définir les formats de données et de métadonnées acceptables pour la pérennisation, de vérifier la conformité des objets livrés par rapport à ces formats, de mettre en œuvre si nécessaire un processus de transformation de formats, de spécifier le développement des outils informatiques nécessaires à ce service, de les développer et de les exploiter. Ces compétences spécialisées sur la représentation numérique présupposent également une connaissance généraliste en informatique. Les deux compétences sont réunies dans un métier nouveau qualifié ici de gestionnaire de données numériques ou d'archiviste d'information numérique. Le service SA est responsable de la pérennité et de l'intégrité des objets numériques qui lui sont confiés : stockage des objets sur des médias de stockage, accompagné d'une ou plusieurs copies de sauvegarde devant être entreposées dans des locaux séparés; surveillance permanente de l'état des médias (nombre d'opérations de lecture réalisées sur chaque média, taux d'erreur de bits mesurable. ..); remplacement périodique des médias jugés moins fiables par des médias neufs; prise en compte des évolutions des technologies de stockage pour opérer des migrations (périodiques ou continues suivant la politique retenue) vers les nouveaux médias les plus appropriés à ses activités. Le SA a deux clients qui sont le service CPD et le service GDC. Le CPD transmet des objets numériques au SA en vue de leur pérennisation. Ces objets peuvent être affectés – à la demande de CPD – à telle ou telle classe de service particulière. Les classes de service permettent de préciser, en termes fonctionnels et non en termes de technologie, les services du SA qui sont attendus : il peut s'agir du délai de restitution de l'objet numérique (immédiatement dans l'heure qui suit, uniquement aux heures ouvrables. ..) ou encore de la garantie plus ou moins élevée qui peut être requise pour la préservation. Le service GDC émet quant à lui, vers le SA, des requêtes de restitution d'objets numériques en fonction de ses besoins propres et des demandes des utilisateurs. Les interfaces avec le service CPD ont déjà été abordées. Les interfaces avec le service GDC peuvent avoir la forme extrêmement simple suivante : connexion au service SA (toujours sur l'initiative du service GDC) et authentification; demande de restitution d'un objet numérique défini par son identifiant; transmission du fichier du service SA vers le service GDC; fermeture de session. Le service SA doit disposer de l'ensemble des équipements de stockage de données nécessaire à sa fonction : équipements de lecture/écriture, médias de stockage, robots et logiciels nécessaires à la mise en œuvre de toutes les opérations. Suivant les besoins, il devra être en fonctionnement 24 heures sur 24 ou simplement certains jours à certaines heures. Un certain nombre de constructeurs proposent des systèmes répondant plus ou moins complètement aux besoins du service SA. N'oublions pas cependant qu'en aucun cas, nous ne pouvons aveuglément faire confiance aux performances des systèmes et des médias de stockage disponibles sur le marché et ainsi décharger l'Archive des responsabilités de préservation qui sont les siennes. Il s'agit cette fois de compétences d'informaticiens spécialisés dans : la gestion de grands ensembles de fichiers stockés, dupliqués sur différents types de supports; les technologies réseau à haut débit permettant de communiquer avec les « clients » du service; les technologies de stockage à grande capacité, robots de stockage. .., les supports de stockage, leurs caractéristiques, leur fiabilité; les moyens de surveillance de l'état des médias, et la mise en œuvre de ces moyens; la capacité à maintenir en fonctionnement opérationnel un système ouvert 24 heures sur 24 et à faire évoluer le système en fonction des évolutions de la technologie et des montées en charge. Le service GDC est responsable de la gestion du patrimoine d'information préservé par l'Archive et de la communication de ce patrimoine auprès des utilisateurs autorisés. Il doit mettre en place et maintenir en fonctionnement, un système informatique permettant de disposer en permanence d'une connaissance complète et détaillée des objets archivés et du regroupement de ces objets au sein d'ensembles hiérarchisés (fonds, sous-fonds. ..). Il doit alimenter et enrichir sa base de données à partir des métadonnées transmises par le service CGD. Ce système doit également permettre aux utilisateurs d'accéder à distance – via une interface conviviale – à un ensemble de fonctions relevant de la communication : connaître le contenu de la partie communicable des données archivées; rechercher les objets numériques utiles à leurs travaux (critères de sélection basés sur les métadonnées par exemple); sélectionner les objets intéressants; commander et récupérer ces objets de données; éventuellement transformer les objets de données archivés avant de les fournir à l'utilisateur (changements de format, services à valeur ajoutée. ..). La recherche des données utiles s'appuie sur les métadonnées mais aussi sur différentes techniques complémentaires (feuilletage, data mining. ..). Les moyens de récupération peuvent être le réseau ou la recopie sur un support de diffusion courant (cédéroms, DVD, cassettes magnétiques de haute capacité. ..) en fonction du volume. Le service GDC a en charge également de gérer les relations avec la communauté des utilisateurs : autorisations, droits d'accès, éventuellement facturations. Les interfaces avec les services SA et CDM ont déjà été abordées. S'agissant d'informations numériques, et compte tenu des tendances actuelles de l'évolution des technologies, l'interface offerte aux utilisateurs devrait permettre à ces utilisateurs d'exécuter à distance, via le réseau, l'ensemble des opérations de recherche et de commande d'objets au travers d'une interface graphique adaptée aux pratiques d'aujourd'hui. Le caractère plus ou moins confidentiel et sensible des informations archivées peut induire des restrictions à cette vue générale. Le système mis en place par le service GDC s'appuie largement sur les technologies de base de données et de communication d'information via internet. Des systèmes répondant aux besoins du service GDC sont ou seront disponibles sur le marché, ce qui limitera le coût des développements informatiques spécifiques. GDC doit éventuellement disposer de capacité de recopies d'objets numériques sur les médias de diffusion. Enfin, dans certain cas, indépendamment du service SA, il peut être amené à stocker à son niveau les objets de données qui ont vocation à être immédiatement disponibles en ligne pour les utilisateurs, d'où un besoin d'une capacité de stockage (généralement sur disque) à cet effet. Il s'agit, d'une part, de compétences d'informaticien spécialisé dans : la modélisation de l'information; les processus de recherche d'information; les technologies de base de données; les technologies et langages de l'internet (interface homme-machine sur navigateur. ..); le maintien en fonctionnement opérationnel de systèmes ouverts à des communautés d'utilisateurs plus ou moins vastes. Il s'agit, d'autre part, d'avoir une connaissance générale de la problématique de l'archivage : connaissance des catégories de données manipulées; connaissance des métadonnées et des critères de sélection des données adaptés aux besoins des utilisateurs. Bien que la structure de coordination soit abordée en dernier, elle n'en n'est pas moins essentielle puisqu'il s'agit bien ici du pilotage de l'Archive. C'est une fonction de direction. Le coordonnateur est le chef d'orchestre et le véritable responsable de l'archivage (au sens des responsabilités définies dans le modèle OAIS) : suivant le contexte, on parlera de gestionnaire des données, de gestionnaire du patrimoine d'information, d'archiviste, d'archiviste principal. .. Son rôle est de définir précisément le partage du travail et les interfaces entre les différents services. Le coordonnateur organise également les activités relatives aux domaines communs : le modèle d'information, le dictionnaire des objets numériques livrables, l'identification des objets. Le modèle d'information par exemple, établit une vue globale, ordonnée et cohérente de l'ensemble des objets d'information gérés par l'Archive. Cette vue globale inclut les identifiants de ces objets, leurs relations, leur appartenance à des collections. .. La connaissance de ce modèle est indispensable au service CPD qui affecte des identifiants aux objets et définit la place de ces objets au sein du modèle ainsi qu'au service GDC qui organise ce modèle sous la forme d'une base de données. Le rôle du coordonnateur est également d'approuver les standards et les procédures de préférence normalisées appliquées dans chaque service. Dans la pratique, nous avons pu mesurer à quel point la collecte d'un ensemble complet, organisé et convenablement décrit de données scientifiques spatiales constitue la tâche la plus difficile et en définitive la plus coûteuse, en particulier en ressources humaines. On peut constater par contre le caractère tout à fait indépendant de cette activité par rapport aux autres services. La livraison de métadonnées au service GDC s'appuie sur des normes et des technologies de dictionnaires de données à la fois rigoureuses et souples (DED 2001) et (DED 2002). La transmission de fichiers au service SA s'appuie sur une interface totalement stable depuis 10 ans. Un service de stockage d'archive a été mis en place au CNES en 1994. Plusieurs centaines de téraoctets de données y sont aujourd'hui préservées. Après bientôt 10 ans de fonctionnement, le retour est extrêmement positif sur de multiples plans : ce service est utilisé pour préserver à long terme les données des expériences spatiales. Il est également utilisé dans le cadre de l'archivage des documents techniques de l'établissement. Il est enfin utilisé par de multiples projets à des fins d'archivage à plus ou moins court terme. Son insertion au sein du système d'information de l'organisme en fait un outil unique et indispensable. Il convient de souligner que la nécessité de rassembler au sein de ce service des compétences fortement spécialisées notamment en matière de technologies de stockage a pour conséquence qu'un tel service n'est viable (au plan de son coût global) qu'au-delà d'une certaine masse critique. Nous n'avons pas spécifié que chaque Archive devait disposer de son service SA. Parmi les variantes organisationnelles possibles, nous pouvons penser : à un service de Stockage d'archive partagé par plusieurs Archives distinctes; à un service SA partagé entre des Archives et d'autres services du même organisme (c'est le cas au CNES); à un service SA sous la forme d'un prestataire de service indépendant. Une équipe en charge des activités de gestion de données et de communication a été mise en place. Elle a la charge de développer, puis mettre en œuvre des systèmes informatiques permettant de mettre à disposition des données scientifiques spatiales de différentes thématiques (astronomie, océanographie. ..). Malgré la diversité des objets numériques et des logiques propres à chacune de ces thématiques, le défi, en passe d' être résolu, est de réduire les coûts par l'usage d'un système générique adaptable à toutes ces thématiques. La prise en compte des exigences juridiques relatives notamment à l'authenticité et l'intégrité des documents numériques n'ont pas été traitées dans cet article car ce n'était pas directement son objet et ces questions peuvent impliquer d'assez longs développements. Nous pouvons simplement ajouter ici sur ce point que la prise en compte de ces exigences ne nous paraît nullement remettre en cause le modèle d'organisation proposé. Nous savons que la technologie va évoluer sans interruption, des systèmes d'exploitation nouveaux vont remplacer les précédents, des langages de programmation vont apparaître, d'autres vont disparaître, mais l'information va rester. Nous ignorons la nature et l'ampleur des ruptures technologiques à venir et l'évolution des usages qui suivra. C'est pour cette raison que nous avons consciemment privilégié les voies qui s'appuient sur une connaissance de la structure, de la syntaxe et de la sémantique de l'information plutôt que de tenter de maintenir une quelconque technologie en état de marche sur le long terme. Nous savons par expérience que maintenir un logiciel en état de marche pérenne est beaucoup plus compliqué et finalement plus coûteux que de préserver l'information sous une forme indépendante de la technologie. Le modèle d'organisation proposé repose d'abord sur ce choix. Sa raison d' être est de contribuer à l'émergence de solutions concrètes et applicables. Il repose également sur une analyse des compétences et des métiers. Il s'appuie enfin sur un large retour d'expérience au CNES qui nous conforte dans cette voie. Une telle organisation doit pouvoir faire l'objet de contrôles et d'audits externes. L'Archive numérique doit pouvoir apporter la démonstration de sa capacité à assurer sa mission et donc à préserver à long terme les informations sous forme numérique dont elle a la charge. Ceci nous ouvre un champ de réflexion sur la certification des archives numériques. En effet, il apparaît possible de définir avec précision l'ensemble des procédures applicables à chacun des services, d'évaluer l'adéquation et la cohérence de ces procédures par rapport aux responsabilités de chaque service et aux responsabilités globales de l'Archive, et enfin de mettre en application les audits de contrôle du respect de ces procédures. Les archivistes dont la formation initiale est le plus souvent littéraire, peuvent être démunis face au numérique et à l'absence de solution clé en main. L'organisation du travail qui remise les archivistes tout à fait à l'extrémité de la chaîne de création et d'usage de l'information ne leur facilite pas la tâche. Nous avons vu cependant que les services Stockage d'archive et Gestion des données et communication pouvaient aujourd'hui s'insérer au sein du système d'information des organismes ou des entreprises. Au travers du numérique, les Archives peuvent et doivent devenir des centres de pérennisation et de gestion d'information vivante. Le retour sur investissement, c'est-à-dire l'usage qui est fait de l'information archivée doit être visible. Le service Collecte et préparation des données doit, de son côté, intervenir au moment de la création de l'information et non plus au moment ou plus grand monde n'en n'aura besoin. A l'instar des données scientifiques archivées qui montrent des réutilisations de données pour un tout autre objectif que ce pourquoi elles avaient été créées, le développement des services d'archives numériques doit dynamiser, faciliter et finalement décupler l'usage de l'information archivée. De ce point de vue, c'est une révolution mais aussi une chance pour les archivistes .
La situation est mûre en 2004 pour proposer un modèle d'organisation pour les centres d'archives numériques. Ce modèle traduit, en termes de services et d'interfaces, de moyens et de compétences humaines les fonctions et les concepts définis dans le modèle de référence OAIS. Ce modèle d'organisation structure l'Archive en trois services qui peuvent être largement autonomes : la Collecte et la préparation des données, le Stockage d'archive, et enfin la Gestion des données et la communication. Les caractéristiques détaillées de ces trois services et les profils de compétence nécessaires à leur mise en oeuvre seront analysés. Ce modèle s'applique aux institutions patrimoniales dont la fonction première est de préserver les données dont elles ont la charge. Nous montrerons qu'il peut s'appliquer à d'autres types d'organismes et qu'il doit permettre la restauration de la fonction d'Archive au coeur du système d'information des entreprises et des administrations.
sciencesInfo_05-0035860_tei_DN_082_0087.tei.xml
termith-391-communication
Les forums de discussion sont des espaces numériques de discussion qui permettent à des utilisateurs de gérer des activités intellectuelles collectives, que ce soient des simples discussions ou des processus complexes de résolution de problèmes ou d'aide à la décision. Les forums de discussion sur l'internet (de type usenet) offrent à celui qui les analyse la possibilité d'observer de nombreux phénomènes intéressants, autant du point de vue des formes de cognition collective que des possibilités de gestion coopérative par les acteurs de leurs activités en communauté. Cet article 1 sera consacré à un phénomène particulier : l'animation d'un forum de discussion non modéré. En utilisant les méthodes de l'analyse conversationnelle, basées sur l'empirisme descriptif et fondées sur les bases épistémologiques de l'ethnométhodologie ou de l'interactionnisme symbolique (de Luze, 1997, de Queiroz & Ziolkovski, 1994), nous décrirons la manière dont un forum de discussion non modéré se constitue en « communauté de parole en ligne » (Marcoccia, 2001a, p. 182-183) produisant un document numérique « collectif ». Dans un premier temps, nous mettrons en évidence les caractéristiques qu'ont les forums de discussion en tant que documents numériques. Partant des définitions de la littérature sur la question, on verra que les forums de discussion peuvent être caractérisés comme des documents numériques dynamiques, collectifs et interactifs. Nous verrons alors que l'animation de l'espace de discussion numérique que constitue le forum est une activité centrale pour l'établissement même du forum comme document. Ensuite, nous nous attacherons à décrire le type de comportement discursif et communicatif permettant à un utilisateur du forum d'occuper un rôle d'animateur occasionnel. Enfin, nous mettrons en relation ce rôle d'animateur avec la question des relations hiérarchiques à l'intérieur du forum. Partant du modèle des systèmes de place (Kerbrat-Orecchioni, 1992, chap. 2), nous verrons que le type d'activités conversationnelles pris en charge par l'animateur lui permet, du même coup, d'occuper une position haute dans l'interaction. Ce travail est basé sur l'analyse conversationnelle de cent messages adressés au forum de discussion francophone fr.rec.boissons.vins (50 messages en juin et juillet 1997, et 50 messages en avril 1999). Ce forum de discussion usenet est un forum thématique permettant à des amateurs de vins d'échanger des conseils, de poser des questions, de s'échanger des adresses, sans jamais entrer véritablement dans un discours technique sur la viticulture. On peut à première vue considérer un forum de discussion comme un document numérique constitué d'un regroupement d'articles consacrés à un même thème et postés par les abonnés du forum. En tant que produit d'une activité de documentation, un forum est indiscutablement un document numérique. Mais si l'on s'intéresse à l'activité qui a conduit à ce produit, on observe que les forums de discussion sont en fait des documents numériques problématiques, pour lesquels la question de la gestion et de l'animation est centrale. En effet, on considère généralement qu'un document (numérique ou non) rassemble de l'information en un objet unique et fini. Si l'on s'en tient au critère du support et du produit final, les forums de discussion usenet sont clairement des documents numériques. Mais, lorsqu'on s'intéresse à leurs procédures de génération, les documents numériques en général, et les forums en particulier, touchent au limite des définitions de base du document. Un premier point est signalé par Stern (1997) : certains documents numériques sont mis à jour en temps réel et ne sont donc jamais véritablement finis. Peut-on encore parler de documents ou ne doit-pas parler d'espaces (ou d'interfaces) d'information ou de communication dynamique ? On peut noter qu'une question tout à fait similaire se pose lorsqu'on tente de définir un forum de discussion comme objet d'étude d'une analyse de discours. Classiquement, l'objet de l'analyse des discours est une archive, qui regroupe un ensemble de textes référés à un même positionnement, ce qui garantit la cohérence et la pertinence de l'objet d'étude (Maingueneau, 1991, p. 22). Les critères de clôture de l'archive deviennent alors déterminants pour la qualité de la démarche de l'analyste de discours et de ses résultats. Un forum de discussion est alors un objet hybride pour l'analyse de discours, à la fois une archive identifiable par un support et un contenu et une conversation qui n'est jamais totalement finie. Il faut alors considérer les forums comme des documents numériques dynamiques, des documents comme objets de processus, ou, pour prendre les termes de l'analyse de discours, comme une archive en train de se constituer (en l'occurrence, une « archive conversationnelle »). On peut donc dire qu'un forum de discussion constitue un document car il produit une « conversation persistante » (Erickson, 1999), combinant la dynamique de la conversation en face à face avec la stabilité de l'écrit. Ce type de document repose sur une structuration hiérarchique de documents numériques à trois niveaux différents : un message posté dans un forum, un sujet composé de plusieurs messages, un forum composé de différents sujets 2. Un autre point est évoqué par Stern (1997) : un document numérique peut ne pas être sous la responsabilité d'un éditeur qui en garantirait l'unicité mais peut être composé de données issues de différentes sources. On peut alors soit considérer qu'il s'agit de documents composites (des documents de documents), soit qu'ils sont produits par un processus d'écriture collective. La participation à un forum peut ainsi être vue comme la participation à l'écriture collective d'un document, ou d'un projet (Lewkowicz & Zacklad, 1999). Un forum de discussion peut donc être défini comme un document numérique dynamique et collectif. Par ailleurs, dans sa définition la plus simple, un document est une trace de l'activité intellectuelle humaine, conçu dans l'objectif d' être interprété (lu, vu, écouté) par des personnes différentes de ceux qui l'ont mis en place. Un autre problème apparaît lorsqu'on veut caractériser les forums de discussion comme des documents numériques. En effet, la distinction entre l'instance de production du document et son instance de réception n'est plus pertinente. Ainsi, un forum de discussion instaure un cadre participatif complexe (Marcoccia, 2002) beaucoup plus proche de celui de la conversation que de celui de la relation éditeur-lecteur. Tout participant peut à sa guise osciller entre différentes formes d'engagement : récepteur des informations contenues dans le document (lecteur), producteur occasionnel ou régulier d'informations. Le format de réception des messages contenus dans un forum est aussi complexe, du simple lecteur au destinataire « adressé », en passant par les destinataires indirects ou privilégiés. Un forum de discussion est de ce point de vue un document interactif (ou interactionnel) au sens strict, c'est-à-dire ne reposant pas sur l'opposition émetteur-récepteur. On verra alors que le rôle d'animateur est nécessaire pour que l'addition des contributions au forum constituent un document cohérent (et non plus seulement un document composite), dans la mesure où l'animateur vient en quelque sorte occuper le rôle d'éditeur, qu'il soit préalable ou ratifié de manière collective et coopérative par les autres participants. Le forum de discussion est un espace numérique qui pose aussi la question de la cohérence du document que constitue l'ensemble de ces messages. On considère qu'un document est une unité autosuffisante représentant une contribution intellectuelle, publié sur un média pour des raisons spécifiques. Un document exhibe ainsi une structure intentionnelle qui définit comment les éléments de son contenu sont organisés selon des axes dans l'objectif d' être interprétés par un lecteur comme témoignage de cet objectif original de publication (Auffret & Bachimont, 1999). Selon Bachimont (1999), un certain nombre de contraintes découlent du support d'inscription et de la forme sémiotique choisie, déterminant l'expression du contenu et ses conditions de réception et d'interprétation. En particulier, deux types de contraintes émergent : une structure logique qui permet la cohérence et l'ordonnancement des éléments de contenus exprimés selon un mode d'expression donné; une structure matérielle imposant une présentation de ces éléments. Les différentes structures internes au document sont mises en place dans un contexte de production, dans le cadre d'une pratique donnée caractérisant un genre du document qui va déterminer les contraintes de production du document et aussi son contexte de réception. Le rôle de l'animateur d'un forum de discussion sera en quelque sorte celui d'un documentaliste, chargé d'assurer la cohérence des messages contenus dans le forum, aussi bien du point de vue de leur contenu (focalisation thématique), que de leur structure (normes de rédaction ou taille des messages par exemple). Ainsi, les spécificités des forums de discussion comme documents numériques sont multiples. Ce sont des documents dynamiques, produits collectivement de manière interactive, et dont la cohérence du contenu et de la forme ne peut être que le résultat d'une gestion collective et coopérative. Les participants à un forum de discussion ont une sorte de responsabilité partagée dans la production d'un document cohérent, dont la réception et l'appropriation par un utilisateur est facilitée. L'animateur d'un forum joue un rôle central pour la gestion de ce document numérique particulier. La manière dont les discussions vont se dérouler dans un forum diffèrent grandement selon que le forum est modéré ou non. Au sens strict, lorsqu'un forum est modéré, les messages qui sont postés sont en fait adressés au modérateur qui choisit de les diffuser dans le forum ou de les exclure de la discussion. Dans ce cas, la modération du forum correspond clairement à une activité d'édition d'un document numérique dont la représentation affichée sur le support d'appropriation sera l' œuvre d'un éditeur particulier garantissant la cohérence du document par la sélection voire le « reformatage » des messages adressés au forum. Les critères de sélection sont souvent assez hétérogènes; ils dépendent tout autant de la charte du forum (par exemple pour la cohérence du contenu) que de la nétiquette en général (Marcoccia, 1998). Ils sont aussi très largement déterminés par la représentation que le modérateur se fait de sa fonction (Berge & Collins, 2000). Quelques travaux ont déjà été consacrés au rôle de modérateur, particulièrement dans des études en CSCL (Computer-Supported Cooperative Learning). Les résultats principaux de ces travaux montrent que le rôle de modérateur se caractérise par une configuration de divers rôles : facilitateur (le modérateur est un médiateur), « manager » (administrer, archiver, gérer les inscriptions), filtre (accepter/rejeter des messages), expert (gérer les Foires-Aux-Questions), éditeur (éditer les textes, assurer leur correction, assurer la production du document numérique final), animateur de la discussion (poser des questions, garder la discussion « dans le fil »), « marchand » (marketer, promouvoir le document), secours (helper), « pompier » (firefighter, rejeter les messages injurieux, protester) (Berge & Collins, 2000, p. 90). L'analyse de certains rôles a été développée : par exemple le rôle d'éditeur a été comparé au rôle d'éditeur dans le champ journalistique, du point de vue des implications techniques, déontologiques ou juridiques (Morris, 1993). D'autres travaux ont été consacrés aux motivations des modérateurs, aux raisons justifiant la modération d'un forum ou au partage des rôles (par exemple Berge & Collins, 1997). Ces travaux apportent des résultats intéressants pour l'analyse du rôle d'animateur. Néanmoins, ces résultats ne permettent pas de comprendre des mécanismes de gestion coopérative et collective de forums, marquée par l'émergence du rôle d'animateur et non pas par l'identification préalable d'un éditeur. Ainsi, on voit bien que le rôle d'animateur n'est qu'une partie du rôle de modérateur et ne se confond pas strictement avec celui d'un éditeur de document produit par une écriture collective. Il convient de noter que les travaux sur les forums modérés ne parlent d'ailleurs que de « modérateur » (e-moderator) alors qu'on réserve le terme d'animateur (host) lorsqu'on traite de forums non modérés. Le rôle de modérateur nous semble en fait beaucoup plus lié à celui d'un éditeur, dont les tâches principales peuvent se résoudre par la simple procédure de sélection des messages. Ce sont seulement les modalités de participation au forum qui font du modérateur un animateur. D'ailleurs, la participation à l'interaction n'est pas une condition nécessaire de la modération d'un forum, qui se peut limiter au travail d'édition a posteriori d'un document résultant d'échanges préalables de messages. Enfin, le fait que le modérateur occupe un rôle préalable met au premier plan les critères organisationnels ou sociaux qui ont présidé à sa nomination (qu'elle soit autoproclamée ou non). Le rôle de modérateur est un rôle institutionnel dont la part interactionnelle (la manière dont le modérateur se comporte) pourra n' être que la conséquence de l'institution. Les messages qui constituent notre corpus sont extraits d'un forum non modéré. Du point de vue de la dynamique des groupes, on peut qualifier ce type de forum de « groupe informel », c'est-à-dire de groupe dont les règles de fonctionnement émergent progressivement des interactions (Maisonneuve, 1986, p. 18). Dans ce cas, l'animateur est un rôle occasionnel 3. Cela signifie que c'est un rôle uniquement interactionnel, qui n'est pris en charge que par l'adoption d'un comportement interactionnel qui sera reconnu par les autres interactants comme permettant d'occuper un rôle particulier, dans le cadre d'une gestion collective et coopérative de l'espace de discussion. De ce point de vue, on dira que le rôle d'animateur correspond à un type d'activités caractérisant une identité située. Peu de travaux ont été consacrés au rôle d'animateur comme identité située ou comme rôle occasionnel. Beaudoin et Velkovska (1999) ont mis au jour le type d'activités propres à certains rôles dans les forums (par exemple les rôles d'habitué et de nouveau) et ont abordé la question de la validation du leader dans un forum, réduit plus ou moins au rôle d'expert (Beaudoin & Velkovska, 1999, p. 165). Si l'on trouve peu de travaux sur le rôle occasionnel d'animateur, on trouve en revanche de nombreux textes prescriptifs, sur l'art d'animer une discussion en ligne. Ainsi, Howard Rheingold (qui est un des promoteurs essentiel de la communauté virtuelle comme activité en ligne) définit le rôle de l'animateur en listant les objectifs suivants (Reinghold, 1998) : susciter des conversations « authentiques », faire naître un sentiment d'appartenance au groupe, générer de la créativité collective, favoriser l'autogestion des conflits, permettre les conditions de la collaboration entre membres du groupe, lutter contre la passivité des participants, accueillir les nouveaux arrivants. On retrouve essentiellement l'aspect socio-affectif de la fonction de leadership, telle qu'elle est habituellement décrite en dynamique des groupes (Maisonneuve, 1968), comme si le rôle d'animateur était uniquement un facteur de cohésion du groupe. Rheingold propose par ailleurs un certain nombre d'analogies pour définir le rôle d'animateur : l'animateur est comme un « hôte », l'organisateur d'une soirée. Il est aussi une autorité, voire un exemple pour les autres membres du groupe. Il est un « cybliothécaire » (cybrarian, un éditeur électronique). On reprendra la question de l'autorité pour montrer l'importance du rôle d'animateur dans la gestion des conflits. Ce type de mode d'emploi du rôle d'animateur nous semble définir plus le profil psychologique de l'animateur que le type d'activités liées à ce rôle. Ainsi, lorsqu'il décrit le Host Behavior, Rheingold insiste sur la civilité, la patience, la précaution, l'humour, l'élégance et autres qualités morales nécessaires à l'animateur. Lorsque des activités sont mentionnées, elles le sont de manière très générale. Dans cet article, nous allons proposer une description des tâches effectuées par le participant qui joue le rôle d'animateur, en montrant que ces comportements discursifs ou interactionnels répondent à trois objectifs fondamentaux. De manière empirique, nous avons observé pendant trois ans (de 1997 à 1999) le forum de discussion fr.rec.boissons.vins, sans prendre part aux discussions. Nous avons régulièrement enregistré des échantillons de 50 ou 100 messages (pour cet article, le corpus est composé du plus ancien et du plus récent échantillon, chacun composé de 50 messages). En étudiant ces messages, on a pu constater la prise en charge progressive du rôle d'animateur par un participant particulier (nous l'appellerons Paul) et de sa transformation en « leader » du forum (nous entendons ici « leader » dans son sens français, si l'on peut se permettre cette terminologie paradoxale). Qui est ce participant ? Adoptant une perspective ethnométhodologique, nous n'avons pas cherché à avoir plus d'information sur Paul que ce qu'en ont les autres participants. La signature de ses messages indique son appartenance professionnelle (Paul envoie ses messages à partir de son ordinateur professionnel). Rien dans cette appartenance ne permet ni de le distinguer des autres participants, ni d'établir son niveau d'expertise dans le domaine du vin : Paul est employé dans une entreprise n'ayant aucun rapport avec la viticulture. Sa capacité à occuper le rôle d'animateur est donc uniquement liée à son profil communicationnel distinctif, qui constitue un ensemble de comportements dont la corrélation nous semble définir le rôle d'animateur. Quels sont ces comportements ? Paul est le participant qui envoie le plus de messages (18 % du corpus total). Ce critère, peu évoqué dans la littérature descriptive ou prescriptive, ramène à une composante simple de l'interaction : « occuper le terrain ». Par ailleurs, on peut considérer que cette activité contribue indirectement à la cohérence du document numérique constitué par la somme des messages adressés au forum. L'animateur occasionnel dirige la discussion. Ce comportement attendu se manifeste par les activités suivantes : il initie de nouvelles séquences, il pose de nouvelles questions et crée de nouveaux fils du discours, comme dans l'exemple 1 4. J'ose ouvrir, et ce n'est pas sans apprehension, un debat sur les associations de vins avec les fromages. Je l'avoue, je suis constamment inquiet quand arrive le moment de mettre le plateau de fromages sur la table. Je suis convaincu qu'il existe des associations « presque » inevitables comme le Sancerre blanc ou le Menetou-Salon blanc avec un morceau de chevre blanc; ou alors un vin jaune avec le comte (surtout si on rajoute des noix); ou un liquoreux avec un bout de roquefort. Cela dit, lors d'un repas, il n'est pas toujours facile de realiser tous ces accords. En effet, certains ne concoivent pas deboucher un vin blanc sec apres le Saint-Estephe ouvert pour le sanglier. Faut-il, de toutes manieres, deboucher une bouteille de Sauternes sur la fourme d'Ambert alors que la bouteille de Minervois est a peine entamee ? D'autres questions me viennent a l'esprit ? Quel type de pain faut-il pour faire ressortir le gout du fromage, en association avec le vin : du pain grille, du pain blanc, aux cereales ? Enfin, y-a-t'il des regles de base concernant tel ou tel type de fromage (pates pressees cuites/non cuites, etc.) Quelles sont vos experiences personnelles ? Cordialement. [signature] L'animateur peut aussi proposer la clôture d'un fil discursif, comme dans l'exemple 2. (extrait d'un long message) : Paul répond à différents messages sur la qualité des vins faits avec du gamay, il donne son opinion et conclut : En conclusion, je dirais que, meme si tous les gouts sont dans la nature, il existe de tres bons vins a base de gamay. La régulation de la conversation peut amener l'animateur à demander à un participant de reformuler son message, comme dans l'exemple 3. John Smith wrote : > > I would highly recommend that you all grab a bottle of the 1995 Domaine > Clavel " La Copa Santos " of Provence. I picked up a bottle for $17.00 US > at a wine store near Columbus Circle. > It carries a big 94 rating from Robert Parker, Jr., and it's the best under > $20 bottle of wine I've > had in a couple of years. > > Truly profound. C'est surement tres bon, si vous le dites. Je souhaiterais simplement que vous nous en parliez mieux. Cordialement. Dans ce message multilingue, l'animateur joue à la fois un rôle de facilitateur (il aide Scott dans son travail de formulation), d'éditeur (il contrôle la forme des messages), et, du coup, joue a posteriori le rôle de filtre que joue a priori un modérateur. On voit bien l'importance qu'ont ces trois activités (facilitateur, éditeur, filtre) pour l'élaboration dynamique et collective d'un document numérique. En effet, ces activités peuvent permettre de garantir la cohérence du contenu et de la forme des messages constituant au fil du temps un document numérique qui peut offrir un contexte de réception satisfaisant. En d'autres termes, l'animateur permet plus ou moins de garder le forum dans un cadre générique (les règles d'un genre) facilitant sa réception. L'animateur s'attache aussi à modérer la conversation en rappelant les règles de conduite acceptables dans un forum de discussion. Le contrôle des conduites est une tâche centrale dans les forums de discussion (Smith, McLaughlin & Osborne, 1997), ce dont témoigne le nombre très important de commentaires métadiscursifs observables dans les forums : de très nombreux messages sont consacrés au commentaire et à l'évaluation de la manière dont d'autres messages ont été rédigés (Marcoccia 2001c). En fait, sans participant rappelant les règles de « savoir-vivre », l'anonymat des participants et l'absence de coprésence physique risquerait de générer des discussions agressives et du coup de parasiter la production collective du document. Deux types de règles de conduites sont rappelées : a) les règles qui doivent être respectées dans le cyberespace en général. Ce sont les règles de la nétiquette, qui conseillent de résister à la tentation d'incendier (flame) autrui, d' être trop agressif ou ironique, par exemple. C'est ce type de règle qui est invoquée dans le message 4 : Zorba wrote : > > Le muscadet, c'est pas du vin, c'est de la piquette. N'est -ce pas les nantais ? C'est *typiquement* le genre de " thread " qui n'a pas sa place ici. b) les règles de conduite spécifiques au groupe de discussion. En général, les groupes de discussion, dès lors qu'ils se constituent en communauté de parole (Marcoccia, 2001a), tendent à développer des normes comportementales particulières, relatives à l'objectif ou à l'idéologie du groupe. Dans le forum sur le vin, les messages à caractère commercial sont interdits. Cette règle est rappelée par l'animateur dans l'exemple 5 : Tim a ecrit : > surement les meilleurs prix du marché >> http :// www. vins-fr. com Puis, il a ajoute : > je suis desole de ne pouvoir satisfaire tout le monde. > N'hesitez pas a communiquer les sites qui offrent mieux. Surement pas ! Ce forum n'est la pour parler de tarifs, mais pour parler de vins. C'est clair, non ? Ces trois types d'activités constituent le profil communicationnel de base d'un animateur. Cela signifie qu'un participant peut occuper le rôle d'animateur en adoptant ce profil, même si rien dans son identité ne le distingue des autres participants. C'est le cas dans ce forum, où aucun autre participant ne vient remettre en cause l'animateur occasionnel. On tentera d'expliquer ce phénomène plus loin. En fait, l'animateur n'est pas mis en concurrence avec d'autres participants prétendant jouer son rôle. Au contraire, un participant le seconde, en renforçant de manière coopérative les activités de l'animateur (par exemple en réitérant un rappel à l'ordre) ou en rappelant sous une forme explicite les règles que l'animateur a invoquées implicitement. Concrètement, ce coanimateur s'est chargé de rédiger une charte, ce qui est une pratique assez courante dans un forum, mais cette charte est apparue dans le forum bien après la prise en charge du rôle d'animateur par Paul, comme si elle venait expliciter et renforcer ce rôle. Certains traits du rôle d'animateur correspondent à sa prescription. Cela signifie, pour ces traits, que le rôle tel qu'il est prescrit est éventuellement connu des participants et qu'il fonctionne alors comme un script à partir duquel on évalue la capacité qu'ont certains participants à se prétendre animateurs. Si l'on s'arrête à ce niveau de description, on observe déjà que le rôle d'animateur est très proche du rôle de « leader ». En termes plus interactionnistes, on dira que le rôle d'animateur permet à celui qui l'occupe de se mettre en position haute dans l'interaction entre les différents participants contribuant à l'écriture collective du document. En effet, « parler » plus que les autres, gérer la discussion (ouvrir et fermer des séquences thématiques), rappeler les règles de conduite sont de manière prototypique des marques de position haute, si l'on admet une théorie taxémique des conversations (Kerbrat-Orecchioni, 1992). Par exemple, le message 3 montre que l'animateur prend la responsabilité de produire un message relativement menaçant pour la face de son destinataire, et donc, se met en position haute. On doit noter que celui qui joue le rôle d'animateur occupe aussi très largement une position d'expert dans le forum. Cette expertise se manifeste de plusieurs manières. Par exemple, il envoie des messages plus longs que les autres et dont le contenu est souvent plus « technique », comme dans l'exemple 6 : (extrait) La surmaturite et le botrytis n'empechent pas (heureusement : -) de vinifier un vin sec. Les Coteaux-du-Loir du domaine de la Belliviere sont aussi vinifies comme cela. Le vin est moelleux quand il y a du sucre residuel. De plus, l'animateur établit son autorité et son expertise lorsqu'il ratifie les réponses et les opinions des autres participants : (extrait) > pourquoi parler de grands vins en oubliant de parler de ce fameux chateau > chalon.ce vin de predilection ne devrait jamais etre dissocie des grands vins >francais.(…) Vous avez raison de dire que ce vin fait partie des plus grands vins francais. (…) Enfin, l'animateur est le participant qui est le plus souvent en position d'adresser des messages contenant des conseils, acte de langage qui met celui qui le produit en position haute : (extrait) Columbo wrote : > Bonjour, > Devant aller passer le mois de mai a Nantes et ne connaissant pas du tout la > region, une ame charitable > pourrait-elle m'indiquer des noms de vins a decouvrir dans cette region. He bien, il y en a pas des caisses : -) Je conseille toutefois, bien qu'il s'agit de grands classiques dans le Muscadet : Le Chateau de la Preuille, a St-Hilaire-de-Loulay. Le Domaine de l'Ecu, au Landreau (ma preference). Le Domaine de la Louvetrie, a la Haye-Fouassiere. Ollivier pere et fils, a Maisdon-sur-Sevre. Le Chateau de Chasseloir, a St-Fiacre-sur-Maine. Pour decouvrir les muscadets, on peut aller faire un tour du cote de la cave de Longchamp, rue Georges-Laffont, a Nantes. La position haute – ou le leadership – liée au rôle d'animateur est ratifiée par les autres participants. Par exemple, l'émetteur d'un message peut indiquer son accord avec l'animateur, dont il reproduira les énoncés : > En simple degustation, entre amis, les côteaux du Layon sont superbes. En > accord avec les mets, je le preconise plutot avec des fromages bleus > (roquefort, fourme, etc), ou en dessert sur des sorbets. Oui, oui ! Comme pour du Sauterne, en apéritif, très frais, et comme le signale Paul, des toasts au Roquefort iront très bien. L'exemple 9 est représentatif d'un processus de gestion coopérative de l'espace de discussion; il signale la manière dont les utilisateurs d'un forum peuvent manifester le fait qu'ils acceptent l'autorité d'un des leurs, en confirmant la qualité de ses opinions et de ses conseils. Quelle est alors la relation entre la reconnaissance d'un participant comme animateur et son acceptation comme leader ? L'animateur devient-il le leader, ou bien est -ce l'inverse ? On pourrait en effet penser que c'est la reconnaissance de l'expertise d'un participant qui lui permettrait d'occuper le rôle d'animateur. Cette hypothèse, qui est sociologiquement valide, voire banale, est infirmée par nos données. En effet, d'autres participants du forum fr.rec.boissons.vins occupent nettement des rôles d'experts, facilement identifiables par les indices discursifs contenus dans leurs messages. Mais aucun de ces experts ne dispute à l'animateur le droit d'occuper son rôle, qui paraît donc être le résultat d'une validation interlocutive et coopérative, à partir de laquelle se construit la confiance collective en la légitimité de l'animateur (Hauch & Lebraty, 1998). On peut sans doute comprendre les raisons de la ratification collective du droit qu'a un participant de jouer le rôle d'animateur et de prendre en même temps le leadership du groupe, si l'on s'intéresse aux conditions d'émergence et de réussite d'une communauté virtuelle. A partir de quel moment un groupe d'individus échangeant des messages se constitue -t-il comme communauté en paroles (Parret et al., 1995) ? En s'appuyant sur différents travaux dans le champ des Computer-Mediated Communication Studies (Baym, 1998; Erickson, 1997; Kollock & Smith, 1996; DuVal Smith, 1999, par exemple) on peut dégager neuf conditions qui doivent être remplies pour qu'un groupe conversationnel en-ligne se constitue en communauté en paroles (Marcoccia, 2001a) : le sentiment d'appartenance des membres (et corrélativement le sentiment d'exclusion); la possibilité pour les membres de construire leurs identités dans la communauté; l'importance de la dimension relationnelle des échanges; l'engagement réciproque des membres; le partage des valeurs et des finalités du groupe; l'émergence d'une histoire commune; la durée des échanges; l'existence de principes de pilotage des comportements des membres du groupe et de mécanismes de résolution de conflit dans le groupe; la réflexivité du groupe. Quels comportements interactionnels vont permettre à ces conditions de se réaliser, en d'autres termes, quels sont les comportements favorisant la constitution d'un groupe de discussion en ligne en communauté en paroles ? On observe qu'une grande partie de ces conditions peuvent être remplies dès lors qu'un animateur va émerger et adopter les comportements communicationnels adaptés. Ainsi, le sentiment d'appartenance au groupe pourra se renforcer si les membres du groupe ont un modèle de comportement fonctionnant comme pôle d'identification. C'est sans aucun doute l'un des rôles de l'animateur. De même, ce sentiment d'appartenance sera d'autant plus fort que la définition du groupe sera homogène, ce à quoi contribue aussi le rôle d'animateur (en cadrant les discussions par exemple). La qualité de la dimension relationnelle des échanges sera aussi protégée par les interventions de l'animateur. Le partage des valeurs et des finalités peut être construit ou renforcé par l'explicitation de l'éthique du groupe, tâche prise en charge par l'animateur. L'émergence d'une histoire commune, d'une mémoire du groupe, est aussi largement favorisée par la prise en charge « technique » par l'animateur d'opérations de synthèses, de reformulations, de bilans. Enfin, DuVal Smith (1999) insiste sur un point important : une communauté virtuelle n'existe que si elle se dote de méthodes de gestion des conflits. En effet, une communauté en ligne se distingue des groupes en face à face par l'ouverture de ses frontières, l'anonymat relatif de ses membres et la possibilité d'une grande diversité sociale et culturelle. Chacun de ses aspects peut favoriser le conflit. On peut alors penser que l'émergence d'un animateur et sa ratification par les autres est un moyen de gérer le conflit, très peu « coûteux » pour les autres participants. En d'autres termes, l'animateur est ratifié collectivement en échange de ses « bons services ». L'acceptation du leadership qui découle de son rôle d'animateur peut être vue comme un salaire symbolique. Comme le montre Donath (1999), l'établissement de la réputation et la reconnaissance par les autres jouent un rôle central dans l'investissement que certains consacrent à animer des communautés en ligne. Cet article montre dans un premier temps la nature particulière d'un forum de discussion en tant que document numérique; c'est un document dynamique produit par un processus d'écriture collective et interactive. On pourrait parler de document numérique conversationnelle ou de conversation comme archive numérique. Nous avons ensuite défini le rôle d'animateur en montrant qu'il ne peut pas être confondu avec le rôle de modérateur. Le rôle d'animateur se constitue essentiellement par l'adoption de comportements communicationnels adaptés à un triple objectif : occuper le terrain, organiser la conversation dans sa forme et son contenu, contrôler le respect des règles de conduite. La prise en charge de ce rôle ne donne pas nécessairement lieu à de la compétition, alors même qu'il assure une position haute à celui qui l'occupe. L'importance de l'animateur dans l'émergence, le renforcement et le maintien d'une communauté virtuelle permet sans doute de comprendre la ratification collective de cette identité située. En particulier, déléguer à un animateur l'autorité des membres du groupe sera un moyen efficace de gérer les conflits. Enfin, ce travail nous a permis de voir en quoi le rôle de l'animateur est tout à fait central dans le processus de génération du document numérique constitué par l'ensemble des contributions au forum. L'animateur intervient dans la forme du document : la taille des contributions, leur « formatage », leur style sont autant de dimensions gérées par l'animateur, ou, au moins gérées de manière coopérative par un collectif animé et dirigé par l'animateur. Le contenu du document, la somme de connaissances consultable et la possibilité de constituer ce document en archive identifiable et consultable dépendront largement de la manière dont l'animateur a réussi à maintenir une focalisation thématique cohérente. Dans le cas d'un forum de discussion, la structure du document correspond en fait à l'organisation hiérarchique des échanges, dont les principes de cohérence et, donc, de lisibilité peuvent être maintenus par l'animateur. Enfin, l'identité même du document dépendra très largement de la manière dont l'animateur aura réussi à organiser et à diriger la gestion coopérative et collective du forum. Ces différentes dimensions du rôle de l'animateur permettent bien de faire d'un espace numérique de discussion un document numérique dynamique et collectif car elles assurent le maintien d'un cadre générique au document, permettant sa consultation et son enrichissement collectif. Cet article pose en fait les bases d'un travail de recherche qui devra être appliqué à d'autres formes de forums pour que ses résultats soit validés. Ainsi, diverses perspectives de recherche pourront être développées, par exemple en essayant de saisir précisément la manière dont l'animation d'un espace numérique de discussion dans une organisation permet la gestion et la mémoire des archives de cette organisation dans une perspective de gestion des connaissances. Quel rôle joue l'animateur d'un espace numérique de discussion dans la constitution d'une mémoire organisationnelle ou communautaire ?
Cet article est consacré à l'émergence du rôle d'animateur dans un forum de discussion usenet non modéré. Nous définirons dans un premier temps les spécificités d'un forum de discussion en tant que document numérique. Puis, à partir de l'analyse conversationnelle d'un forum de discussion francophone non modéré, nous décrirons la manière dont un participant de forum peut occuper le rôle d'animateur occasionnel en adoptant un comportement interactionnel adapté. Nous verrons alors que ce rôle permet d'assurer la cohérence de l'espace numérique de discussion et aussi d'occuper le leadership dans cet espace, car il repose sur un certains nombre d'actes de langage qui sont des marqueurs de position haute dans la conversation.
sciencesInfo_02-0464784_tei_DN_053_0011.tei.xml
termith-392-communication
Que savons -nous voir et qu'oublions -nous de regarder ? Telle est peut-être, à l'ère des écrans, la question politique essentielle que posent les nouvelles écritures et les nouvelles lectures 1. Car en deçà de ce que les hommes décident et de ce pour quoi ils sont prêts à se battre réside leur capacité de ne pas être aveugle à ce qui est en jeu. Mais répondre à cette question est fort complexe, car la réflexion engage à la fois la réalité de ce qui se déplace effectivement dans les économies du visible, les discours et imaginaires qui accompagnent ces phénomènes, et les postures de la recherche elle -même, qui ne peut s'abstraire de cette conjoncture générale de la visibilité. Entreprendre d'observer vraiment l'écrit d'écran, dans ses formes ordinaires, celles qui peuplent notre société, reste, dans l'institution académique française (lettres, sciences humaines, sciences de l'ingénieur) une décision à prendre, même si les travaux se développent dans ce sens. Ici comme ailleurs, la vigilance est une question de regard, et même de focale. Il faudrait voir net tout en prenant un recul. Or les discours dont nous disposons suggèrent une attitude inverse, qui consiste à traverser les objets sans les voir. C'est l'effet d'un jeu très singulier qui s'est établi entre l'innovation technique et son commentaire médiatique : l'observation des écrans et de leur texte est précédée par sa propre récriture dans le discours des médias, de la publicité et des best-sellers. Vaste Hysteron proteron qui envahit aujourd'hui notre culture, cette saga techniciste pousse à regarder au-delà des écrans, vers la prophétie sociale et les utopies culturelles. On peut donner comme exemple de la première attitude la somme de Manuel Castells, L'ère de l'information [CAS 97-99] qui règle la question de la société et de ses ordres en imposant une équivalence entre réseau technique et formes du social 2. La seconde est bien représentée par les annonces de Pierre Lévy, dont le Cyberculture [LEV 97] prévoit l'émergence d'une nouvelle forme d'universel par la vertu des flux informationnels. Ni l'une ni l'autre de ces mégathéories du futur ne procèdent à quelque arrêt sur l'image de l'écran 3. Il est même nécessaire à leur prospective que le regard ne s'attarde pas sur ces objets. Dans une telle rhétorique, ceux -ci sont inéluctablement traversés et dissous par une matière (une immatière ?) aussi fluide qu'irrésistible. Paradoxal effet de son omniprésence, l'écran menace aujourd'hui de devenir un objet invisible. Ce qu'il faudrait, au contraire, c'est jeter sur les nouveaux écrits le regard à la fois attentif et large que les historiens de l'écriture et du livre portent sur le codex, la page ou les incunables, pour inscrire l'écrit d'écran dans la continuité, certes décalée, de cette création plurimillénaire des espaces du texte et des disciplines de sa lecture. Néanmoins, le régime discursif qui vient d' être évoqué ne saurait être simplement balayé par une décision de rupture épistémologique. La réalité de ces illusions est assez opérante pour qu'il soit nécessaire d'en tenir le plus grand compte. Le « discours d'accompagnement » est ici partie prenante dans l'objet, car le multimédia, internet et les cédéroms ont été configurés matériellement par la mise en œuvre de programmes argumentatifs et narratifs, puis diffusés et vulgarisés à partir d'un système intertextuel qui parcourt tout l'espace médiatique et procède de ses pouvoirs. La phénoménologie des objets (pour leurs inventeurs comme pour leurs promoteurs et leurs utilisateurs) est donc orientée par une machine rhétorique, liée à la sociologie des institutions éditoriales et médiatiques et, plus largement, aux restructurations que subissent les industries de l'information et de la culture en même temps que le discours de légitimation politique 4. C'est pourquoi, pour voir ce qui se déplace dans et par les écrans, il faut se situer à la croisée de deux perspectives : celle des idéologies et imaginaires que ce grand projet véhicule et celle, autre, des objets et pratiques 5. L'analyse procède d'une sémiotique visuelle, mais aussi d'une « métasémiotique » de la dénomination du visible : elle doit considérer en même temps la virulence des modèles et l'effectivité des concrétisations, même si la première masque souvent la seconde. Car la langue avec laquelle nous décrivons les objets nouveaux participe de la production de leur visibilité et de leur invisibilité. Critiquer les logiques d'un interdiscours et élaborer des outils pour décrire les objets sont les deux composantes d'un même effort de lucidité. C'est cette attitude épistémologique, relevant d'une forme d'équilibrisme périlleux, que je voudrais ici situer et décrire, sur un exemple limité 6, en soumettant à critique le motif même de l'imaginaire visuel, celui qui veut qu'aujourd'hui les régimes du texte soient devenus intuitifs et transparents. Parmi les nombreux motifs sur lesquels repose le discours thaumaturgique de la transparence informationnelle 7, certains sont particulièrement porteurs d'une idéologie du signe. Les pseudo-concepts qui structurent ce discours désignent bien une certaine nouveauté de la question médiatique, mais ils le font d'une façon qui efface la question au lieu de l'identifier 8. J'examinerai ici successivement trois motifs de cette idéologie, celui de l'intégration « multimédia », celui de la non-linéarité de « l'hypertexte », et celui de l'intuitivité du « dialogue homme-machine » (chaque motif figural s'accompagnant, comme on le voit, d'un double en terminologie technique). Assistons -nous à une intégration des médias dans le multimédia ? Passons -nous du texte linéaire à l'hypertexte non linéaire ? Rendue conviviale par l'informatique user friendly 9 l'information devient-elle intuitive ? Ces trois catégories dessinent une idéologie du texte qui constitue, pour l'analyse réelle des propriétés du texte informatisé, un obstacle épistémologique cohérent et puissant, qu'il est assez aisé de parcourir, depuis l'extension du modèle médiatique jusqu' à la négation de l'épaisseur du signe. Offrant un double imaginaire de la théorie qu'elles escamotent, ces pseudo-notions, que je rassemble ici en vertu de leur complémentarité, opèrent respectivement à trois niveaux, du plus général au plus particulier : le processus médiatique dans son ensemble (« intégré »), l'organisation des messages (« non linéaire ») et le matériel sémiotique (« intuitif »). Il s'agit de trois annonces de thaumaturgie médiologique, qui prétendent caractériser un régime médiatique radicalement nouveau. Ces notions appartiennent à la logique du déterminisme technique, un tour discursif qui ne cesse de se reproduire par-delà les critiques et les précautions, parce qu'il s'inscrit dans la langue même : elles permettent l'extension des propriétés du dispositif matériel à l'ensemble des réalités culturelles. La révolution médiologique annoncée autoriserait ainsi un triple affranchissement : l'intégration des messages en un même code numérique nous libérerait de la dispersion de nos supports et du désordre de nos langages; la possibilité de commuter sans cesse l'information mettrait fin aux formes closes d'écriture-lecture, au bénéfice d'une navigation ouverte sur toutes les routes de la pensée; la mutation des codes abstraits en représentations spontanément manipulables nous économiserait l'effort du déchiffrage, de l'apprentissage et de la distanciation. Au fil de cette fable récurrente, la facilité culturelle est censée s'étendre sans frein de l'industrie des dispositifs aux logiques de la communication, puis du procès de communication lui -même aux (dés)ordres de la société. Les médias étant intégrés, proliférants et mouvants, la culture deviendrait homogène, infinie et distribuée, et la société transparente, ouverte et horizontale. Tout l'efficace de cette construction discursive, portée par un vocabulaire banalisé par sa reprise incessante, repose sur la séduction d'une telle annonce. On voit bien pourquoi cet imaginaire puissant, incarné dans le pouvoir d'une sous-langue en cours de socialisation, doit susciter la méfiance des théoriciens du texte et de la communication 10. Car toute la vertu fascinante de cette machine métonymique tient justement à un bénéfice aussi puissant que suspect : cette bonne nouvelle ne peint un paradis culturel qu'au prix de l'effacement des épaisseurs, des processus et des productions par lesquels la culture s'accomplit. C'est même là son caractère le plus mystificateur et le plus politique, car l'oubli des médiations et des pouvoirs, loin de faire effectivement disparaître ces derniers, conduit immanquablement à les renforcer, en leur permettant d'agir dans l'invisibilité. Ces annonces de transparence masquent la réalité d'une mise en ordre des pratiques culturelles effectives, par certains acteurs et selon certaines logiques. C'est ce que j'essaierai de montrer ici, dans une enquête qui me conduira d'une idéologie de la médiation à une idéologie du signe, en passant par une idéologie du texte. Mais, comme on va le voir, tout au long de l'analyse, les jeux intersémiotiques seront incessants et structurants, entre ce que les dispositifs donnent à voir et ce qu'ils masquent, aussi bien qu'entre ce qui ressortit à leur sémiotique propre et ce qui relève des modes de leur dénomination et de leur représentation. Le motif de l'intégration offre à toute la logique ici discutée ses conditions premières, car il étend la dimension technique du média à l'ensemble de ses propriétés culturelles, dont il masque ainsi la complexité propre. Cela procède d'une extension des propriétés fonctionnelles du dispositif médiatique à l'espace social de l'expression et de l'interprétation. Les progrès réalisés dans la numérisation des messages les plus divers (qui fournissent à ce discours ses bases tangibles) offrent un nouvel habit au vieux rêve d'une communication globale, exhaustive, naturelle. Ainsi la diversité des formes culturelles passées se voit rejetée dans la préhistoire d'un âge d'optimisation, celui du design informationnel. Reprenons cela méthodiquement. Du point de vue purement technique, le concept d'intégration opère comme une procédure d'uniformisation de traitements jusque -là différenciés. Certaines sciences de l'ingénieur, fondées sur l'analyse mathématique des objets physiques, permettent de réduire – avec des pertes et des métamorphoses, mais peu sensibles pour l'appareil perceptif humain –, un ensemble très vaste de phénomènes physiques à une sorte d'équivalent logique et chiffré. Il est exact que cette intégration numérique fabrique un signal exprimé dans un « code » (le terme est approximatif) unique, homogène et binaire, que les machines peuvent manipuler grâce à la gestion des flux énergétiques. C'est là, à coup sûr, une invention technique importante. Au prix de ces transformations contrôlées, passant par le nombre binaire et la logique, une image, un son, une suite de caractères alphabétiques ou le modèle géométrique d'un corps en trois dimensions peuvent être réduits à une suite d'impulsions. Cela permet d'uniformiser l'appareil de transport, de stockage et de matérialisation de différents messages, que nous devions jusque -là trouver sur des supports différents, impliquant chacun des modalités de réalisation, de conservation et de diffusion différentes. Cette concentration des messages les plus divers sur un support technique unique est bien un changement essentiel : elle permet, enrichit ou facilite l'articulation de diverses formes de communication, en même temps qu'elle rend accessible sur un support et en un lieu uniques une gamme très étendue de productions jusque -là dispersées. Mais c'est une facilité dangereuse (et malheureusement fréquente) d'aller plus loin, et d'étendre l'idée d'intégration à l'activité poétique et interprétative. Il s'agit là d'un pur fantasme techniciste qui comporte de nombreux dangers pour la dynamique des cultures. Le danger premier est celui de tenir l'homogénéité pour l'idéal de la communication 11, de se représenter désormais le texte, et même son interprétation, comme une machine constituée de sous-systèmes coordonnés pour encoder et décoder un contenu dûment hiérarchisé. Il y aurait donc un contenu unique, logiquement formulable, que pourrait mettre en œuvre une gamme « multimodale » de signes plus ou moins interchangeables, gérés comme autant de sous-systèmes harmonisés par une « convergence sémantique ». Le danger d'une telle simplification des phénomènes de sens (puissamment encouragée par le financement de programmes « d'industrialisation de la connaissance ») renvoie à une seconde erreur, qui est d'omettre l'importance des médiations par lesquelles s'opèrent l'expression et l'interprétation. On risque ainsi de ne pas distinguer les propriétés fonctionnelles des supports, les traditions d'organisation des signes et les formes d'inscription des sujets, tant dans la production de ces objets que dans leur interprétation et leur mise en diffusion sociale. De cette complexe construction, seul le niveau technique fait l'objet d'une intégration au sens indiqué plus haut. Etendu à la communication elle -même, le mythe de l'intégration comporte, sous des dehors harmonieux, la menace d'une volonté d'écraser ce processus délicat. Il s'agit d'une forme de violence, dont le critère serait la mise en cohérence et même, selon certaines préconisations, « l'interopérabilité » (terme proprement barbare) des dispositifs techniques, des pratiques individuelles et des normes sociales. Mais ce qui doit retenir avant tout l'attention de ceux qui réfléchissent sur les formes actuelles du texte, ce qui est producteur d'invisibilité, c'est l'effacement de la difficulté sémiotique considérable que constitue tout assemblage médiatique hétéroclite. Il ne faut pas confondre le fait qu'en tant que dispositifs, les médias informatisés soient capables de stocker et transmettre des éléments de message avec les conditions, tout autres, dans lesquelles des individus et des groupes peuvent reconnaître ces objets comme des signes et les interpréter. Les pouvoirs techniques de l'intégration, fondés sur le traitement uniformisant des objets, ne dispensent pas de l'effort sémiotique, éditorial et rhétorique de textualisation, mais au contraire le réclament plus fortement. En effet, dire que les messages sont intégrés à un support technique unique, c'est élever considérablement la charge de la lisibilité, de l'intelligibilité et de la pertinence, en contraignant les énonciateurs et les destinataires des messages à mobiliser ensemble des signes et des formes textuelles extrêmement divers, ayant chacun ses codes, ses traditions et son historicité 12. Face au modèle intégrateur, qui présenterait la communication comme une activité logique permettant d'implémenter des idées sous des formes interchangeables, il importe de souligner la dimension constituante de la distance, distance entre le support et les signes qu'il véhicule, distance entre les types de signes, distance entre l'exhibition de ces signes et les conditions sociales de leur interprétation. Cet ensemble de distances cumulées qui fait que l'écriture, fût-elle devenue « informatique », reste essentiellement une « déraison graphique » impossible à contenir dans un cadre logiquement contrôlé [CHR 96 ], [CHR 00 ]. Les machines à numériser transportent et affichent, mais ce qu'elles transportent doit être écrit, écrit pour être lu, écrit par anticipation d'un pouvoir-lire, et donc inscrit dans la longue, complexe et mystérieuse tradition de nos disciplines d'interprétation. Traité par les filtres mathématiques et transmis par les protocoles de compression d'image, le code gestuel et le bestiaire de la basilique de Vézelay demeurent aussi inaccessibles à l'internaute curieux qu'au visiteur dépourvu de guide. En effet l'un et l'autre ignorent les récits bibliques que cette codification condensée a pour fonction de rappeler, et que les pèlerins entendaient répéter dans les exempla des sermons, et ceci, de la même façon que la « coquille Saint-Jacques » qu'ils portaient au cou a cessé d'évoquer pour nous le pèlerinage de Compostelle. Mais, objectera -t-on, il y a fort peu de chances que ces codes intersémiotiques soient aujourd'hui mobilisés par les créateurs de l'écriture multimédia : ceux -ci cherchent seulement la lisibilité des « métaphores » les plus évidentes, les plus « intuitives », du Visual Basic. Cette remarque permet de préciser la dimension politique de l'analyse. Le mythe de l'intégration possède une certaine virulence pratique. Il conduit à faire certains choix et à en écarter d'autres. Ou plus exactement, les acteurs qui ont actuellement le pouvoir de configurer les écritures de l'écran ont un certain usage, limité, des ressources sémiotiques. Très exactement celui qui correspond à leur idéologie de designers, une idéologie que caractérisent essentiellement un vif espoir de rationaliser la communication et une sous-estimation de la complexité des processus sémiotiques et éditoriaux 13. C'est dans cet espace entre un idéal d'intégration absolue et la réalité de ce qui résiste (dans les signes, dans leur histoire, dans leur socialisation, dans la connaissance qu'en ont les acteurs) que réside l'aporie du geste intégrateur. Pour le montrer, je me bornerai ici au commentaire d'un écran particulièrement révélateur. Il s'agit de l'écran principal du cédérom Dictionnaire Hachette multimédia, dans sa première version commercialisée, et plus particulièrement d'une des zones dont est composé cet espace textuel. L'écran de ce dictionnaire encyclopédique (que je reproduis ici dans la version commentée qu'en donne le guide d'utilisation du cédérom) est structuré, selon le principe des partitions d'écrans [COH 96 ], par un quadrillage découpant quatre zones principales désignées comme « fenêtre alphabétique », « fenêtre documentaire », « fenêtre média » et « fenêtre thématique ». L'hétérogénéité évidente de ces désignations, qui fait penser à l'encyclopédie chinoise inventée par Borges 14, montre bien d'emblée la difficulté d'organisation d'un média multiple. Mais c'est la zone située en bas à droite (nommée « fenêtre thématique ») qui nous offre un exemple remarquable de la complexité que masque l'idée faussement simple d'intégration 15. Cet espace rectangulaire, baptisé « fenêtre » selon une métaphore reprise des théoriciens du Quattrocento, offre un espace textuel complexe, qu'on peut définir en première approximation comme la représentation en graphe arborescent d'un thesaurus structuré (c'est-à-dire d'un lexique normalisé et hiérarchisé). Un tel document donne l'exemple idéal du désir d'intégration multimédia concrétisé dans un document éditorial commercialisé. On y trouve en effet, condensés sur une surface réduite, tous les sortilèges d'une communication intégrée : conjugaison des types de signes (forme liste, texte, image, cadre, tableau); conjonction de supports de nature différente, du dictionnaire à l'album photographique; accès illimité, par arborescence, à tout un « hypertexte » volumineux; pilotage par le lecteur d'un texte qui semble tourner autour de lui. On ne peut imaginer meilleure actualisation de ce que Bernard Lamizet nomme les « structures de la communication multimédiatée » et de leurs processus opératoires, qui, selon lui, « rendent possible l'intégration (je souligne, YJ) des informations dans des stratégies de multimédiatisation » [LAM 98 ]. Comment expliquer dès lors que les utilisateurs échouent dans la manipulation de cette « interface », dont la logique impeccable et la décoration attrayante devraient assurer un « dialogue homme-machine » convivial ? Pourtant, cet échec est patent : ils essaient de déplacer la barre, cliquent en vain sur le contenu de cette barre et, n'obtenant aucun résultat, concluent plus d'une fois à un dysfonctionnement du logiciel. Un examen plus attentif de l'hétérogénéité des signes, et surtout des conventions globales de mise en texte, permet de comprendre pourquoi ce message ne saurait être « intégré » par un lecteur contemporain, au sens métaphorique et intellectuel du terme. Dans le processus de production, l'ingénierie linguistique, le génie logiciel et le design graphique sont certes coordonnés en tant que composantes d'une « conduite de projet » : dans le cadre d'une division du travail inflexible, l'informaticien met en œuvre un outil d'accès à une base de données, le linguiste structure un thesaurus, et le graphiste choisit un habillage de l'écran conforme aux modes dominantes (en l'occurrence la texture d'un fond de pierre destinée à éviter la platitude d'un écran blanc et à « faire multimédia »). En réalité, cette pratique, typique d'un certain type d'organisation de la production multimédia [SEG 99 ], [LEL 97 ], convoque, sur le mode d'un ensemble d'évidences non questionnées, plusieurs conventions textuelles : celle du graphe arborescent, celle de l'encadrement, celle de l'imitation de surfaces architecturales, etc. Ce qui pose problème, c'est la superposition d'une structure logicielle avec ce matériel sémiotique qui, sous ses dehors de simplicité, présente une complexité considérable. Dépourvu de tout habillage multimédia, le graphe arborescent pourrait offrir une excellente lisibilité documentaire : c'est une variante du tableau hiérarchisé, dont L'Encyclopédie donne le modèle emblématique avec son « Système figuré des connoissances humaines ». Présenté en graphe ou en accolade, ce texte structuré, issu d'une combinaison des formes liste et tableau, offre les propriétés cognitives bien décrites par Jack Goody dans une analyse célèbre (du moins chez les anthropologues et les sémioticiens de l'écrit) [GOO 79 ]. C'est bien cette structure qui constitue le réel « moteur textuel » de l'encyclopédie, puisque l'utilisateur devrait pouvoir sélectionner les « items » en cliquant sur eux, et modifier ainsi la partie affichée du graphe : pour cela, il devrait effectuer un geste auquel il ne pense pas, cliquer sur un mot non encadré, et lire le tableau selon une logique qui ne se présente pas à lui, une structure verticale. Il ne le fait pas. C'est que le graphe arborescent est ici superposé avec d'autres codes, visuellement plus prégnants, avec lesquels il est strictement incompatible. Pour le sémioticien, ces formes s'inscrivent dans une histoire, et elles ne sont pas difficiles à décrire. L'une provient de l'épigraphie antique, elle régit l'ordre du texte dans l'écriture gravée sur la pierre, telle qu'elle n'a cessé de se perpétuer sur les monuments républicains, et dans les cimetières : le texte y est adhérent à son support, ce qui exclut tout déplacement des mots (exigé en réalité dans le cas présent par la consultation). La seconde se rattache à la typographie de l'impression moderne : elle codifie l'usage des encadrements du texte, qui veut qu'un ensemble textuel inscrit à l'intérieur d'un cadre constitue un tout cohérent et indissociable (logique totalement brisée par la structure verticale de l'arborescence). La troisième relève de l'infographie contemporaine en quête de réalité simulée, qui fournit, grâce au jeu des ombres en trompe-l'œil, un semblant de relief à la platitude de l'écran : cette dernière tradition graphique suggère que la barre centrale se trouve devant le fond (ce qui détourne d'agir en priorité sur les éléments qui lui sont extérieurs). C'est sur ces trois codes sémio-pragmatiques, à certains égards invisibles, mais orientant puissamment les conditions même de notre lecture, que le créateur des outils logiciels est venu superposer un « art du tableau » qui, pour avoir été vanté depuis Condorcet, semblait s'imposer dans la seule évidence de la science contemporaine. Mais, quelle que soit la prétention du multimédia à être une nouvelle écriture, la forme logique ne peut effacer le fond symbolique, le projet informationnel n'empêche pas la lecture de reconvoquer ces traditions emboîtées. Cette analyse sémio-historique, même très grossière, éclaire aisément les difficultés de manipulation d'un texte proprement désintégré par une « intégration » précipitée dans son principe même. On aura noté au passage que ces codes ne correspondent pas seulement à des conventions différentes, liées à des histoires différentes, et renvoyant à des temporalités différentes (antique, classique, moderne, contemporaine) : la difficulté de leur articulation provient d'abord de ce qu'ils ont été développés chacun sur un support différent et dans des contextes sociaux différents, que le « multimédia » entend intégrer en un dispositif « dématérialisé ». Ce qui peut facilement se résumer par le schéma suivant. Cet exemple, qui nous a servi à déconstruire l'apparente évidence d'une intégration des « médias » en un « multimédia », nous permet de comprendre pourquoi les métaphores de la non-linéarité (et celles de la « navigation » et de « l'hyperlien » qui lui sont associées) ne peuvent rendre compte réellement de ce qui se joue dans les nouveaux ordres du texte actuellement en constitution. Car ces motifs, qui regardent l'information comme une combinatoire abstraite et décorrélée de la question du visible, tiennent totalement à l'écart la subtile rhétorique d'articulation du texte que nous venons de parcourir. Il est important de comprendre ce que la métaphore de l'hypertexte non linéaire donne à voir et ce qu'elle masque. J'adresserai une double critique à la rhétorique du non linéaire 16 : elle ne permet pas d'observer la structure des textes d'écran, d'une part, elle est porteuse d'autre part d'une conception illusoire de la liberté culturelle. Il suffit, me semble -t-il, de poursuivre l'enquête sémio-historique qui vient d' être amorcée pour marquer le statut et les limites du motif de la non-linéarité, en le situant dans une conjoncture idéologique. De cette analyse complexe, j'indiquerai ici seulement quelques composantes possibles, qu'il n'est pas loisible ici de développer. L'idée de non-linéarité s'inscrit d'abord dans un certain type de coloration imaginaire, dans une sorte de sémiotique figurale des valeurs culturelles, qui décrit notre moment historique comme hostile à la ligne droite, à la rigueur, à la continuité, et amateur de bifurcations, de transgressions et de ruptures. L'omniprésence de ce genre de métaphores dans la vie quotidienne [LAK 85] présente à coup sûr des caractères anthropologiques permanents, mais elle se réactualise sans cesse dans des formations sémio-idéologiques différentes. Notre moment idéologique n'est sans doute pas celui de la rectitude, mais celui de la dissémination, des carrefours et des tangentes et, par extension, d'une « navigation » qui se pense comme parcours de toutes les traverses. Dans ce contexte, le modèle de la linéarité, qui s'incarne particulièrement dans les disciplines les plus scolaires du texte, représente une figure abhorrée, représentative du « logocentrisme » occidental (cette réduction de toute forme d'expression à une variante de la parole) et plus largement de la soumission. La ligne, en culture alphabétique, traîne avec elle tout un imaginaire du texte, dans lequel le lecteur est censé suivre la maîtrise de l'auteur, au fil d'un texte assimilé à une parole souveraine. D'où les figures, opposées, de la dissémination (Derrida), du rhizome (Deleuze), de la bifurcation (Serres). Il n'est pas question de nier ici cette critique nécessaire, ni que les expériences d'écriture hypertextuelle ou combinatoire ne soient à la recherche de quelque chose comme une liberté nouvelle, rendant la main au lecteur contre la mainmise de l'auteur. Mais ce contre-modèle, baptisé non linéaire, n'est-il pas contaminé par l'idéologie même qu'il combat ? Aucun texte n'est en effet décrit par le fait qu'il serait linéaire, à commencer par celui de l'imprimé, qui se déploie dans l'espace de la page et dans l'épaisseur de l'objet 17. Ce qui est déjà vrai du livre classique devient patent avec la page de presse et l'encyclopédie. Ce qui peut être dit linéaire, par approximation, c'est seulement l'abstraction par laquelle on réduit un texte à l'équivalent d'une parole : ce que matérialise par exemple la lecture d'un poème enregistré par son auteur, ou celle d'un journal radiophonique préalablement écrit 18. Encore cette parole n'est elle pas linéaire mais plutôt successive. Attribuer une linéarité à « l'écrit papier », c'est donc projeter dans l'espace écrit la temporalité de l'oral, selon une métaphore elle aussi constitutive de notre sémiotique perceptive la plus stéréotypée : le temps serait une ligne orientée de gauche à droite (la « flèche » du temps), ce que matérialisent par exemple, dans la sémiotique ordinaire du magnétoscope ou des « navigateurs », les flèches à gauche (retour) et à droite (suite). L'idée, apparemment simple, de linéarité du livre est donc le produit d'une intersémiotique complexe, consistant d'abord en l'extraction d'une partie de sa matière écrite, muée en parole et donc référée à la temporalité de l'expression orale, puis repliée métaphoriquement sur une certaine représentation graphique, vectorielle, du temps. Le paradoxe, c'est que la proclamation d'une non-linéarité de « l'hypertexte » ne sort pas de cette intersémiotique réductrice, qu'elle multiplie au contraire à l'infini. Car dans ce cadre idéologique, la rhétorique de la ligne se trouve être remplacée par le graphe arborescent (une forme sémiotique que nous avons déjà rencontrée) qui n'en est pas la négation mais l'extension. Ici opère une curieuse subtilisation intersémiotique, inaperçue de beaucoup de chercheurs : celle qui remplace l'espace visuel de l'écran par sa représentation méta-iconique sous la forme d'un graphe et son commentaire métaphorique. Loin d' être livré à la richesse du visible, le texte est toujours réduit à une ligne logique, devenue bifurquante et reproduite indéfiniment en jeu de miroirs; de son côté, la théorie de la lecture, coupée de toute saisie sensible du visible, est réduite à la modélisation d'une déambulation logique entre les liens et les nœuds, bref, à un labyrinthe géométrisé. Si nous n'y prenons garde, notre regard, soustrait à l'analyse de l'espace visible des écrans, est capturé par une image seconde et anamorphosée, qui remplace l'acte de lecture par le parcours supposé d'un graphe purement logique. L'hypertexte, c'est la ligne déployée, répétée, emmêlée à l'envi. Et c'est, par là même, l'écran escamoté. La complexité logique et le nombre des embranchements tiennent lieu d'interrogation sur les formes du texte, le pouvoir de ses signes organisateurs, les logiques de son appropriation. Il n'est pas étonnant que dans cet univers d'explosion combinatoire de la métaphore linéaire, les théories de l'hypertexte s'avèrent, à l'analyse, des déclinaisons à l'infini de la rhétorique la plus classique, comme le montre le travail de lecture critique méthodique des théoriciens anglo-saxons mené par Katell Briatte [BRI 97 ]. Qu'est -ce qui est rendu invisible par le motif de la complexité hypertextuelle ? Deux choses essentielles et liées entre elles : la mise en place de codes de l'organisation textuelle et de formes de l'espace écrit, d'une part; le sens de notre relation aux objets lus et des engagements pratiques qu'ils exigent de nous, d'autre part. La facilité de la combinatoire textuelle, représentée par la figure du graphe, nous détourne, si nous n'en prenons garde, de mener de tels examens. C'est le cas si, par exemple, s'agissant d'éditions savantes de textes littéraires, nous nous représentons l'hypertexte comme une actualisation de tous les possibles interprétatifs 19 : l'hypertexte, loin d' être seulement un support du texte, serait devenu une sorte d'objet-monde miraculeux, en lui -même herméneutique, qu'une sorte de providence technologique aurait créé comme l'incarnation même de l'acte de lecture. Croire à cela détourne plus d'un littéraire gagné à la technologie d'interroger les modes nouveaux de la mise en visibilité du texte ([ SOU 98 ], [SOU 99 ]) et la figure du lecteur auquel ce texte est désormais destiné. Cette mise en ordre concrète du texte, que le graphe hypertextuel avait recouvert, se met en place sous la forme apparente de « l'interface intuitive ». Les analyses qui précèdent, reconstruisant des motifs idéologiques très généraux, permettent à présent d'aborder de front la question du mode d'existence visuelle des signes dans le texte multimédiatique. Plutôt que de continuer l'examen des éditions savantes, c'est à un objet plus trivial, le matériel textuel le plus ordinaire de la lecture multimédia, que je souhaite m'intéresser pour poser cette question de ce qui est visible (trop visible, invisible), dans les économies de l'écran réel. Pour cela, je me situerai au point aveugle des motifs précédents, celui où se rencontrent l'espace du texte, l'énonciation et la socialisation des formes et l'acte de lecture. Je privilégie ces signes ordinaires, à la fois parce que l'étendue de leurs effets est considérable (ils concernent tous les utilisateurs d'ordinateurs) et parce que les logiques à l' œuvre dans cet espace banalisé sont particulièrement visibles et symptomatiques de postures culturelles nouvelles. Il s'agira donc dans les lignes qui suivent (qui ne font qu'esquisser un programme de réflexion critique et politique) du cadre de nos écrans, de la corbeille de nos « bureaux », des flèches de nos « navigateurs » et des boutons de nos « applications » : comment avoir une lecture de cette prolifération incessante de signes omniprésents, prétendant désormais au statut de formes intuitives de la culture ? Je voudrais d'abord réfléchir sur le statut et la nature de ces signes, pour souligner à partir de là quelques enjeux politiques liés à l'appropriation et à la configuration des objets et logiques culturels. Il s'agit en somme de donner à regarder quelques évidences invisibles du texte informatisé, qui s'organisent autour de la conviction qu'il faudrait, pour respecter l'usager, rendre intuitive la relation au texte, à ses signes et, par là, aux savoirs. Sans contester absolument ce souci – qui me semble avoir une validité variable suivant les contextes d'emploi de l'écrit –, je voudrais dissiper l'illusion de transparence, de naturalité et de démocratie qui accompagnent souvent cet effort d'ergonomie sémiotique. Mon point de vue sera ici politique, ce qui ne suppose aucune disqualification des approches, actuellement dominantes, qui se centrent sur l'efficacité cognitive de ces dispositifs. Il faut avant tout « raison garder » et analyser cette production sémiotique proliférante sans exagérer sa nouveauté. Plus exactement, le mode de manifestation, d'usage et de légitimation de ces signes est plus nouveau que leur mode de constitution et de signification. Les signes qui se banalisent sur les écrans consistent en indicateurs globaux de la forme-texte aussi bien qu'en un matériel visuel plus diffus et local entrant dans la composition des éléments textuels. La production de ces « signes intuitifs » dont se trouve constellée l'écriture informatique, relève d'un processus pragmatique et peu organisé mêlant beaucoup de recyclage à un peu de création. Le matériel iconique des ordinateurs ne présente aucune homogénéité sémiotique et n'obéit à aucun principe culturel. Comme on l'a vu plus haut, on y fait flèche… de tout signe. Ce pragmatisme sémiotique, orienté vers le souci d'une efficience, est sans doute la donnée première de cet univers. On pourrait en dire de l'écriture multimédia ce que Feyerabend dit de la méthode scientifique : Everything goes. Il ne s'agit pas pour autant d'une production erratique ou aléatoire, puisque les choix qui s'instituent, puis s'imposent puissamment par la normalisation, expriment le paysage visuel des acteurs dominants au sein du processus de design : ils constituent en quelque sorte le musée imaginaire de la communauté informaticienne mondialisée et de ses clients solvables. Il faut garder à l'esprit que cette « forêt de symboles » pourrait avoir une tout autre forme et que les choix signifient nécessairement des promotions et des refoulements. Cette production a trouvé évidemment un terrain favorable dans l'habitude pluriséculaire manifestée par la culture américaine du recyclage, du remake et de la réappropriation culturelles, art dans lequel les industries culturelles américaines se sont illustrées, depuis la confection des faux jardins chinois jusqu'aux réécritures dévastatrices des grandes œuvres européennes, en passant par les chapelles romanes exportées et les jocondes en cire [ECO 85 ]. A certains égards, cette production de fenêtres, de barres et de pictogrammes continue par d'autres moyens l'industrie culturelle hollywoodienne, qui sait si bien capturer un héritage puis exporter sa métamorphose. Même si, comme on le verra plus loin, ce recyclage produit aujourd'hui dans les médias informatisés des effets profondément différents de ceux qu'il a produits dans les salles de cinéma et sur les panneaux publicitaires. Une sémiotique de l'intuitif est une production régie par l'efficacité d'un pouvoir de résurgence, et non par la cohérence d'un mode de constitution des signes. C'est vrai, tant en ce qui concerne l'organisation de l'espace du texte que pour ce qui touche à ce qu'on pourrait nommer le lexique visuel des écrans : l'écriture multimédia déploie des pages, des fiches, des panneaux, des fenêtres, des boutons; elle reproduit des listes, des albums et des menus déroulants; elle assemble des étiquettes (« labels »), des pictogrammes, des allégories, des diagrammes. Les études consacrées aux signes du multimédia montrent la complexité des processus de composition des signes; seul le calibrage des éléments, propre à tous les systèmes d'écriture, se retrouve dans les « boutons » et les « icônes » les plus courants, ce qui n'est d'ailleurs pas le cas de tous les signes passeurs 20 puisque l'habitude d'intégrer des zones actives à des scènes visuelles s'est répandue sur les cédéroms, puis sur les sites internet. En dehors de cette contrainte, il n'y a pas de règle de formation des « icônes » – très mal nommées puisque précisément elles sont loin de correspondre à une catégorie sémiotique cohérente. Les signes sont ambigus, composites, souvent fondés sur des processus de rhétorique visuelle complexes 21. Nous sommes donc confrontés à un bric-à-brac sémiotique, qui correspond aux choix faits par les concepteurs dans ce qu'ils estiment être les stéréotypes visuels de l'époque. Mais cette diversité dans la nature sémiotique de ce lexique visuel s'accompagne de ce qu'on peut nommer une plasticité de statut de ces signes. En effet, il s'opère autour de ces signes une sorte de capitalisation des valeurs signifiantes qui constitue l'un des traits saillants de l'ordre du texte contemporain. L'écriture multimédia, impérieuse et mouvante, nous confronte aujourd'hui à un mode nouveau de socialisation de certains faits et valeurs culturels. C'est ce que je nommerai, parodiant Dominique Lecourt, l'injonction sémiotique [LEC 95 ]. Pour comprendre le sens de cette injonction, il est nécessaire de confronter la logique de l'intuitif, c'est-à-dire le modèle communicationnel dont s'autorise cette production, à la fabrique de l'évidence, telle que la production effective des signes l'actualise. Le projet de rendre la communication informatique intuitive offre un aboutissement à la dénégation du sémiotique, qu'annonçait pour sa part le motif médiatique de l'intégration. Il s'agit en quelque sorte de réduire le plus possible la boucle signifiante, de rendre le signe absolument immédiat pour son référent, afin de rapprocher la pensée de l'acte et l'interprétation de la perception, en espérant parvenir à fondre les premiers dans les seconds. Plutôt que d'étudier les formes commerciales et journalistiques de ce principe, je souhaite éclairer le cadre théorique dans lequel s'inscrit cette logique née dans une certaine conception de l'ingénierie. Bernard Conein s'est livré à une étude de la genèse de ces conceptions. Il résume l'effort vers une communication intuitive dans l'article d'ouverture du recueil d'études qu'il a coordonné avec Laurent Thévenot sous le titre : « Cognition et information en société » [CON 97b] in [CON 97a ]. Cette analyse fournit un modèle théorique complet de la logique de l'intuitif. Pour Bernard Conein, qui s'inscrit dans la continuité des théoriciens américains de l'informatique sociale, « l'action avec les objets » peut tendantiellement se soustraire à l'univers du langage, et, partant, de l'activité interprétative culturellement marquée, au bénéfice d'un couplage strict du geste et de la vision : décalage déterminant qui peut libérer l'utilisateur de tout assujettissement, tant à un apprentissage technique et logique contraignant qu' à un code culturel complexe. Si l'interface a été configurée de façon à permettre cette spontanéité de l'interaction, l'utilisateur opère une pure gestion des repères spatiaux, dont le critère réside, selon cette méthodologie d'observation, dans la rapidité d'une action qui paraît exclure l'acte de lire 22 : l'observation des « routines » visuelles mises en œuvre par les habitués des billetteries automatiques est l'exemple même de cette réduction extrême de la boucle interprétative. Cette analyse aboutit à l'idée que dans des conditions d'écriture suffisamment intuitive des écrans, la relation entre l'utilisateur et l'artefact informatisé devient l'optimisation d'un geste inscrit dans l'espace, plutôt que l'interprétation d'un texte. Lire sur écran est une « action située ». Cette position, formulée en recherche, donne toute sa cohérence à la forme plus courante du motif de l'intuitif. En effet, si l'on y prend garde, qualifier d'intuitive une icône tend à replier la dimension sociale des codes, telle que nous l'avons étudiée, sur celle, quasi naturelle, de la réaction immédiate. Sans doute la création d'un langage visuel permet-elle aujourd'hui aux ingénieurs et aux ergonomes cognitifs de poursuivre le projet de naturalisation des échanges culturels, ou de certains d'entre eux, qu'exprimait déjà le vocable étrange (et aujourd'hui banalisé) de langage naturel. C'est dire que les réflexions sur la social informatics ou la « cognition distribuée » (il s'agit plutôt, en fait, d'une compétence opératoire socialisée) trouvent leur aboutissement dans une théorie sémiotique particulière, qui est même, à proprement parler, une anti-sémiotique. Il faut prendre acte de cette logique comme norme, et aussi, peut-être, de ce que dans certains cas, ses effets sont réels en termes de détournement d'un travail interprétatif vers ce qu'il faut bien nommer une certaine pavlovisation de la relation informationnelle. Mais l'analyse qui précède montre bien que cette logique n'est qu'une sorte d'horizon dénégateur, car les signes dont il s'agit procèdent, non d'une naturalité, mais d'une naturalisation : ils ne paraissent relever de la pure nature et de la simple adaptation, que parce que leur interprétation est suffisamment chargée de profondeur culturelle pour pouvoir s'opérer aisément et largement. Dans ces études d'anthropologie cognitive, l'absence de prise en compte de l'organisation sémiotique de l'objet et l'assimilation de l'espace à une réalité non sémiotisée masquent cette profondeur sociale effective des signes visuels. Il faut donc rappeler, contre les théories les plus actuelles de l'intuitif, les analyses sur la naturalisation des valeurs culturelles que Roland Barthes a développées dans toute son œuvre, et notamment dès l'appendice théorique de ses Mythologies [BAR 57 ]. Dans ce texte qui prend ici une nouvelle actualité, le sémiologue indique bien que pour être naturalisé, acquérir en somme l'évidence d'un simple fait de langue (que nous mobilisons sans le voir), un objet culturel ou politique doit être coupé de sa genèse et de ses conditions de production, tel le soldat africain exhibé devant le drapeau français, qui ne fonctionne comme mythe que par l'oubli de la colonisation, des conditions de l'enrôlement et du dispositif de production de la photographie. C'est bien dans le cadre de cette théorie de la naturalisation que doit être comprise la genèse évoquée plus haut du matériel sémiotique ordinaire des écrans, avec sa morale pragmatique, sa nature composite, ses sources diverses et son recyclage incessant. Nous pouvons sans doute souscrire au constat que dans certaines conditions, l'interprétation est rattrapée par l'action et le signe replié sur le geste (sans exagérer les effets de cette logique encore marginale 23). Mais nous devons le faire pour nous interroger sur les ressorts et les effets d'une naturalisation, qui ne produit de la naturalité apparente que pour légitimer de l'institué, qui ne cesse, de part en part, d'appartenir secrètement à l'univers des productions sémiotiques et qui même s'apparente à l'imposition d'une langue. En somme, il vaut mieux parler désormais de fabrique de l'évidence, par-delà une logique apparente de l'intuitif. Et dans un tel cadre, la formule de Brecht, abolir « l'évidence » pour accéder à la compréhension 24 n'a jamais été aussi judicieuse pour définir l'effort de connaissance. Réfléchir, à partir des divers exemples que nous avons discutés, sur ce que peut signifier le terme « intuitif », lorsqu'il qualifie des « icônes » ou des « interfaces », nous met sur la voie d'une telle prise de distance. Que signifie l'idée de signes intuitifs ? Ce terme me semble cristalliser trois significations superposées, le glissement de l'un à l'autre de ces trois sens constituant proprement l'idéologie de la transparence communicationnelle. En un sens, il est vrai que le signe visuel possède un caractère intuitif, c'est même un pléonasme de le dire : le premier sens du mot « intuitif » consiste à prendre au sérieux le terme latin intueri (regarder) et à analyser les ressorts de l'acte de voir, de scruter. Ce qui nous engage, non dans une négation de la sémiotique, mais dans une réflexion sur les ressorts d'une sémiotique visuelle, et de ce qui donne forme, globalement et immédiatement, à la saisie d'un espace ou d'un objet visuel. L'intuitif est bien, dans cette perspective, une certaine mise en ordre du visuel, dans la relation à une tradition et à une culture du regard. Cette piste est suivie depuis le début de notre analyse. Ce n'est pas dans ce sens que s'engagent la production et le discours de l'informatique conviviale, mais plutôt dans une tension entre deux autres sens du mot « intuitif », comme synonyme de « transparent » et de « familier ». Plus exactement, l'idéologie de l'intuitif consiste à s'appuyer sur certaines propriétés du signe visuel (sens 1) pour poser la transparence du processus signifiant (sens 2) tout en construisant un monde de stéréotypes visuels structuré (sens 3). Sur le plan des normes, on postule la simplicité de l'appropriation du signe, son immédiateté, tendantiellement sa transparence, tandis que, dans le champ des pratiques, on collectionne une série de stéréotypes, qui sont choisis, précisément, non pour leur caractère naturel, mais pour leur statut déjà socialisé. En réalité, cette socialisation concerne une certaine aire sociale et culturelle (pour simplifier celle des clients solvables des industries informationnelles). Mais il arrive aussi que ce caractère intuitif soit insufflé en quelque sorte a posteriori à certaines productions, qu'il résulte en fait de l'inculcation sociale forcenée de certains signes (l'arobase des adresses internet, la pomme d'Apple, la barre de Netscape ou le W de Word) : inculcation qui procède à la fois de la diffusion des logiciels qui les emploient, de l'accompagnement des manuels, précis et articles de presse qui les citent, et plus largement d'une série de reprises et de plagiats de nature diverse. Le premier paradoxe du programme de l'intuitif est donc qu'une norme de naturalité absolue qualifie une pratique de capitalisation sociale sans précédent. Le second paradoxe est lié au premier : c'est que dans la fabrique de l'évidence, il y a un renforcement mutuel entre la présence et l'invisibilité. L'omniprésence des signes nous détourne de les voir, ou plutôt de les regarder vraiment, dans leur qualité de signes; l'illusion d'une transparence des informations (l'aisance d'une circulation entre les signes passeurs) ne se réalise que dans la mise en visibilité de certains éléments et le masquage d'autres. Il suffit, pour s'en convaincre, de songer au sens que les informaticiens donnent au mot « transparent » : lorsqu'ils qualifient une procédure de transparente, cela signifie qu'elle ne sera pas visible de l'utilisateur, qu'elle lui sera littéralement masquée. Ce paradoxe a un poids sémiotique essentiel. Les militants des « logiciels libres » ne cessent d'ailleurs d'insister sur le fait que l'habillage iconique des écrans est un masquage, qu'il interpose un écran au sens le plus ordinaire du terme entre l'utilisateur et les fonctionnalités réelles des logiciels. Ils ont raison de souligner ainsi le caractère polémique de la thématique de l'intuitif, qui n'est qu'une réponse, encouragée par le commerce, aux propriétés attribuées habituellement à « l'écriture informatique », l'inaccessibilité et l'illisibilité; ceci, même si la solution qu'ils préconisent, un apprentissage généralisé de l'informatique (c'est-à-dire la mutation de tous les citoyens en experts) et une mise en transparence réelle du texte (c'est-à-dire un renforcement du motif idéologique) ne sont ni réalistes ni justes sur un plan politique. Si l'on résume ces fait paradoxaux, on peut traduire « interface intuitive » en « cumul de stéréotypes » et « communication transparente » en « économie du masqué ». On peut alors résumer l'analyse menée jusqu'ici à un unique paradoxe global : l'annonce d'un dépérissement des signes se traduit par un certain type de mise en ordre du signifiant, dont la force tient au fait que cette institution du visible est elle -même rendue invisible par son apparente évidence naturelle. Analysée dans un procès de communication, entre production et interprétation, la communication intuitive est la légitimation d'ordres du texte, d'un lexique visuel, d'une logique de communication et même d'un certain type de relation entre l' œil, la main et le cerveau. C'est pourquoi on peut replacer le capharnaüm sémiotique précédemment décrit dans la perspective plus large d'une naturalisation de logiques culturelles et communicationnelles, opérant à des niveaux divers des procès et médiations de la culture. Prenons seulement ici cinq exemples : les flèches des navigateurs imposent un certain ordre du texte et de son organisation, en repliant la lecture sur le geste opératoire (appuyer sur des boutons); la main stylisée engage une appropriation des objets sur le mode de la manipulation et de l'appropriation d'entités, renvoyant donc l'acte de lire-écrire à un acte d'agir et de posséder; la collection des icônes socialisées (poubelle, boîte aux lettres, barre de navire, loupe, etc.) impose une métaphorisation du travail intellectuel, renvoyant aux objets consacrés d'une ère culturelle; l'ouverture des « fenêtres de dialogue » avec leur rhétorique du relief donne aux parcours préconstruits le caractère d'un choix souverain; l'omniprésence des symboles de marque sur le web donne un statut métadocumentaire à ce qui était jusque -là cantonné dans l'espace promotionnel de la publicité. Plus généralement, le rassemblement des objets les plus divers sur les listes proposées par tel ou tel « site » redistribue les types de production et participe du mélange des genres dans les productions scientifique, politique, journalistique, documentaire, commerciale, etc. La réflexion ici amorcée, qui reconnaît la force agissante d'une norme illusoire (la logique de l'intuitif) tout en observant les effets d'une mise en ordre effective (la fabrique de l'évident) donne la perspective de quelques interrogations politiques possibles aujourd'hui, qui ne seront qu'esquissées ici. L'essentiel réside à mon avis dans l'analyse de cette injonction sémiotique, dans ses ressorts et dans ces effets. A cet égard, le caractère hétéroclite de l'espace du texte doit être compris dans la perspective dynamique d'un brouillage des logiques de communication. Les signes sont impliqués dans un espace aux logiques multiples, un espace où la polychrésie des actes de communication trouve un accomplissement extrême : ces signes servent à tout et gagnent à cette polychrésie une force particulière. Leur normalisation procède à la fois de la sélection et de la légitimation d'objets culturels, de la définition de fonctionnalités techniques et de l'affirmation de symboles, de marques et d'univers culturels : la sémiotique de ces prétendues « icônes » est à la fois indicielle, fonctionnelle, connotative et dramaturgique. Tout se passe désormais comme si les ordres les plus divers du texte et les logiques les plus contradictoires de la communication tournaient autour d'un lexique de stéréotypes unifiant, ou se voyaient encadrés par lui. L'injonction sémiotique réside dans le fait que nous sommes contraints d'utiliser ces signes pour avoir accès à la technique, à la relation de communication, aux objets culturels et, plus généralement, pour ne pas rater la « société de l'information ». L'inscription d'un symbole culturel dominant (comme la boîte aux lettres des westerns), d'une affirmation de puissance (comme le globe terrestre d'Internet explorer) ou du nom évocateur d'une marque et d'une gamme de logiciels (comme le W de Word) sur des signes passeurs sont des faits inaperçus mais puissants. Ces signes, que nous sommes contraints d'apprendre, que nous devons savoir lire et réactiver sans cesse, conquièrent un statut sémiotique flottant et envahissant; ils incarnent d'autant plus la domination de cultures ou d'acteurs qu'ils le font sur le mode le plus omniprésent et le plus invisible, celui de la fonctionnalité. Tandis que le processus de communication se désoriente et que le texte devient problématique, la prégnance de cette collection de signes banalisés ramasse toutes les mises, fonctionnelle, culturelle, symbolique, dramaturgique. Cette banalisation des noms propres est bien connue, dira -t-on (un frigidaire, une « prépa HEC », une poubelle). Mais ici elle prend une force particulière, à la fois parce que le signe de Word a le mode d'omniprésence du feu rouge, et parce que ses lieux d'inscription sont ceux dans lesquels nous développons le plus productif de notre travail culturel. L'analyse de ces stratégies ne constituerait pas le dernier mot d'une politique de l'invisible. Cette prise de marques des acteurs dominants de l'industrie informationnelle, quelle que soit son importance, ne constitue pas la seule, ni peut-être la plus importante des formes de pouvoir que met en œuvre cette fabrique de l'évidence. Une publicité récente reproduite dans la presse italienne pourrait assez bien incarner une prise de pouvoir plus large, qui concerne une modification possible des ordres et des logiques mêmes de la culture. Son slogan, vantant un site boursier, annonçait : Fra il dire e il fare, il clicare : « entre dire et faire, cliquer ». On ne peut mieux incarner le raccourci temporel, mais aussi l'ambiguïté sémantique qui est en train de s'instituer, par l'obsession même de l'intuitif, entre l'ordre du langage et celui de l'opérativité. L'évidence de la communication intuitive, c'est, en somme, ne plus avoir le temps de faire la différence entre dire et faire. Cet idéal communicationnel comporte plusieurs effets généraux, qui vont au-delà des prises de pouvoir de chacun des acteurs (et qui définissent même la nature de l'espace dans lequel ces prises de pouvoir opèrent le plus réellement). Je me bornerai ici à indiquer pour conclure trois des axes dans lesquels cette réflexion pourrait s'engager. Poser ces questions me semble pouvoir indiquer mieux la portée de ce qui a été discuté jusqu'ici. La norme de l'intuitif me semble d'abord tendre, comme cela a déjà été suggéré, à effacer la question des logiques communicationnelles de la culture, au bénéfice d'une invasion par le critère fantomatique d'une rentabilité du transfert informationnel : la boucle entre le dire et le faire trouve son expression typique dans l'imposition d'une sorte d'espace d'accès documentaire aveugle, dans lequel rien n'est défini de la relation de communication, sinon que n'importe qui doit pouvoir accéder, le plus vite possible, à n'importe quoi. La sémiotique de l'intuitif semble se déployer d'autant mieux que le procès de communication semble aller de soi. C'est pourquoi la logique anomique et minimale de la mise à disposition de « contenus » offre sa concrétisation la plus évidente à l'adoption d'un langage visuel intuitif. Savoir dans quelles conditions, dans quels termes et dans quelles limites il restera possible de penser la nature et le contexte des échanges communicationnels en jeu dans la relation aux médias informatisés et comprendre les effets possibles d'une confusion des logiques communicationnelles me semble un problème majeur. La question du mode de socialisation de ces écritures, qui est systématiquement écartée par l'idée même de signes intuitifs, n'est pas moins décisive. Le mythe de la naturalité des objets cognitifs se traduit, paradoxalement, par un apprentissage rapide et massif, captant l'activité des sujets, par une obligation constante d'apprendre les signes, par une sorte d'autoformation sémiotique permanente. Certains définissent les langages et les autres courent sans cesse après les nouvelles « compétences » qui devraient leur permettre d'accéder, un jour mythique, à la performance 25 : être capable de comprendre ce qui est supposé être intuitif est, dans ce paradoxe ultime, un tour de force sans cesse reproduit. Comprendre les effets de ce nouveau paradoxe sur la dynamique même des cultures et des investissements culturels est urgent. Enfin, quel est le réel effet anthropologique de ce processus optimisé, qui nous confronte toujours davantage à la familiarisation combinée de la technique et de la culture, qui exhibe en permanence devant nous un monde d'objets dûment conditionnés à nos habitudes et à nos préjugés ? Nous ne pouvons échapper à cette question philosophique et morale. La proximité extrême dont cet attirail stéréotypique « intégré » promet de nous gratifier vis-à-vis de la machine menace de faire de cette dernière un alter ego, éloignant d'autant plus notre souci des êtres et des objets qui méritent notre effort. Les signes évidents joueraient alors trop bien le rôle de s'interposer entre nous et l'imprévisibilité de nos engagements, à la fois parce qu'ils nous fourniraient le faux-semblant trompeur d'un résumé anamorphosé du monde et parce qu'ils nous économiseraient d'avoir à affronter l'imprévisibilité de ce que peut vraiment sur nous la rencontre de l'autre 26 et de ce qu'elle risque d'exiger de nous. Irions -nous vers une dialectique du maître et de l'esclave déclinée au contemporain 27, une fable de la dépossession de nos rencontres et de nos sens ? Nous finirions par être piégés par l'optimisation de nos langages, si l'efficacité de nos « interfaces » conviviales, omniprésentes et invisibles, menaçait, parce qu'elle nous dispense de regarder vraiment, de nous rendre infirmes d'une véritable faculté d'intuition. C'est, dira -t-on, le genre d'histoire qui ne peut arriver aux hommes, et sans doute est -ce vrai. Il n'en est que plus essentiel d'en penser la possibilité .
Beaucoup de discours sur la supposée « civilisation de l'écran » marquent en réalité une grande indifférence aux écrans. Ils préfèrent spéculer sur l'existence d'un « cyberespace », plutôt que d'examiner les formes visibles de la communication effective. Cet article pose la question de ce qui est visible ou invisible sur les médias informatisés. Pour ce faire, il analyse la sémiotique des signes visibles présents sur l'écran, comme la métasémiotique des terminologies et des images désignant ces nouvelles formes. Il discute la catégorie de « l'intégration » et l'interprétation des constructions sémiotiques hétérogènes; puis il critique le thème de l'hypertexte « non linéaire » et l'image réductrice qu'il donne du texte informatisé. Enfin, il affronte le motif rhétorique de la communication « intuitive », mode de naturalisation de la communication et nouvelle forme d'industrie culturelle.
sciencesInfo_02-0448243_tei_DN_051_0155.tei.xml
termith-393-communication
La contribution se propose d'interroger l'intérêt des femmes pour la littératuresentimentale, mais de manière détournée. Nous ne mettons pas en œuvre une enquête deréception sur les pratiques et interprétations effectives des lectrices, mais nousprocédons à l'analyse des produits éditoriaux pour en identifier les modèlesconstruits de la relation amoureuse, et plus particulièrement, les représentationsimaginaires de la ou des masculinité(s), développée(s) dans les romans descollections Harlequin, en lien avec celle(s) de la ou des féminité(s). Dans unpremier temps, nous évaluons jusqu' à quel point l'inscription de ces produitséditoriaux dans le secteur industriel et marchand en formalise les contenus, sanstoutefois appréhender ces marchandises comme un tout uniformisé et uniformisant ,sous prétexte qu'elles sont soumises à une logique de production industrielle enséries, à une standardisation des structures narratives et à une consommation demasse. Il s'agit plutôt, dans l'analyse des scripts culturels (Gagnon, 1999), detenir compte des stratégies marketing de segmentation des publics, mises en œuvrepar l'instance de production. L'éditeur mobilise constamment des moyens pourcerner les « tactiques » des lectrices, pour appréhender leurs « manières de faire »( de Certeau, 1990), afin de les incorporer dans le procèsindustriel. Car les représentations de la relation amoureuse diffusées par cesromans sont orientées socialement dans la mesure où ils ne s'adressent pas à toutesles femmes, et renvoient à des lectures populaires. Ce matériau est d'autant plus intéressant à analyser que, littérature réflexivecentrée dans son écriture sur l'intériorité des actants –leurs ressentis, leurs émotions, leurs pensées –, il repose sur un « procédé defocalisation interne » (Olivier, 2009), véhiculant de fait des normes pratiquesautant que psychiques, de sorte que l'on peut considérer que « ces lecturesromanesques, silencieuses, intimes et secrètes […] constituent l'une des modalitésde construction du “for intérieur féminin” » (Charpentier, 1995). Dans un secondtemps, notre regard se focalise sur les héros masculins, afin de cerner lesreprésentations imaginaires construites de la ou des masculinité(s), afin d'esquisser les qualités et les ressourcesestimées indispensables au prince charmant, ainsi que les attentes présupposées deslectrices envers l'amour idéal. En nous appuyant sur les théories développées parles gender studies – notamment celles développées par JudithButler (1990) –, nous essayons de comprendre comment et pourquoi, malgré lesvariations des identités genrées données à lire, ces romans participent à ladiffusion d'un modèle binaire du genre – masculin/féminin –, au fondement d'unevision hétéronormée des rapports sociaux de sexe. Pour avancer dans la réflexion, nous avons réalisé une étude de contenu comparative –quantitative et qualitative – d'un corpus de romans appartenant aux différentescollections lancées sur le marché. Nous avons analysé les séries Azur, Horizon, Blanche ,Passions, Audace, Prélud's, sur la base de 12 volumes parcollection (12 histoires d'amour inédites par collection), volumes choisis de façonaléatoire et publiés entre 2006 et 2009. Enfin, dans untroisième temps, une attention particulière est donnée aux scènes d'amour, dans lamesure où celles -ci façonnent des « mises en discours du sexe », des lieux deproduction de savoirs, d'injonctions, constitutifs de dispositifs de pouvoir, à lafois producteur et régulateur de pratiques (Foucault, 1976). Plus ou moinsexplicites, elles élaborent une grammaire des comportements sexuels féminins etmasculins, non exempts parfois d'une « érotisation de la domination » (Kennedy ,1993). Pour conclure, nous verrons en quoi les romans Harlequin, tout eninterrogeant les formes de socialisation aux identités masculines (et féminines), serévèlent corrélativement des enfermements identitaires, des moyens de régulation etde contrôle des relations sociales genrées entre les individus, et des espacesd'expérimentation imaginaire de formes d'expression de soi vis-à-vis de l'autre. Marchandises de la culture de masse, les romans sentimentaux appartiennent aux objets déclassés, aux « mauvais genres » (La Mothe, 1989) ,souvent méprisés par les tenants de la culture savante, dont la culturescientifique. Toutefois, analyser cette littérature permet de saisir, dans unesociété donnée, l'état de représentations collectives et historicisées, deconventions censées orienter les conduites amoureuses et sexuelles. En effet ,comme le note Bruno Péquignot (1991 : 191), « le roman sentimental nous offred'une certaine manière une sorte de concentré de la vie sociale, et de sesreprésentations collectives des classes sociales, des professions, des rapportshommes-femmes, des adultes et des enfants, du travail et du non-travail, etc. ». Ces romans permettent plus précisément d'approcher les normes sociales véhiculéessur l'amour en direction de certaines femmes : les lectrices souventstigmatisées de ces romans, qui appartiennent aux catégories socialesles moins cultivées – au sens de la culture légitime, celle reconnue commeconstituante d'un capital – pas ou peu diplômées, insérées dans desfoyers d'agriculteurs, d'ouvriers ou d'employés, de retraités (Donnat, 1998) .Force est alors de constater que nous ne sommes pas face à « un discours dupeuple sur le peuple » (Péquignot, 1991), mais face à une industrie culturelle ,c'est-à-dire à une marchandise culturelle produite industriellement pour uneconsommation de masse (Adorno, Horkeimer, 1944). L'éditeur intègre lafabrication des romans dans une démarche marketing englobant l'ensemble desprocessus de la rédaction à la distribution, en passant par la publicité, lesactions de communication dont une part importante se concentre sur lafidélisation des lectrices à la marque Harlequin. Les histoires d'amourHarlequin se déclinent en plusieurs univers fictionnels, ancrés dans descollections, selon une logique de segmentation du marché et de positionnementséditoriaux différenciés vis-à-vis des lectrices (logique de gamme). De fait, cescollections instituent une double sérialisation : elles fonctionnent comme desvariations à partir d'une trame narrative commune (déclinaison d'un mêmeproduit, « l'histoire d'amour qui finit bien », selon des formats éditoriauxdivers), et elles favorisent des lectures sérielles. Ces lectures renvoient à un cadrage serré des actes de lecture des lecteurs, dansune tentative de contrôle des effets produits lors de la lecture, grâce à larépétition d'un livre à l'autre des mêmes procédés de construction del'intrigue, de ses lieux, de ses protagonistes et de leurs échanges. Les notionsde stratégies et de tactiques élaborées par Michel de Certeau (1990) restentopérantes pour comprendre ces tentatives de régulation des pratiques culturellespar l'instance de production. La démarche et les techniques marketingconstituent les moyens modernes dont disposent les organisations industriellespour faire face aux ruses, au braconnage et à l'imprévisibilité desconsommateurs, notamment par la mise en place de focusgroup. Par ailleurs, les éditions Harlequincadrent très fortement le processus de rédaction, notamment par la mise àdisposition aux auteurs réels ou potentiels de « writingguidelines », référents écrits qui définissent les orientations et lesprincipes d'écriture, avec une adaptation de ces recommandations selon lacollection d'ancrage du manuscrit. Ainsi, en mai 2006, trouve -t-on sur le sitedu groupe, synthétisédans un tableau, les éléments narratifs attendus dans une histoire d'amourmoderne (« new romance »). Ces recommandations ne renvoient pas seulement à des prescriptionsrédactionnelles formelles sur les limites de la thématique (le couple et non sonenvironnement familial ou amical), la posture du narrateur (le point de vue del'héroïne), le registre de langage (facilité et simplicité du vocabulaire, destournures de phrases). Elles touchent aussi à des prescriptions psychiquesconcernant les protagonistes (ouverture d'esprit, degré d'émancipation ,d'affirmation de soi, capacités à inspirer le respect et l'affection), coupléesparfois à des caractéristiques physiques (héroïne : ambitieuse et glamour, maisloyale). De même, des précisions sont données sur les aires géographiques oùsont censés se dérouler les récits, sur les principes selon lesquels doivent sedévelopper les relations entre le héros et l'héroïne, ou encore sur lesmodalités d'évocation des échanges sexuels, à savoir sensuelles, jouant sur latension émotionnelle et la suggestion plutôt que sur des détails sexuelsexplicites. Dès lors, ces orientations dessinent une idéologie de l'histoired'amour moderne, tout du moins occidentale, puisque les pays dans lesquels legroupe vend ses produits appartiennent essentiellement à cette airegéographique, politique, culturelle et économique. Plus précisément, ces discours participentà l'élaboration d'une doxa, d'un système dereprésentations, de significations de la division sociale des sexes. Celle -ci sefonde sur les archétypes, les valeurs, les maximes, les clichés et lesstéréotypes culturels partagés par le plus grand nombre, ce qui facilite leprocessus de standardisation, rend accessible la lecture des romans aux groupessociaux les moins dotés en capital culturel, et ce qui favorisel'internationalisation de leur diffusion. Il est certain que ce projetindustriel ne tend pas vers une remise en cause de « l'arrangement des sexes »( Goffman, 2002) mais, au contraire, le naturalise (Bourdieu, 1998). Pour autant, tout en s'inscrivant dans cette définition idéologique de l'histoired'amour moderne, chaque collection va jouer des limites de chacune de cesprescriptions. Comme le souligne Jacques Marchand (1983 : 357), « le retourd'une structure narrative n'implique nullement que l'histoire soit toujours lamême. Il faut reconnaître que la formule Harlequin est précise mais flexible » .Ainsi, aujourd'hui, les éditions de poche Harlequin se déclinent-elles en huitcollections : la collection Azur (la plus ancienne descollections imprimées en France), la collection Horizon (apparue en 1979), la collection Blanche (depuis 1980) ,la collection Passions (créée en 2007), la collection Les Historiques (née en 2007), la collection Audace (qui date de 2003), la collection Black Rose (créée en 2007), et enfin, la collection Prélud ' (apparue elle aussi en 2007). Ce jeu devariations à partir d'une trame commune semble sous-tendre un processus de« segmentation secondaire » des publics selon des critères affinés en termes declasses d' âge, ou peut-être selon des valeurs morales, des dispositions, desinclinaisons, des attitudes et des intérêts culturels. Celui -ci consisterait enune analyse corrélée des trajectoires sociales et des pratiques culturelles deslectrices, dans une tentative de saisir les actes de lecture des individus à lafois en les singularisant et en les reliant à des processus de socialisationcollectifs. Une hypothèse que tendent à renforcer les résultats de notre analysede contenu. Ces savoirs construits sur les publics se différencieraient d'unevision homogénéisante des appartenances aux groupes sociaux en repérant deslogiques hétérogènes de distinction au sein des groupes sociaux eux -mêmes. Enquelque sorte, cette démarche réaliserait, empiriquement, une articulation entreles approches de Pierre Bourdieu (1979) sur les dispositions culturelles en lienavec les positions sociales, et celles de Bernard Lahire (2004) proposant unethéorie de l'acteur « dispositionnaliste » et « contextualiste ». Séduire est une activité symbolique qui se déroule dans un échange interpersonnelentre deux personnes, socialisées à un ensemble de règles de comportements, decroyances, d'interprétations de signes propres à la société dans laquelle ilsévoluent. En effet, « étant un mode spécifique de communication, la séduction abesoin de passer par un rituel, qui construit à la fois l'acte de parole etl'attitude gestuelle prise dans le sens d'un positionnement particulier ducorps. Ces codes doivent être partagés par les deux individus pour pouvoir êtreperçus, lus et déchiffrés. Ainsi, un rire ou un regard échangés établissent unecommunication en apparence ludique et spontanée. Mais le fondement de celle -cirelève davantage de la création d'un personnage fictif. Tout dans ce jeu est enréalité construit, le vêtement, l'intonation de la voix, la posture choisierévèlent la mise en scène d'une stratégie pour plaire » (Boëtsch, Guilhem ,2005 : 181). Par exemple, lors d'un rituel de séduction hétérosexuelle, nous performons legenre en ce sens où pour incarner un homme ou une femme, nous nous conformons ,par nos actions, aux assignations sociales structurant les identités genrées .Les définitions de sexes (mâle, femelle) et d'identités genrées (masculine ,féminine) s'encastrent dans un système hétéronormé de significations symboliqueset sociales. Or, lalittérature sentimentale se concentre avant tout sur la mise en scène d'uneéconomie psychique du « bon » rapport amoureux, au détriment des conditionssociales de sa réussite. En l'occurrence, l'asymétrie de pouvoir entre les deuxpartenaires. Sans être totalement éludées, elles sont exposéessur le mode implicite du cela-va-de-soi. En d'autres termes, la rencontreamoureuse est ici présentée comme un processus avant tout psychique, dont laréussite repose sur le cheminement intérieur de deux individus dont lesattributs sociaux ne sont exposés que pour mieux planter le décor de leurrelation. Bien plus : l'asymétrie des ressources entrel'homme et la femme y apparaît comme une condition naturelle du choc amoureux ,un élément clé au principe même du désir. Ce qui fait problème – i.e. qui est problématisé –, est bien plutôt le forintérieur des actants, ou pour le dire plus précisément le processusd'ajustement réciproque des deux partenaires aux attentes de l'autre. L'appréhension des romans Harlequin comme à la fois des guides de conduitespsychiques pour les femmes des classes populaires et un instrument delégitimation de leur double domination imprègne la grande majorité des travauxconsacrés à la littérature sentimentale. Par exemple, Michelle Coquillat (1998 )soutient la thèse selon laquelle les « romans roses pour femmes modernes »véhiculent une psychologie de la soumission auprès de la lectrice, en se fondantsur la construction de personnages stéréotypés (l'homme incarne la puissance ,l'autorité, la force face à la douceur, la grâce, la faiblesse), stéréotypeseux -mêmes liés aux représentations socialement construites du masculin (le dur ,l'universel) et du féminin (le doux, le tendre). Or, la littérature sentimentalelivre aussi les attentes de ces mêmes femmes envers les hommes – leur plastique ,leurs émotions, leur virilité. .. –, autant de normes véhiculées sur le « bon »amant qui pèsent sur le choix de leur(s) partenaire(s) et donc, potentiellement ,sur le comportement de ces derniers. Ces attentes sont notamment révélées autravers d'un jeu d'initiation croisée, dans lequel le héros n'est plus seulementle dominant, l'héroïne la victime soumise. Dans son article consacré à l'analysede la dynamique du roman sentimental qu'il qualifie de « structure doublementconflictuelle : le conflit externe (entre Elle et Lui) révèle les conflitsinternes (chez Elle et chez Lui) », Yves Reuter (1989) décrit comment le héros se socialise, dans saconfrontation à la femme (et à l'amour), à de nouvelles formes d'expression deses sentiments. Ainsi les deux protagonistes renoncent-ils à une partd'eux -mêmes pour « faire couple » : la femme cesse de refouler sa féminité, sapeur de l'homme (de sa virilité), et accepte de se conformer à une forme desexualité hétérosexuelle; l'homme s'ouvre aux sentiments et se résout à lamonogamie. « La femme doit se découvrir, être découverte. […] .Symétriquement, l'homme doit, lui, se retrouver. Il s'est déjà réalisé, mais ila connu des échecs, ce qui explique ces marques, cicatrices, blessures, rides .Ayant vécu, il connaît les femmes et la société, mais de son expériencemalheureuse lui restent la froideur, le cynisme, l'apparence blasée, dont ildoit se débarrasser pour s'accepter. Il lui faut “se découvrir” de ce dont ilest recouvert » (ibid. : 214). Dans cette seconde partie, il s'agit de s'attarder sur les éléments narratifs àpartir desquels se construisent les relations asymétriques entre amant etamante, tout en en évaluant leurs variations au sein des différentescollections. Dans le cadre d'une analyse exploratoire, il a semblé nécessaire de comparer lespropriétés du héros et de l'héroïne selon les collections pour pouvoir endistinguer les similitudes et les contrastes. Ce travail permet l'esquisse d'unecartographie des caractéristiques sociales (situation matrimoniale ,parentalité – parents, fratrie, enfant –, nationalité, catégoriesocioprofessionnelle) attachées aux figures du mâle séduisant et séducteur dansles romans Harlequin. Ces caractéristiques dessinent les contours d'un habitusde la séduction au masculin, au sens où elles traduisent des dispositionsd'esprit, des manières d' être, d'agir mises en action au travers de postures, demouvements, de rapports au langage, à autrui, etc. Cet idéal construit la« masculinité comme noblesse », dans la mesureoù les héros sentimentaux, êtres de fantasme, sont par définition des êtresd'exception. Comme on peut le constater, les masculinités se construisent en relation avec lesféminités constituées, de même qu'elles s'ancrent dans les démarches marketingsous-tendant les positionnements réciproques des collections Harlequin. Ainsitrois configurations de couple – significatives du point de vue de laconstruction croisée des identités genrées – se dégagent-elles de l'analyseexploratoire. Une configuration dans laquelle les figures masculines évoluentdans une relation de couple très inégalitaire (Azur, Blanche, Passion). Unecaractérisée par des figures masculines qui se meuvent dans un univers que nousqualifions de « l'entre-deux » (Horizon, Prelud '), et une dont les figures masculines seperforment au sein d'une relation de couple égalitaire (Audace). La position sociale, l' âge des protagonistes et leur« capital » en matière d'expérience sexuelle sont les principaux marqueursmobilisés pour différencier l'homme de la femme et les types de couples. Aussivarient-ils selon les collections, l' âge et la position sociale desprotagonistes. En revanche, les écarts entre les sexes persistent sans pourautant rester les mêmes, sauf dans le domaine de l'expérience sexuelle. Eneffet, ces configurations reposent sur une graduation de l'asymétrie entre lesdeux partenaires et, corrélativement, sur un principe implicite dehiérarchisation symbolique des masculinités entre elles selon leur degré devirilité. Le mâle dominant parmi les dominants (Azur )est celui qui incarne la puissance non seulement physique mais égalementéconomique et sociale. Il approche l'idéal, voire caricature la masculinitéhégémonique : l'homme fort, sanségal, imposant, autoritaire mais protecteur, irrésistible car charismatique ,irradiant un magnétisme que nul ne peut combattre. Les masculinités des collections Horizon et Prélud ' se développent dans un univers fictionnel centréautour de la famille. Selon le site des éditions Hachette consulté en décembre2009, la collection Horizon, apparueen 1979, incite les lecteurs à « découvrir des histoires d'amour tendres etoptimistes où des hommes et des femmes vont créer la famille de leurs rêves » .Ici, nous sommes face à une vision de l'amour romanesque plus « sage », plus« traditionnel ». Quant au séducteur de la collection Audace, il incarne le fantasme de l'amant idéal selon une conceptiondu couple moderne occidental, fondée sur l'échange et la complicité – notammentsexuelle – apparue, selon Anthony Giddens (1993), avec l'essor de l'amourromantique, une « démocratisation massive du domaine interpersonnel » etl'émergence d'une représentation réflexive de soi en lien avec une redéfinitionde la place de l'intimité (dont la sexualité) dans son projet de vie. Mais plus important est de souligner quecette hiérarchie dans les masculinités contient l'axiome suivant : plus le hérosa les marqueurs de la virilité et occupe une position dominante dans la relationamoureuse, plus les exigences sont nombreuses et le prix à payer élevé. La figure du mâle dominant est plus forte dans la collection-phare et la plusancienne des éditions Harlequin : la collection Azur .Non seulement, l'homme est l'aîné de la femme, mais il y est majoritairementhomme d'affaire, dirigeant de grandes entreprises, de multinationales. Saréussite professionnelle et sa position dominante s'accompagnent le plussouvent de la perte du père (orphelin de père à 50 %), comme si cette figuremasculine ne pouvait s'épanouir à l'ombre d'une autorité paternelle. Enrevanche, il est entouré dans 74 % des histoires d'une fratrie dont il estsouvent l'élément central, et il a un ou des enfant(s) à charge dans 50 %des cas. Cette figure du prince charmant est celle qui cristallise lescritiques les plus virulentes adressées à la littérature sentimentale. Unhéros arrogant, symbole de la puissance virile, du fait de ses revenus( milliardaire), de ses atouts physiques – cliché du beau ténébreux auxcheveux (83 %) et aux yeux noirs (41 %) ou bleus (33 %) –, entre en conflitavec une héroïne plus jeune, plus inexpérimentée, à l'image stéréotypée dela blonde (50 %), aux yeux verts (50 %) plutôt que bleus (16 %). Les figuresmasculines de la collection Blanche évoluent dans ununivers professionnel qui semble, a priori ,reproduire les ségrégations genrées horizontale et verticale de l'hôpital oude la clinique. Les hommes sont chefs de service, de clinique ou médecins( 91 %). Toutefois, leur réussite sociale se construit au prix fort del'absence d'enracinement familial : ils sont célibataires (66 %), oudivorcés (25 %), ou veufs (8 %), sans parents (41 %), sans fratrie (66 %) ,sans enfant (58 %). Ils sont les plus âgés, toutes collections confondues ,puisqu'ils sont 41 % à avoir entre 31 ans et 35 ans, et 25 % entre 36 et 40 .Ils peuvent être bruns (58 %) ou châtains (25 %), aux yeux gris (33 %) ouverts (16 % à égalité avec la catégorie « couleur non mentionnée »). Quantaux figures masculines de la collection Passions ,elles pourraient être qualifiées de « figures masculines à coûtsrelationnels modérés ». Si les héros se retrouvent à 58 % dans un rapportsocial supérieur à la femme, à 25 % dans un rapport égalitaire, et à 16 %dans un rapport inférieur, les relations tendent vers l'égalité en termesd'appartenance socioprofessionnelle. Seuls aux postes chefs d'entreprise de10 salariés et plus (33 %), ils sont à égalité avec leurs compagnes dans lesfonctions de cadres ou inscrits dans les professions intellectuellessupérieures (33 %) et à 16 % propriétaires de ranch. Mais ils sont également8 % à être commerçants ou employés (contre 33 % de femmes employées). Nousretrouvons des écarts d' âge entre les figures masculines et féminines, maisatténués puisque c'est la collection où l'on rencontre le plus de héros âgésde 26 à 30 ans contre 41 % entre 31 et 35 ans. Ils sont aussi lesprotagonistes les plus souvent veufs (25 %). Si les héros de la collection Horizon occupent à 50 %une position dominante par rapport à leur partenaire, ils sont aussi lesplus nombreux, en comparaison aux mâles des autres collections, à occuperune position relative inférieure (25 %). Cela s'explique essentiellement parla distribution des appartenances socioprofessionnelles : 33 % des figuresmasculines sont chefs d'entreprise de 10 salariés et plus, 16 % sont cadresou dans les professions intellectuelles supérieures. La nouveauté résidedans le fait que 16 % ont le statut d'employés, et 8 % celui de commerçants .Mais le fait saillant de cette figure masculine réside dans son ancragefamilial défavorable par rapport à la figure féminine. Il est plus souventsans parents (41 % contre 25 %), sans fratrie (83 % contre 33 %), et sansenfant (66 % contre 58 %). En revanche, ce prince charmant ne joue pas surla différence d' âge pour construire son ascendant sur sa promise. Il a entre31 et 40 ans, elle a entre 26 et 30 ans à 58 %, entre 31 et 35 ans à 16 % ,et seulement entre 21 et 25 ans à 25 %. L'amoureux Prelud ' ne s'effraie pas de l'égalité entre hommes et femmes sansl'atteindre toutefois. Si, dans 66 % des histoires, le héros est âgé de 31 à35 ans, il lui arrive parfois de s'éprendre d'une héroïne âgée de 36 à 40ans (16 %). Les deux figures partagent également des appartenances socioprofessionnellesproches : 50 % des hommes sont cadres ou exercent une professionintellectuelle supérieure (contre 33 % des femmes), 25 % sont employés( contre 33 % des femmes). Toutefois, 16 % des figures masculines sont chefsd'entreprise de 10 salariés et plus. S'ils sont célibataires à 50 % (contre41 %), 16 % divorcés (contre 25 % de divorcées), ils sont aussi mariés dans25 % des récits avec leur partenaire dès le début de l'intrigue. Quant auxrelations familiales, il est à noter que l'héroïne a plus de chance d' êtreentourée de parents (8 % sans père, 25 % sans mère, 25 % orpheline desdeux; 83 % avec une fratrie) que son prétendant (8 % sans père, 16 sansmère, 33 % orpheline des deux; 25 % avec une fratrie). Les couples dépeints dans cette série sont ceux qui tendent le plus àl'égalité dans un couple hétérosexuel, malgré quelques persistances dedifférences en termes d' âge et d'appartenances socioprofessionnelles .L'homme est âgé de 26 à 35 ans (33 % ont 26-30 ans, 16 % 31-35 ans), liés àdes compagnes entre 26 et 30 ans (50 %), ou à l' âge non spécifié (41,6 %) .Il est d'abord cadre ou exerce une profession intellectuelle supérieure( 50 % contre 22 % pour son alter ego féminin), puis commerçants ou assimilés( 25 %), et enfin, dans seulement 16 % des cas chef d'entreprise de 10salariés et plus. Les histoires d'amour Audace incarnent des univers fantasmés, en apesanteur sociale, dans le sens où lesrôles secondaires sont réduits au minimum, de même que les appartenancessociales des protagonistes sont réduites au minimum. Toutefois, si la quêteamoureuse emprunte des détours érotiques, sous la forme de défis entre deuxadultes consentants, le mâle garde une forme de suprématie sexuelle, dans lamesure où il est souvent l'initiateur à l'éveil à la sensualité. En effet ,les figures féminines, bien qu'elles fassent preuve d'initiative dans laséduction de leur partenaire, d'émancipation dans leurs échanges sexuels ,sont encore vierges à 83 %. C'est le plus haut pourcentage, toutescollections confondues. À ce stade de l'analyse, il est intéressant de procéder à une étude exploratoirequalitative qui se focalise sur la figure de l'amant telle qu'elle est représentée dans lesscènes sexuelles des romans Harlequin. Elle permet de comprendre les agencementsconstruits entre les identités genrées élaborées et les orientations sexuellesexposées. Notamment, elle montre comment les définitions sociales des catégoriesde sexes renforcent une réification de ces catégories, et consolident une visionbinaire des rapports sociaux de sexe, au sein d'un modèle hétéronormé. Dans cemodèle, « l'existence d'un sexe stable est présumée nécessaire à ce que lescorps fassent corps et aient un sens, un sexe stable traduisible en un genrestable (le masculin traduit le mâle, le féminin le femelle) et qui soit définicomme une opposition hiérarchique par un service obligatoire :l'hétérosexualité » (Butler, 1990 : 66). Selon cette perspective, ces récitsconstituent des scénarios cognitifs ou « scripts » (Gagon, 1999), modèlesarchétypaux de la quête et de la réalisation amoureuses (les actions, les étapesà mettre en œuvre, les sentiments censés accompagnés ou affleurer lors descaresses, des baisers, des contacts visuels, etc.). Lesmodalités de construction des histoires Harlequin fonctionnent comme devéritables initiations aux savoirs, savoir-faire, « savoir-être » censésstructurer les amours, en conformité avec les attentes sociales, ou plutôt nosattentes idéales voire fantasmées. Lors de leur lecture, ces discours fontl'objet d'une réappropriation symbolique et contribuent à une socialisation (ausens d'inculcation) ou à une intériorisation de normes et d'interdits. Leurétude est une façon d'appréhender les aspirations et les valeurs qui participentde la construction des identités de genre au sein du couple hétérosexuel dansune société donnée, voire dans des groupes sociaux spécifiques. Or, les scènessensuelles ne sont pas traitées à l'identique selon les collections. Ellesoscillent entre, d'une part, les baisers échangés entre les partenaires de lasérie Horizon, les ébats rapidement et pudiquementévoqués – série Blanche –, les étreintes plus ou moinspassionnées dans les histoires Azur, Prélud ', Passions et, d'autre part, les jeuxérotiques et complices dans la collection Audace. Cettegraduation des modes de traitement éditorial de l'amour physique s'appuie sur unlangage plus ou plus métaphorique, et s'accompagne d'une palette de pratiquesplus ou moins étendue, sans pour autant être explicitement nommées (les caressesétendues au cunnilingus, à la fellation, à la masturbation, à la sodomie, etc.). Si lesrelations les plus libertines s'inscrivent dans la série la plus égalitaire –Audace –, l'égalité n'est pas une condition pours'adonner aux plaisirs sensuels puisqu'ils sont très présents dans lescollections Azur, Prélud ', et Passions, selon des modalités différenciées que nousallons maintenant explorer. Les volumes de la collection Horizon célèbre lafamille idéale. Ceux de la série Blanche s'inscriventdans l'univers très hiérarchisé de l'hôpital. Ce sont aussi les histoiresles plus prudes en ce qui concerne le traitement des scènes sensuelles :dans le premier cas, l'acte charnel est rarement consommé avant les aveuxamoureux; dans le second cas, ces descriptions restent très évasives. Seulle baiser a le droit de cité, mais sous une forme très suggestive .Toutefois, comme dans la majorité des autres collections, ce baiser reste àl'initiative du héros, dont les modes d'action marquent la puissance, lavolonté de domination ou de possession, et l'ardeur. Les amants des collections Azur, Prélud ' et Passions sont beaucoup moins sages que les précédents .Les scènes sensuelles occupent un espace plus grand en termes de pages etplus important dans la construction de l'intrigue. Elles arriventgénéralement plus tôt dans l'histoire, quand ce n'est pas dès les premièrespages. Ainsi, dans le roman Passions, intitulé Dans les bras d'un Westmoreland (n° 156, 07/09), lespersonnages se rencontrent-ils pour la première fois sur une plage déserte ,à la faveur d'un déplacement professionnel, et font l'amour dès leurpremière rencontre. Quelque mois plus tard, le héros découvre par hasard quesa partenaire est enceinte et part à sa recherche afin de savoir si oui ounon, il est le père de l'enfant à naître. L'intrigue commence alorsvraiment, au chapitre deux, car une fois sa parenté confirmée, il va toutmettre en œuvre pour convaincre la future mère de ses triplés de l'épouser .Le récit fonctionne par flash back, cette premièrenuit d'amour revenant hanter les protagonistes, qui ne tardent pas àrécidiver (dès la fin du chapitre 2), tant l'attirance sensuelle estincontrôlable. De même, les scènes sensuelles deviennent plus explicites en qui concerne lespratiques adoptées; pratiques plus étendues et toujours teintées dedomination masculine. Toutefois, le rapport de force est toujours tempérépar le souci qu'a le héros, à travers ses actes et ses paroles, desatisfaire son amante. Soucieux du plaisir de sa partenaire, il mobilisetous les acquis de ses expériences antérieures, et déploie une gamme plusétendue de caresses. Par ailleurs, dans les collections Prélud ' et Passions, les dialoguessensuels, les descriptions corporelles s'étoffent au même titre que lecontenu et la description des joutes sexuelles (préliminaires, lieux ,positions, etc.). Des références explicites, mais sous la forme demétaphores, aux cunnilingus et à la fellation apparaissent. L'amant esttoujours assuré dans ses gestes, maître de leur désir (il l'attiseprogressivement jusqu' à ce qu'il leur devienne intolérable), malgré unecomplicité naissante entre les amants. Si les ébats ne s'inscrivent passeulement dans l'univers de la couette, ils restent à l'initiative del'homme, à l'exception de quelques expérimentations féminines, et s'enclenchent parfois sans leconsentement initial de l'un ou l'autre partenaire .Toutefois, ces scènes sensuelles ne peuvent être complètement assimilées àdes actes d'agressions sexuelles, contrairement à ce qu'ont laissé entendreou affirmé certaines analyses (Coquillat, 1998). Nous assistons plutôt, à ceque Jacques Marchand (1983 : 62) a qualifié comme étant une « sorte defusion, d'identification de trois consciences féminines (la narratrice ,l'héroïne, la lectrice) ». Selon lui, celle -ci définit « une pornographie defemmes [qui ], contrairement à celle des hommes, ne s'articule pas sur unecomplicité dans le plaisir de l' œil et de la pulsion sadique mais plutôt surune complicité dans la rêverie masochiste, la violence littéraire ». Enfin, en lisant les romans de la collection Audace ,nous entrevoyons des jeux érotiques déployés au sein d'un couple pluségalitaire, soucieux de développer une relation sensuelle. Les personnagesincarnent l'émancipation sexuelle, désinhibée et pratiquée entre deuxpartenaires respectueux, car attentifs au plaisir de l'autre. Ce modèleconçoit un couple inventif, complice au sein duquel la domination masculineest de l'ordre du fantasme partagé, et non un rapport social de sexe entreun homme potentiellement violent et une femme potentiellement victime. Et siles scènes sensuelles se répètent tout au long du récit, elles varient surles scénarii et les lieux (de la chambre à coucher aux lieux publics). Lelangage est également plus cru, les dialogues plus épicés. L'héroïne prendfréquemment l'initiative avec son amant, qui souvent est une connaissance delongue date (ami personnel ou d'un membre de la famille). Ils multiplientensemble les expériences et rôles sensuels, empruntant des situationsclassiques dans la littérature érotique (le ou la voyeur(se), l'inconnu(e )masqué(e), les lieux publics et la peur d' être surpris(e) en plein ébats). Notre étude montre que si les différentes collections Harlequin dessinent desidentités masculines à définition variable, celles -ci ne remettent pasfondamentalement en cause la matrice hétérosexuelle à partir de laquelle seconstruisent les rapports sociaux de sexe. De même, ces discours renforcent, enla naturalisant, une vision politique des rapports de séduction qui exclut à lafois la mixité ethnique, les identités genrées construites en dehors du cadrehétérosexiste et phallocentrique. On peut donc supposer que ces variationséditoriales sont avant tout pensées dans le cadre de politiques commerciales et ,qu' à ce titre, elles intègrent les évolutions sociales et les reconfigurationsréelles ou supposées par les producteurs des identités genrées, des relationsamoureuses entre les hommes et les femmes. Toutefois, ces incorporations nedéstabilisent pas « le cadre conceptuel d'une opposition universelle entre lessexes (la femme comme différence de l'homme, tous deux universalisés; ou lafemme comme étant la différence tout court et donc universalisée aussi) qui renddifficile pour ne pas dire impossible, d'articuler les différences qui existententre les femmes ou, plus exactement peut-être, les différences qui existent àl'intérieur de chaque femme » (De Lauretis, 2007 : 39). En fait, les variations proposées des identités genrées dans les romans Harlequinse révèlent des clôtures, des moyens de régulation et de contrôle, mais aussides cadres à partir desquels construire des formes d'expression des relationsentre les individus. En ce sens, ils participent, en tant que « technologiesociale » (ibid. : 40), à l'existence d'un dispositifdispersé de construction de savoirs sur le sexe, « en termes non de répressionou de loi, mais de pouvoir » (Foucault, 1976 : 121). Ainsi arrive -t-il aux hérosd'exprimer des faiblesses, des doutes, des fêlures, parfois même un manque deconfiance en soi dans son rapport aux femmes, avec, là encore, des nuancesdiscursives selon les collections. Une rhétorique émotionnelle masculines'élabore aussi, rendue visible par des attitudes, des postures face auxsituations rencontrées : cynisme, dureté, incompréhension ou d'incrédulitévis-à-vis des émotions éprouvées, balbutiements, hésitations verbales ougestuelles. Elles racontent l'histoire d'un héros qui, habitué à maîtriser sesémotions, à contrôler ses réactions, et parfois à imposer ses volontés auxautres, perd dans un premier temps ses repères et ses moyens face à l'irruptionde l'amour. L'amour est donc d'abord envisagé par la figure masculine comme un chaos, unaffaiblissement de sa puissance, menaçant sa masculinité, dans la mesure où pourcheminer vers l'acceptation et la réalisation de l'amour fusionnel, il doitrenoncer à certains privilèges qu'il pense constitutifs de son identité genrée( la polygamie, la réserve émotionnelle. ..). Ce cheminement vers le couplenécessite une déconstruction préalable (mais partielle) de son habitus, unerévision de certaines de ses dispositions (de pensée et d'action), acquises lorsde ses expériences, de ses socialisations antérieures. Le héros doit en quelquesorte s'émanciper au même titre que l'héroïne de toutes les entravessusceptibles d'empêcher la réalisation de la quête amoureuse. Dans son cas, ildoit cesser de « s'auto-suffire », sortir de son fonctionnement émotionnelautarcique sans pour autant perdre sa puissance sociale et sa capacité àsusciter le désir féminin. Mais, au final, ces apprentissages ne transformentfondamentalement ni son ethos qui correspond en tous points à l'idéal de lamasculinité hégémonique (Connell, Messerschmidt, 2005), ni l'idéologie amoureusecontemporaine d'un point de vue féminin, basée sur les normes du couple blanchétérosexuel, monogame, même si pas forcément endogame. On est loin ici de ladévaluation de la virilité repérée notamment par François de Singly (1993 : 59 )chez les hommes des classes moyennes et supérieures « les plus concernés par lesluttes autour de la question des sexes » .
Marchandises de la culture de masse, les romans sentimentaux appartiennent aux objets déclassés, aux mauvais genres, souvent méprisés par les tenants de la culture savante, dont la culture scientifique. Cet article a pour objectif l'analyse des représentations imaginaires de la ou des masculinité(s), développée(s) dans les romans Harlequin, en lien avec celle(s) de la ou des féminité(s), en s'appuyant notamment sur les travaux issus des gender studies. Sans nier le contexte socio-économique dans lequel ils sont fabriqués, ces produits ne sont pas assimilés à un tout uniformisé et uniformisant, sous prétexte qu'ils sont soumis à une production industrielle en séries, en lien avec une consommation de masse. Il s'agit plutôt, dans l'analyse des scripts culturels, de tenir compte des stratégies marketing de segmentation des publics mises en œuvre par l'instance de production, et réalisées au travers le développement de collections.
sciencesInfo_13-0090581_tei_1011.xml
termith-394-communication
Pendant la décennie qui s'est écoulée, je me suis préoccupé de ce problème d'ordregénéral : la relation entre l'internet et la démocratie. Plus précisément, j'aiétudié comment et à quel point les médias numériques facilitent la participation àla vie politique, comment ils favorisent l'engagement citoyen dans la vie publique .Comme on peut s'y attendre – et c'est une chance – je ne suis pas le seul à m' êtrelancé dans cette entreprise, et j'ai pu profiter d'amples retours de la part decollègues tandis que j'ai pu lire de nombreux travaux. À ce stade, on peut dire quele sujet « internet et démocratie » constitue en quelque sorte un sous-domaineinterdisciplinaire spécialisé qui intéresse quantité de chercheurs venus des étudesmédiatiques, de la communication politique, de la sociologie politique, voire desétudes culturelles. Bien entendu, en raison de cette activité de recherche provenant d'horizons variés dumonde académique et, dans certains cas, à partir de postulats différents, il ne sedessine pas un paysage sur ce sujet qui soit unique et unifié. En particulier ,différentes conceptions de la politique et des représentations variables de ladémocratie alimentent ces différences d'appréciation de la situation. Dans ce quisuit, je restituerai mon cheminement personnel, proposerai un panorama synthétiquetout en intégrant certains travaux significatifs produits par d'autres chercheurs .Si la participation citoyenne, sous quelque forme qu'elle prenne, peut se concevoircomme une institution, nous devons prendre en compte les contingences de cetteinstitution, que ce soient les circonstances immédiates et les modes de viesquotidiens au niveau individuel des personnes ou les configurations des structuressociales à un niveau plus large. C'est pourquoi je souligne l'importance desconditions socioculturelles modernes récentes pour pouvoir comprendre la démocratieet la participation et, dans ce contexte, la composante médiatique au premier chef .Toutefois, comme je le préconise, nous devons être modestes dans nos attentes quantà ce que le web peut apporter à la démocratie. J'ai publié assez régulièrement sur ce sujet. Une de mes contributions a été publiéeen fait dans la présente revue (Dahlgren 2003a) et on en trouvera une autre en lienavec celle -ci dans une autre publication (Dahlgren, 2003b). J'ai également renducompte de plusieurs écoles de pensée dans un ouvrage (Dahlgren, 2009) et dans deuxanthologies plus spécialement consacrées aux citoyens jeunes (Dahlgren, 2007 ;Olsson, Dahlgren, 2010). Un ouvrage moins volumineux, également sur les jeunes, esttout récemment paru en français (Dahlgren, 2012). Dans la présente contribution, jevais situer le web par rapport à un contexte de difficultés auxquelles la démocratieest confrontée. À partir de là, dans la deuxième partie, je passerai brièvement enrevue certains des éléments centraux qui départagent « optimistes » et« pessimistes » dans leurs débats par rapport à ce que le web peut apporter à ladémocratie. Dans la troisième partie, je mettrai en lumière un certain nombred'attributs propres à l'environnement du web et sa culture médiatique, en lesreliant au thème de la participation. La quatrième partie étudiera la logique enréseau de l'internet et son importance positive pour la démocratie, et offrira aussideux évolutions problématiques qui grèvent ce potentiel. La discussion en conclusionmettra l'accent sur la nature ambivalente du rôle démocratique du web. Depuis son apparition en tant que phénomène de masse au milieu des années 90 ,l'internet est entré dans les travaux de recherche et dans les débats en courssur la démocratie. Cette attention s'est intensifiée au fur et à mesure que sesdilemmes se sont approfondis. Sa vitalité et sa survie elle -même ne peuvent êtreconsidérées comme des évidences. Il s'agit d'un projet historique, traversé pardes contestations entre les forces qui cherchent à la limiter de diverses façonset celles qui tentent de la développer et de l'approfondir, particulièrement enaccroissant la participation des citoyens. Dans les démocraties occidentalescontemporaines, la politique de partis semble stagner, n' être que réactive ,terne, et nombre de citoyens estiment que l'on ne leur propose pas vraiment dechoix. Pour ce qui est de la participation politique, nous avons pu constaterune baisse régulière de la participation aux scrutins, de l'engagement dans lespartis, et même dans les actions de la société civile. On constate une montée duscepticisme, de la frustration et, disons -le, du cynisme envers la classepolitique. Toutefois, cette tirade sur le déclin de la participation politique se voitcontrée par d'autres tendances, pour la plupart hors du champ traditionnel de lapolitique partisane. Nous voyons émerger une extrême droite très activepolitiquement dans beaucoup de pays d'Europe, des mouvements qui ne mobilisentpas seulement contre l'immigration, mais expriment aussi les frustrations et lesentiment d'impuissance vécus par un grand nombre de personnes à l'extrémité laplus basse de la hiérarchie socio-économique. En revanche, on constate le retourd'un engagement à gauche, souvent sous la forme de mouvements sociauxprogressistes, non traditionnels, qui s'en prennent à la globalisationnéo-libérale et à l'inégalité socio-économique. Si les effectifs sont difficilesà mesurer, il faut reconnaître, cependant, que ces formes de participationcoïncident avec des minorités des segments statistiques du corps civique. Au mieux, la démocratie apparaît, tout au plus de manière inégale, suite à desluttes politiques. Il est rare qu'elle tombe comme un cadeau fait au peuple parles cercles au pouvoir, comme le rappellent les événements du Printemps arabe de2011. Aujourd'hui, les spécialistes universitaires, les journalistes, lepersonnel politique et les citoyens se demandent si la qualité démocratique deleurs sociétés peut être maintenue et comment. Mais ces personnalités sedemandent également de quelles manières on peut traiter nos déficitsdémocratiques. À cet égard, l'engagement politique représente un thème majeur .En effet, sans un niveau minimum d'engagement de la part de ses citoyens, ladémocratie perd sa légitimité, et cesse de fonctionner de manière authentique .Vu sous l'angle de l'environnement web, la question qui émerge est celle -ci :dans quelle mesure et comment les médias numériques contribuent-ils à faciliterla participation ? Commençons par examiner l'usage étendu du réseau et de ces technologiesaccessoires, comme la téléphonie mobile, dans la vie quotidienne. Une proportioncroissante de personnes passe de plus en plus de temps à satisfaire un éventailde besoins dans cet espace omniprésent qu'est le web. Le réseau n'est passimplement un emplacement que l'on visite occasionnellement pour y chercherquelque chose de particulier, il devient de plus en plus le terreau central dela vie quotidienne individuelle. Les jeunes sont particulièrement consommateursde ses outils, non seulement pour envoyer des messages parlés ou écrits, maisaussi pour télécharger, remixer, relier et partager des contenus divers, et ce ,avec des compétences d'une complexité de plus en plus accrue. Que ce soit pourinteragir sur des réseaux sociaux avec des amis, converser sur des blogs ,butiner de la musique ou des informations, faire ses courses ou trouver unpartenaire, le web est le principal lien avec le monde. Le réseau se mêle de lamanière la plus intime à la vie individuelle extérieure à ce dernier, tout commeau fonctionnement des groupes, des organisations et des institutions. Si le weboffre un environnement important pour la participation sociétale, il n'est guère– en particulier chez les plus jeunes – ressenti comme radicalement à part deleur vie en général. Toutefois, sur le plan sociologique, on peut avancer (voirsupra) que certaines fonctions sociales nécessitentaussi des éléments de rencontres in vivo, en face à face, pour pouvoir être reconnues. La démocratie enfait partie. Cette transformation spectaculaire du paysage médiatique comme de l'universsocial entraîne évidemment des conséquences pour la démocratie. Sur ce point, onvoit la visibilité des débats s'accélérer, avec ces champs de force del'optimisme et de pessimisme très proches de nous. Si certains observateurs( Benkler, 2006; Castells, 2010) soulignent l'effet globalement positif du websur la démocratie, des auteurs (Morozov, 2011) avancent que cet argument estsurfait, et que non seulement les technologies de l'internet ne contribuent pasà démocratiser le monde mais qu'elles sont aussi utilisées par des régimesautoritaires pour contrôler leurs citoyens et museler les oppositions. Vu sousl'angle cognitif, Nicholas Carr (2010) avance l'idée selon laquelle les médiasnumériques réduisent la capacité à penser, lire et se souvenir, rendant de faitproblématiques les fondements mêmes de la civilisation. Si de nombreux analystespartagent l'idée de Cass R. Sunstein (2008) voulant que la « sagesse desfoules » (telle qu'elle se concrétiserait dans Wikipédia et sur la blogosphère )produit démocratiquement des formes de connaissances nouvelles et améliorées ,d'autres comme Andrew Keen (2008) pointent du doigt les dangers du web 2,0participatif et affirment qu'il érode les valeurs, les normes et la créativité. Mais des observateurs soulignent également que l'utilisation du web à des finspolitiques est largement moins prioritaire que la consommation, les loisirs, lesliens sociaux. .. Par exemple, Mathew Hindman (2009) estime que seul 0,10 % dutrafic s'oriente vers les sites politiques (contre 10 % vers les sitespornographiques). Pour la majorité des personnes, les problèmes politiques nesont pas le sujet majeur de préoccupation, et si le web est un outilimpressionnant, il ne suffit pas à lui seul à mobiliser des citoyens qui neseraient pas enclins à s'engager. Il serait trop simple d'écarter ces analyses à tendance sceptique. En même temps ,la recherche a continué à souligner les potentialités qu'offre l'internet pourélargir et approfondir l'engagement démocratique. Si la politique continue àreprésenter un usage limité du réseau, son vaste univers de communicationfacilite son apparition dans les échanges en ligne. On peut même dire qu'elle y« fait irruption », spécialement sous ses nouvelles formes post-partisanes quise manifestent actuellement. L'environnement du web offre un large éventail deformes de participation politique qui adoptent différentes formules : sites webpour groupes d'activistes, forums de discussions et de débats, documentaires surdes manifestations et affrontements politiques mis en ligne sur YouTube. Quiaurait pensé, à leurs débuts, que Facebook et Twitter deviendraientd'importantes institutions de la scène publique, jouant un rôle dans les débatset la formation des opinions ? Certes, si l'incertitude demeure, nous pouvonstoutefois mettre en lumière un certain nombre de caractéristiques relatives aurôle du réseau dans la démocratie. Mais qu'en est-il de quelques thèmesessentiels relatifs à la participation démocratique via le web. Dans le contexte démocratique, traiter de la participation peut conduire à desproblématiques complexes (pour une approche théorique, voir Carpentier, 2011) .Par exemple, il peut être ardu de définir pleinement sur le plan conceptuel ouempirique à quel point les gens sont intégrés « aux médias » ou, plus largement ,à la société « via les médias », car les universmédiatiques et sociaux s'enchevêtrent bien au-delà d'eux -mêmes. La fonctionmédiatrice des premiers nous conduit à être liés à des réalités sociales quidépassent l'immédiateté géographique et temporelle (l'ici et/ou le maintenant) .L'intensité avec laquelle les personnes valorisent leur expérience des médiaspar rapport à celui qui les met en relation, restera une question ouverte, maisl'éclairage qui sera donné sur les motivations et les intentions desparticipants sera indicatif de ce qu'elles perçoivent comme essentiel. De façon plus significative, nous pouvons nous interroger sur ce qui importe dansla participation dite « politique », particulièrement dans une situation où lapolitique subit, comme aujourd'hui des changements importants comme lesoulignent de nombreux auteurs. Les jeunes citoyens peuvent développer lesentiment que le monde politique conventionnel ne les attire pas, ce qui ne veutpas pour autant dire qu'ils se détournent des questions politiques. Ceux quis'engagent recherchent souvent des points d'entrées dans les questions desociété, tout comme de nouvelles formes de pratiques et d'expression politiques ,et c'est à ce niveau que le réseau trouve toute sa raison d' être (Dahlgren, 2007; Olsson, Dahlgren, 2010; Bennett, 2007; Buckinghan, 2007). Leur engagementest davantage motivé par des préoccupations normatives personnelles (souventliées au développement de leur identité) que par les idéologies traditionnelles ,leur intérêt allant plus vers des questions précises plutôt que sur desproblèmes sociaux plus larges. S'il y a un certain danger à s'en tenir à unevision trop limitée de l'action politique, la contestation dans ce domaine( Mouffe, 2005) peut surgir n'importe quand et n'importe où et prendre des formesd'expression toujours plus nouvelles. La culture populaire n'est pas la dernière à se faire l'écho d'une dimensionpolitique et tend à se superposer sur la scène politique (voir Street, 1997 ;van Zoonen, 2006; Riegert, 2007). Elle peut exprimer des valeurs démocratiquesimportantes par son côté accessible et convivial, elle engage à laparticipation, ouvre facilement les portes vers des communautés symboliques ,vers un monde où l'on dépasse son appartenance individuelle. À certains moments ,ceci peut préparer à une participation citoyenne en offrant ce que Joke Hermes( 2005) désigne comme une « citoyenneté culturelle ». Sur le net, la culturepopulaire devient d'autant plus participative et interactive qu'elle propose dessujets et des moyens qui encouragent à s'engager envers de nombreuses questionscomme nos modes de vie et la société que nous voulons. Ce genre de débats permetd'aborder et d'élaborer différentes sortes de positions associées à des valeurs ,des normes et des identités qui se trouvent contestées dans les turbulences denotre environnement socioculturel post-moderne, même dans des moments où sontactualisés des conflits où une distinction d'identités entre des « nous » et des« eux » est possible. Il devient difficile de tracer des lignes de démarcation ,mais sur le plan conceptuel, on peut dire que ce terrain se situe en un endroitque Bernard Miège (2010) dénomme la scène publique sociétale, qu'il a distinguéede la scène publique plus officielle. Il en va de même du journalisme, domaine dont les frontières sont devenues moinsnettes. Le monde occidental connaît une « crise du journalisme » à grandeéchelle, question qui dépasse mon champ d'intervention ici (toutefois, pour unevision générale de la situation aux États-Unis, voir les rapports annuelsdisponibles sur stateofthemedia.org). Ce qui m'intéresse c'est le journalismecomme domaine en évolution et constitutif d'un terrain pour la participationcitoyenne, car de nombreux citoyens considèrent le journalisme comme leur modede participation. Ce que nous voyons apparaître est un univers hétérogène, forméen particulier par la blogosphère, mais aussi de médias sociaux comme Facebooket Twitter, de productions individuelles et de groupes, y compris les actionsentreprises par des mouvements sociaux et militants de tous bords : des groupespolitiques et religieux, les promoteurs de certains styles de vie, de certainspasse-temps, et bien d'autres cas encore. Voilà un bouillon de culturejournalistique extrêmement vivant et chaotique, où faits et opinionsinterviennent, des débats, des ragots, des absurdités, de la désinformation, duperspicace, du trompeur, du poétique, le tout mélangé. Souvent, il brouille lesfrontières traditionnelles entre la sphère publique et la vie privée, parfois àbon escient, d'autres fois moins. Toutefois, il y a là bien des aspectsencourageants sur le plan démocratique, et le ton parfois dithyrambique de biendes propos sur le journalisme participatif se justifie souvent. Cependant, le sociologue se doit de garder la tête froide dans l'étude de cesévolutions, car elles suscitent tant de questions (voir Papacharissi, 2009 ;Rosenberry, Burston, 2010; Tunney, Monaghan, 2010). Ainsi une bonne part dujournalisme citoyen fonctionne -t-il en symbiose avec les supports classiques ,quand bien même les commente -t-il et les conteste -t-il. Dans leur étude sur lejournalisme sur la blogosphère, Vincent Campbell, Rachel Gibson, Barrie Gunteret Maria Touri (2010) ont constaté que les blogueurs qui ne sont pas desjournalistes professionnels ne produisent que très rarement des informationsoriginales. Plus fondamentalement, quand les frontières du journalisme sebrouillent, les normes de sa pratique et ses critères d'évaluation deviennentpérilleuses à leur tour. Pour le journalisme participatif – que bien souvent lesconvictions d'une démocratie citoyenne alimentent davantage que des valeursprofessionnelles traditionnelles –, cela veut dire que des références usées parle temps comme la véracité, la transparence, l'équité et la responsabilitéposent problème. La question classique « à qui peut-on faire confiance » se pose avec encore plus d'intensité. La culture médiatique semble s'éloigner encore plus des idéaux que comportent lesreprésentations traditionnelles de l'espace public rationnel, alors qu'en mêmetemps, elle engendre de nouvelles pratiques et des modes d'expression que nousdevons prendre en compte. C'est ainsi que Leah A. Lievrouw (2011 : 214) décritpertinemment cette situation : « La culture médiatique à l'ère du numérique estdevenue plus individuelle, sceptique, ironique, périssable, idiosyncratique ,collaborative, et presque incroyablement, diversifiée. .. ». En réalité, ce quecette auteure restitue ici constitue une partie de ces textures définitives queprend la situation post-moderne, où s'entrecroisent des courants dans lesrelations de pouvoir et leurs sensibilités particulières, ainsi que leurstensions structurelles. C'est à l'aide de ces toiles de fond historiques quenous devons comprendre la participation, la politique et la citoyennetémédiatique. Cette analyse souligne l'interaction entre l'affordance propre auxtechnologies de la communication et les pratiques d'utilisation. Au niveau decette interface, les gens adaptent, réinventent, réorganisent ou reconstruisentles technologies des médias autant qu'il est nécessaire pour correspondre àleurs différentes objectifs ou intérêts. À mesure qu'ils innovent, lesutilisateurs associent anciennes et nouvelles techniques, ou adaptentdifféremment des combinaisons technologiques connues. Les nouveaux médias sontrecombinants, le résultat d'une hybridation de technologies existantes avec destechniques nouvelles (Lievrouw, 2011 : 216). Plus concrètement, cette approche permet de comprendre la pertinence despratiques citoyennes numériques dans ces ensembles participatifs. En effet, ceque les gens font bel et bien grâce au web prend de l'importance pour laparticipation, et leurs actions sont sans cesse dans la nouveauté. À leur tour ,ces pratiques engendrent une évolution progressive des espaces publics. Lespratiques s'instaurent en tant que moyens où peut puiser la nouvelleparticipation. Si le côté strict de la théorie discursive habermassienne estfréquemment marginalisé, on peut cependant avancer que ces évolutions produisentdes modes de communication contemporains qui sont plus au diapason avec lestempéraments culturels en vogue, et donc facilitent d'autant plus l'expressionet la formation de l'opinion publique. Pourtant, à ces postulats s'ajoute sansaucun doute à ce que l'on pourrait appeler une « volatilité communicationnelle »qui recèle autant de promesses que de pièges. Ici, en changeant de focale, nous pouvons dire que la participation politique, entant que phénomène collectif plus que purement individuel, nécessite des réseauxsociaux et contribue à la vitalité de l'espace public. En sciences sociales ,l'idée des réseaux sociaux ne date pas d'hier; elle a été le centre d'intérêtde nombreux travaux de recherche dans les décennies passées. Dans le contexte del'internet, depuis les années 90, les travaux de Manuel Castells (2000) jouentbien entendu un rôle important (voir aussi Cardosa, 2006). Ce dernier avance quel' « espace des flux » de la société en réseaux émergente remplace l'organisationspatiale qui donnait forme à notre expérience, l' « espace des lieux », et quecette logique transparaît dans de nombreux secteurs, y compris l'architectureurbaine. L'internet représente bien sûr la part la plus emblématique de cetteévolution. Le lieu en tant que tel n'a pas été éradiqué, et nous continuons àvivre nos existences par rapport à des lieux géographiques précis. Mais lafonctionnalité des relations sociales fondées et appuyées sur la médiation desréseaux devient de plus en plus centrale. Dans ses travaux récents, ManuelCastells (2010) propose un renouvellement du concept, notamment compte tenud'une exploitation accrue de sa part de la littérature scientifique issue desétudes médiatiques et de la communication. Les réseaux se caractérisent souvent par le côté libre des liens sociaux ,relativement faciles à créer et entendus comme ayant des limites définies entermes d'obligation. Ce type de liens est un avantage pour la culturedémocratique, étant donné qu'ils reproduisent les relations entre citoyens dansl'espace public, c'est-à-dire une coopération fondée sur la confiance dans lecadre d'objectifs communs, mais sans les exigences des relations primaires .L'idée que les réseaux soient une morphologie sociale dominante gagne du terrainen ce qu'elle représente un point de vue utile pour comprendre le monde moderne ,et il importe de souligner les avantages sociaux des réseaux. Ils permettentd'éviter les handicaps créés par l'isolement, favorisent le développement social( et politique), forgent les identités collectives, inspirent et permettentd'imaginer des solutions de remplacement. Nancy K. Baym (2010) analyse en détailla manière dont les médias numériques – par leur influence et leurs capacitésinteractives, les modalités de leurs signaux sociaux, leur structure temporelle ,leur mobilité et autres caractéristiques – contribuent à faciliter les relationssociales. Voilà un trait significatif en soi, mais j'inclinerais aussi àsouligner que cette lubrification du social est également essentielle pour quele politique fasse son apparition dans les réseaux sociaux. Bref, on pourraitdire que les médias numériques favorisent une sensation d'autonomie au niveausubjectif, un meilleur sens des responsabilités dans la communicationhorizontale en réseaux. Cependant, cette logique est mise en cause sur deux fronts au moins. Pourcommencer, il y a cette notion connue des chambres d'écho, et ensuite ce quej'appelle les « sphères solo ». Très tôt, les commentateurs ont élaborél'expression de « chambres d'écho » pour désigner la tendance des personnes à seregrouper à l'intérieur de réseaux par communautés d'opinions. Il s'agit d'unschéma de comportement humain compréhensible : on évite les confits et renforceses visions du monde et ses valeurs. Cela prend tout son sens sur le plansocial. Mais si l'on transpose cette tendance dans le contexte des réseaux, onconstate un danger pour la démocratie, car ces mini-espaces publics tendent àisoler leurs membres des plus grands courants de débats qui animent le champsociopolitique. De plus, chez leurs participants, ils réduisent leur expérienceà un niveau limité de confrontation à d'autres points de vue ainsi que leurcompétence à prendre part à des conflits d'idées. La dimension du dialogue dansl'espace public s'amenuise quand des groupes politiques se jettent desinvectives à la figure, sans jamais s'engager dans un débat ou développer unecapacité pour la délibération citoyenne. Cette évolution se renforce avec lesmédias sociaux où la logique absolue est le « j'aime ça » : autrement dit, onclique pour les gens qu'on « aime », c'est-à-dire qui sont comme soi -même. Lesdifférences sont exfiltrées, phénomène dommageable pour l'intelligence commepour la démocratie dans son fonctionnement, construite pour la résolution desconflits par la discussion. J'emploie le terme de solosphère pour décrire un processus individualiséd'engagement politique sur le web. Dans l'univers postmoderne, on trouve enligne des masses de présentations personnelles, un « travail d'identité »induisant une visibilité personnelle, de l'autopromotion et une révélation de sapetite personne. Cela présente un certain nombre d'avantages, mais soulève aussides problèmes. Des médias sociaux comme Facebook sont devenus des sitesfortement interactifs qui ne visent pas nécessairement les rencontres en dehorsdu réseau, un modèle qui commence à se faire sentir dans la participationpolitique. Pour le long terme, il faut qu'existent des liens entre les vécus enligne et hors ligne. Zizi Papacharissi (2010) énonce que si les citoyens versésdans le numérique sont certes plus compétents et critiques sous bien desaspects, toutefois, ils sont de plus en plus éloignés des habitudes collectives ,sociales et citoyennes du passé. C'est pourquoi aujourd'hui une bonne partie du comportement citoyen tire sesorigines des milieux privés, et elle suggère que ce phénomène donne naissance àde nouveaux « dialectes citoyens ». On peut considérer solosphères comme unhabitus historiquement nouveau de la participation en ligne, un autre mode deresponsabilité citoyenne. À partir de ses compartiments sur le réseau, souventsur mobile, de son espace personnalisé, la personne est impliquée dans un largeéventail d'environnements dans le monde extérieur. Dans un certain sens, cephénomène peut signer un retrait dans un environnement que la plupart des gens al'impression de mieux maîtriser. Une « socialité en réseau » mais néanmoinsprivée apparaît. Dans la mesure où cela serait vrai, cela peut se comprendretout en introduisant une urgence historiquement neuve envers la participation ,ce qui, à son tour, peut préfigurer une forme historiquement neuve du systèmedémocratique. La question apparemment simple sur le fait que et la manière dont le web facilitela participation chez les citoyens ne suscite pas de réponse univoque, uneambiguïté demeure. À ce niveau, il n'existe pas de lien direct de « cause àeffet », ceux qui pensent que « le réseau va sauver la démocratie » sont peunombreux. Toutefois, si la recherche a été prudente en général, dans le sens oùil n'est pas été offert de belles solutions technologiques pour les difficultésde la démocratie, elle a cependant continué de souligner l'idée que l'internetpeut faire la différence. En contribuant aux transformations massives de lasociété contemporaine à tous les niveaux, il a aussi changé spectaculairementles emplacements et l'infrastructure de l'espace public de quantité de manières .Il a rendu accessibles d'immenses masses d'informations, encouragé ladécentralisation et la diversité, facilité la communication interactive etindividuelle, ainsi que favorisé de nouvelles pratiques citoyennes – tout enfournissant, notamment, un espace de communication citoyenne pratiquementillimité à qui le souhaite. Ce faisant, l'environnement web a redéfini les lieuxet le caractère de la communication politique. Il paraît justifié de caresser demodestes espoirs .
Ici, la principale préoccupation est le rôle d'internet dans la participation des citoyens à la démocratie. En particulier, ce qui concerne le web en tant qu'environnement de plus en plus intégré au quotidien. Il s'agit d'abord de situer le web dans le contexte troublé de la démocratie contemporaine. Ensuite, sont retracés plusieurs points clés du débat opposant optimistes et pessimistes au sujet de ce que le web peut faire à la démocratie, avant que ne soit pointé un certain nombre de caractères relatifs à l'environnement web et à la culture des médias, le tout en lien avec thème de la participation. Quant à la dernière section, elle tente de revenir sur la logique de réseau et sa signification positive en termes de participation, offre à cet égard deux tendances problématiques entravant ce potentiel. La discussion finale accentue le caractère ambivalent de rôle démocratique du web, et l'importance de l'analyser dans des contextes spécifiques.
sciencesInfo_13-0090578_tei_1014.xml
termith-395-communication
Cet article a pour objectif de rendre compte d'un programme de recherche-action, mené par différents chercheurs 1 du laboratoire Tech-CICO (technologie de la coopération pour l'innovation et le changement organisationnel) de l'université de Technologie de Troyes. Ce programme de recherche, qui a duré deux ans, avait pour finalité de concevoir un service NTIC favorisant la coopération entre différentes entreprises de la filière textile en Champagne Ardenne. Ce programme et les réalisations d'outils informatiques qui devaient en découler avaient aussi pour ambition de proposer des solutions permettant de redynamiser la filière textile par l'introduction de mécanismes de coopération entre les acteurs de cette filière. Si l'objectif final était bien une réalisation informatique (de type WebEDI) et une mise en œuvre du dispositif dans la filière, ce programme avait aussi l'intérêt scientifique de contribuer à une réflexion de nature méthodologique sur la nécessité d'une approche interdisciplinaire dans la conduite des projets NTIC (Boughzala et al., 2001). L'hypothèse était que l'observation du terrain par différents chercheurs en sciences humaines devait permettre d'identifier les résistances potentielles et les facteurs d'échec à l'introduction d'un outil de coopération, afin de « réinjecter » ces résultats d'observation dans la stratégie de conduite du projet adoptée par le chef de projet informatique chargé de la réalisation finale. Ainsi, l'analyse conversationnelle des réunions de travail avait pour but d'identifier les points d'accord, de désaccord et de négociations entre les partenaires du projet. Cette expérimentation a porté sur un type d'échange spécifique de documents numériques entre acteurs de la filière : les échanges entre tricoteur et teinturier. En effet, après avoir effectué la modélisation de l'organisation de la filière dans son ensemble, les chercheurs ont porté leur attention sur un type particulier d'activité coopérative – la relation teinturier/tricoteur – relation mettant en jeu des flux documentaires et des flux physiques qui ont été modélisés. Dans cet article, nous présenterons dans un premier temps la filière textile et le contexte du projet. Ensuite, nous présenterons une modélisation des échanges de documents selon la démarche MeDICIS, une méthode de conception de systèmes d'information coopératifs interentreprises (SICI) (Boughzala, 2001). Nous décrirons l'outil WebEDI d'aide à la coopération pour l'échange de documents numériques interentreprises dans ses deux versions. Enfin, nous montrerons, à partir d'un exemple, comment l'analyse conversationnelle des réunions de travail entre partenaires de ce projet a apporté des résultats utiles pour sa conduite et pour la réalisation finale. La filière textile en Champagne-Ardenne est spécialisée dans la technique de la maille (bonneterie et métiers associés), avec des entreprises telles que Devanlay (Lacoste), Doré-Doré (DD) ou Petit Bateau. Localisée géographiquement sur quatre départements, elle compte environ 280 entreprises et emploie aujourd'hui 13 000 salariés (emplois généralement peu qualifiés). Les acteurs sur lesquels se focalise notre étude sont les donneurs d'ordre (DO), les tricoteurs et les teinturiers (ST). La spécificité de cette filière est, entre autres, qu'elle connaît aujourd'hui une situation difficile (Abécassis et al., 1998) : le contexte concurrentiel est extrêmement vif, fondé sur une sévère logique de prix (coût, de qualité de fabrication/livraison) qu'imposent les DO à leurs ST, qui explique le choix des DO pour la délocalisation de toute ou grande partie de la production vers les pays à bas salaire. Différentes raisons expliquent que les ST locaux parviennent difficilement à relever le défi imposé par la concurrence mondiale : un contexte socio-économique micro et macro délicat, des entreprises peu capitalistiques et de taille très petite (20 personnes en moyenne), enfin une absence d'esprit de coopération marquée. L'étude des possibilités de redynamisation à travers les innovations organisationnelles constitue donc un enjeu important. Des voies de redynamisation de la filière textile étudiée existent (Boughzala et al., 2000) : innovation produit (utilisation de tissus spéciaux pour certains secteurs tels que la médecine, l'automobile, etc.) : innovation métier; innovation process (meilleure coordination intra ou interentreprises pour offrir un service plus rapide et/ou de meilleure qualité) : meilleure façon de faire ou meilleure réactivité. Ces évolutions requièrent de nouvelles pratiques coopératives et trois types peuvent être envisagés : en faveur de l'innovation produit, en faveur de la coordination d'une offre globale, en faveur d'une coopération dite de capacité. Il est évident que pour faire face à la situation délicate de cette filière, la coopération (comme par l'échange de données informatisé; Charmot, 1998) entre sous-traitants paraît une solution indéniable pour survivre, pourtant les relations entre ST sont plutôt rares. Il existe peu de relations d'affaire entre ST puisque ce sont les DO qui gèrent et contrôlent les différentes étapes de fabrication. Pourtant, la place de Troyes étant un petit milieu, tous les ST se connaissent, se rencontrent et communiquent. Ces relations semblent pourtant bien fragiles : cloisonnement, critique des uns et des autres, difficultés de coopérer dans des regroupements, peu d'entraide, esprit d'espionnage, etc. C'est pour mieux saisir ces relations interpersonnelles et leur incidence sur les pratiques coopératives que nous avons introduit dans notre méthodologie l'analyse des conversations entre partenaires du projet. Ce projet s'inscrit dans le cadre d'un contrat de recherche avec France Telecom. Il a été commandité par la direction des Services aux entreprises une maîtrise d'ouvrage pluridisciplinaire formée par des informaticiens, des gestionnaires, des sociologues et des linguistes de la communication. Les informaticiens avaient en charge de proposer et de concevoir de nouveaux services techniques innovants au sein du groupe FT, et donc, leur l'intérêt était axé plutôt sur la modélisation des relations interentreprises et sur la proposition de nouveaux outils. Les gestionnaires et sociologues s'intéressaient aux relations entre entreprises et acteurs de la filière et aux usages des actuels et futurs outils relevant des TIC (notamment du groupware et commerce électronique) conçus dans le cadre du projet. Enfin, la contribution des pragma-linguistes entrait dans une logique d'accompagnement de projet; l'analyse des conversations entre partenaires du projet avait pour utilité d'expliciter les relations interpersonnelles entre ces partenaires et leur conséquence sur la conduite de projet et la réalisation finale. Cette partie permettra à la fois de présenter la réalisation de l'outil informatique commandé et de montrer la manière dont le chef de projet informatique a pu utiliser les résultats des recherches opérées par les chercheurs en sciences humaines et sociales. Pour proposer des services technologiques innovants et adaptés aux besoins des entreprises de la filière textile, nous avons commencé par étudier les processus de cette filière, pour pouvoir ensuite développer des outils informatiques, en suivant les étapes de la démarche MeDICIS (pour Methodology for Designing Interenterprise Cooperative Information System, Boughzala, 2001). la méthode de conception des systèmes d'information coopératifs interentreprises est un cadre méthodologique qui a pour but de guider la conception des mécanismes de coopération interagents. Elle vise, dans un premier temps, à analyser puis modéliser les processus coopératifs interentreprises et spécifier des solutions informatiques adaptées aux besoins et aux contraintes de la coopération afin de pouvoir dans un second temps gérer les connaissances utilisées et générées de cette coopération. Cette démarche consiste en un niveau macro, à modéliser la coopération interentreprises dans un cadre d'affaire global. Un niveau micro vient affiner la modélisation; on modélise d'une part, le déroulement de la coopération pour décrire le processus de coopération et d'autre part, les caractéristiques des agents impliqués dans la coopération (représentant des entreprises). Une fois qu'on a déterminé les caractéristiques de l'agent, on modélise le processus de coopération des différents agents à travers les trois niveaux de profondeur de la coopération qui correspondent aux trois formes du SICI, auxquels on associe trois modèles : modèle de communication, de coordination, et de résolution de problèmes. Le choix des ces modèles est fait en fonction des types d'intégration interentreprises (intégration par les données, les processus ou les connaissances). Les éléments de MeDICIS correspondent à l'ensemble des modèles suivants : Au niveau macro : le modèle d'affaire donne le cadre général de l'affaire, sa structure et sa dynamique, le contrat, les participants, leurs ressources, services et produits, et permet une vue générale de la répartition des tâches entre les agents partenaires; Au niveau micro : le modèle d'agent décrit les différents types d'agents, leurs caractéristiques et leurs relations; le modèle de coopération permet de comprendre les processus induits par l'affaire; le modèle de communication spécifie la communication mise ou à mettre en place, les interlocuteurs, les messages échangés, le contexte, le canal, etc.; le modèle de coordination détermine le déroulement de la coordination des activités entre agents, leurs rôles, les ressources nécessaires, les flux d'entrée et de sortie, etc.; le modèle RCP : permet de décrire la réalisation des tâches dans la résolution d'un problème particulier. Le tableau en page suivante récapitule les modèles de la méthode MeDICIS, les éléments UML (Rumbaugh et al., 1999) et MASK (Ermine, 2001) qui les composent ainsi que la correspondance entre les niveaux d'intégration interentreprises, les types de SICI et les technologies à déployer. Au niveau des spécifications nous faisons appel à la linguistique pragmatique pour bénéficier de l'analyse conversationnelle de réunions de travail entre partenaires du projet, permettant ainsi d'analyser finement le jeu relationnel interpartenaires comme mode d'intervention dans la conduite du projet et la spécification adéquate des outils informatiques (partage ou non-partage des représentations et de langages communs, par exemple dans la définition des messages échangés et des procédures de travail, voir section 4 de l'article). Une fois que l'outil d'aide de coopération est spécifié, développé puis mis en place, nous procédons à l'observation de ses usages dans un contexte réel pour analyser les jeux d'acteurs et son impact dans la facilitation de la coopération dans l'activité pour laquelle il était développé. Après avoir analysé les relations au niveau macro, nous nous sommes focalisés au niveau micro sur la relation entre un tricoteur et un teinturier et nous avons identifié différents scénarii de travail coopératif par rapport à l'activité du tricoteur. Le résultat de cette analyse (Boughzala, 2001) nous a conduit à conclure que les deux partenaires teinturier et tricoteurs sont intégrés par les données, c'est pourquoi l'outil nécessaire à cette relation relève des outils appartenant au SI de communication. L'outil que nous avons spécifié et développé est un outil de type WebEDI d'échange de documents informatisé basé sur internet (plus évolué et moins contraignant qu'un EDI traditionnel, Charmot, 1998) qui permet à ces deux partenaires d'échanger des données commerciales et techniques entre leurs systèmes d'information (bordereau de remise d'écru, de remise en teinture, de livraison, etc.). L'analyse pragmatique et linguistique des réunions de spécifications des bordereaux nous a permis de sélectionner les interprétations que pouvait faire un informaticien des besoins de deux partenaires. Au niveau macro, nous avons modélisé les modes de fonctionnement et les processus de coopération au sein de la filière textile, et catégorisé les métiers des agents et leurs relations. Cet exemple de cas d'utilisation au niveau du modèle d'affaire représente le cas le plus classique de coopération dans la filière. Lorsqu'un donneur d'ordre (ici un distributeur) a un besoin, il confie sa commande de produits finis à un confectionneur. Ce dernier prend alors en charge toutes les opérations qui précédent la phase de confection. Il contacte pour cela un tricoteur, un teinturier et/ou un imprimeur. C'est le tricoteur qui s'occupe de l'opération amont qu'est la filature, le filateur sollicité commandant lui -même les matières premières qui lui sont nécessaires. Dans ce type de transaction le donneur d'ordre ne contrôle pas les différentes étapes de fabrication de ses produits et ne contrôle donc qu'indirectement la qualité. De plus en plus fréquemment, les donneurs d'ordre souhaitent superviser l'ensemble des opérations d'élaboration de leurs produits. Ceci confirme notre hypothèse de revoir les modes de coopération dans cette filière en proposant un modèle d'entreprise étendue. Au niveau micro, puisque nous sommes dans le cas où les entreprises sont intégrés par les données, nous utiliserons le modèle de communication de MeDICIS. Ce modèle peut très bien s'adapter à ce cadre de relation (malgré le fait que les agents ne soient pas partenaires membres d'une entreprise étendue). Le diagramme de classes à ce niveau (cf. figure 2) permet de représenter la structure spatiale de la communication. Il décrit l'échange de documents entre le tricoteur et le teinturier. Par rapport aux objets de notre diagramme, l'extension suivante permet de matérialiser cet échange. agent émetteur/ agent récepteur : le teinturier et le tricoteur, prennent tous les deux à la fois le rôle d'émetteur et de récepteur; agent superviseur : est dans ce cas l'hébergeur de l'application WebEDI (Tech-CICO représenté par l'administrateur de l'outil WebEDI) qui s'assure du bon déroulement des échanges; agent observateur est dans ce cas inexistant puisque dans cette activité de vente de tissu au mètre effectué par le tricoteur, ce dernier est en quelque sorte le donneur d'ordre. Dans d'autres cas, le donneur d'ordre peut être un confectionneur ou un distributeur qui prend le rôle de l'agent observateur puisqu'il veut être informé de l'évolution des étapes; objet de la communication représente l'acte de remise d'écru de la part du tricoteur à son partenaire teinturier; message : les messages échangés dans ce processus sont : bordereau de remise d'écru, bordereau de remise en teinture, bordereau de livraison (facture), Accusé de réception, Avis de mise à disposition, Commande de livraison; code : le code utilisé ici se base sur le type de message échangé compréhensible par les deux partenaires (format de message négocié au part avant). Le format des messages se base sur les spécifications EDIFACT; canal : le canal utilisé est l'extranet entre les deux partenaires; localisation : la localisation du message est l'application WebEDI hébergée sur le serveur du laboratoire Tech-cico (serveur Notes). Le diagramme de séquence ci-après nous permet de décrire la chronologie des échanges : Explication du diagramme de séquence à travers un scénario Vente de tissu au mètre par le tricoteur à un client non prédéfini : Les écrus tricotés chez le tricoteur sont envoyés au teinturier, le document Bordereau de remise d'écru formalise cet échange. Le document Bordereau de remise en teinture (appelé aussi Bordereau de désignation) permet au tricoteur de désigner les écrus à teindre (précision de la couleur et du nombre de pièces). Une fois que les traitements sont effectués, le teinturier envoie un avis de mise à disposition au tricoteur pour lui signaler que son lot est prêt à livrer. Dès que le tricoteur décide de se faire livrer ses pièces teintées et stockées chez le teinturier (suite à la commande du client), il lui envoie une commande de livraison. En réponse à cette commande, le teinturier lui envoie un Bordereau de livraison en indiquant le métrage final des pièces. Les pièces sont livrées à l'adresse que le tricoteur lui indiquera à la commande. Dans ce cas c'est le client qui est facturé. Ce modèle de communication sera la base de la première version de l'outil WebEDI entre teinturier et tricoteur. Durant l'avancement du projet, les paramètres de la relation ont changé avec l'introduction d'un troisième élément : le confectionneur. Ce cas de figure fera l'objet d'une deuxième version de l'outil WebEDI. Avant de proposer les deux versions, nous ajoutons les changements sur le modèle de communication pour la deuxième version du WebEDI. Dans le diagramme de classes, on ajoute la présence de l'agent observateur : le confectionneur. Lors de l'envoi du bordereau de remise d'écru du tricoteur vers le teinturier, le confectionneur est informé par copie de ce bordereau, il prend donc le rôle d'agent observateur dans ce processus de communication. Dans ce même processus le confectionneur peut changer de rôle : émetteur pour activer la commande ou encore récepteur quand il reçoit le bordereau de livraison et la facture de la part du teinturier. Nous proposerons une première version adaptée au scénario mettant en relation deux partenaires et une deuxième version tenant compte du confectionneur. L'outil WebEDI (Boughzala et al., 1999) proposé à la suite de notre modélisation permet aux deux partenaires d'échanger des documents commerciaux et techniques entre leurs SI. Plusieurs scénarios sont envisageables dans la relation teinturier/tricoteur. Cette application est développée pour supporter le scénario d'échange de données dans le cas de la vente de tissu au mètre effectuée par le tricoteur. L'audit réalisé chez les deux partenaires a permis d'identifier trois documents échangés que l'application doit pouvoir traiter : le bordereau de remise d'écrus, le bordereau de remise en teinture et le bordereau de livraison (cf. figure 3). Au moment de notre audit, ces bordereaux étaient échangés par fax et les informations transmises étaient ressaisies manuellement dans le système de Gestion de production assisté par ordinateur (GPAO) des différents partenaires. Ce système n'est pas satisfaisant vu la perte de temps causée par la resaisie des bordereaux. De plus, le système de GPAO du tricoteur est capable de générer un fichier texte correspondant aux différents bordereaux qu'il envoie et la GPAO réceptrice est capable de le traiter. L'outil que nous proposons permet de faire la même chose pour le teinturier, en intégrant automatiquement le fichier texte dans son système d'information. Notre application sera ainsi une interface entre la GPAO de tricoteur et celle du teinturier, de façon transparente pour les deux partenaires. Cette application est une base Lotus Notes, hébergée sur le serveur du laboratoire Tech-CICO. Le teinturier et le tricoteur possèdent des répliques de cette base sur leurs clients Notes. Ils enverront leurs données par l'intermédiaire de ce serveur. Nous associons un diagramme de déploiement pour schématiser cette architecture et décrire ses éléments matériels. Ce système d'échanges de données informatisées s'appuie principalement sur le mécanisme de réplication des bases Notes. Le tricoteur possède une réplique de la base se trouvant sur le serveur. Cette base locale est capable de convertir les fichiers textes (remise d'écrus et remise en teinture) générés par la GPAO du tricoteur en bordereaux correspondants. Ces fichiers textes sont donc convertis en document Notes regroupés dans des vues. Régulièrement, des réplications sont effectuées entre la base locale de tricoteur et la base principale se trouvant sur le serveur de sorte à mettre celle -ci à jour. De l'autre côté, le mécanisme est le même, le teinturier possède sa propre base en local et la réplique régulièrement avec celle se trouvant sur le serveur principal. Les répliques se font de manière automatique et sont planifiées. Un traducteur EDIFACT standard sera mis en place au cas où les partenaires ne seraient pas capables de générer des fichiers normalisés et surtout au cas où ils décideraient d'intégrer d'autres partenaires dans leur processus d'échange. Le diagramme de composants nous permet de donner une vue globale de l'ensemble des composants logiciels de l'application pour comprendre par la suite son fonctionnement. Nous choisissons de détailler seulement les deux modules d'inscription et de remise d'écru. Chaque module est représenté par un package (notation UML). Le principe d'échange est le même et repose sur le modèle de communication dans sa deuxième version. Une des améliorations apportées à cette deuxième version du WebEDI concerne l'accès. Les partenaires dans cette version peuvent y accéder via un navigateur standard Internet (Netscape, internet Explorer, etc.). L'outil que nous avons conçu dans la première version s'appliquait à une relation entre seulement deux partenaires (teinturier/tricoteur). Cette deuxième version permet ' étendre son application à plusieurs partenaires (pour le moment la relation tricoteur/teinturier/confectionneur). Dans une perspective finale, cet outil sera utilisé par des partenaires regroupés en plusieurs groupes d'affaire, qui constituent ainsi des groupes d'affaire dans l'entreprise étendue formés autour d'une ou plusieurs affaires. Parmi les règles de gestion de cette nouvelle version, nous citons : un partenaire peut appartenir à plusieurs groupes d'affaire; ses documents sont alors classés suivant le groupe auquel il accède; un document échangé est un fichier en format XML qui respecte la norme EDIFACT; un partenaire peut être national ou étranger (ses documents passent par le traducteur EDIFACT avant d' être affichés); un partenaire national peut être équipé ou non d'une station EDI classique. Les documents de celui qui est équipé d'une station EDI passent par le traducteur EDIFACT, ses fichiers envoyés étant codés; un partenaire a un rôle dans le groupe d'affaire dépendant de son métier et du processus de communication de l'activité de ce groupe; un groupe d'affaire peut être formé de plusieurs partenaires du même métier (par exemple deux teinturiers dans un même groupe d'affaire). Cette partie aura pour but de montrer l'apport que peut constituer une intervention de chercheurs en sciences humaines pour la conduite de projet NTIC. La modélisation des flux de données entre tricoteur et teinturier présentée précédemment a par nature un niveau très élevé d'abstraction. Le risque est alors de passer à côté de la dimension contextuelle des échanges (économique, stratégique, sociale, interpersonnelle). Dans cette partie, nous aborderons un aspect de ce contexte d'échanges : la relation interpersonnelle entre les acteurs du projet. Nous présenterons les résultats d'une analyse conversationnelle permettant de rendre plus lisible l'importance de cette dimension interpersonnelle et des conséquences qu'elle peut avoir sur la conduite du projet. La mise en place d'un EDI pour favoriser un fonctionnement en entreprise étendue ou, au moins, pour générer des formes de coopération interentreprises, pose le problème des relations entre ces entreprises et, dans une logique de conduite de projet, entre les individus qui les incarnent. La littérature sur le sujet décrit de manière prototypique le type de relation entre partenaires pour favoriser la coopération. On parle de coopération horizontale (Alban, 1996) pour désigner ce mode de relation, qui sera idéalement fondée sur une relation de confiance entre partenaires (Puthod, 1999), construite à partir d'un comportement d'entraide, de réciprocité, des valeurs partagées et sur la base d'une vision commune entre les partenaires (Aubrey, 1991). Tapscott et Caston (1995), catégorisant les attributs-clés de l'entreprise étendue, mettent en avant les objectifs partagés, les décisions prises en commun ou, une fois de plus, la confiance réciproque. De manière idéale, une entreprise étendue implique une relation relativement égalitaire entre ces différentes composantes (à l'inverse de la relation donneur d'ordres/sous-traitant) ou, au moins, un nombre important d'accords nécessaires entre les partenaires et un évitement aussi systématique que possible des situations conflictuelles. En d'autres termes, on retrouve les deux dimensions assez classiques d'un échange : le contenu et la relation. Il est évident que la collaboration interentreprises renvoie forcément à des questions de relation entre entreprises et entre les individus qui les incarnent au cours du projet : qui occupe quelle place ? Qui est dominant ? Qui est dominé ? De même, la dimension conflictuelle des échanges risque de nuire à la capacité de mettre en place un système coopératif, dans notre cas, un WebEDI. Par exemple, la découverte d'une relation haut-bas entre des partenaires théoriquement en positions d'égalité (deux ST) a incité le chef de projet à accorder la plus grande importance au rôle de l'Agent Superviseur (qui devient un Agent Coopérateur, voir Boughzala, 2002, p. 100-103), permettant de préserver la coopération entre des acteurs n'étant pas nécessairement en position de coopérer. Pour tenter d'apporter des réponses à ces questions en se situant à un niveau de micro-analyse, nous avons procédé à l'analyse conversationnelle de réunions de travail entre partenaires du projet WebEDI, afin de mettre en évidence les points d'accord et désaccord entre les acteurs du projet, les jeux d'acteurs et de relation de place. Les jeux d'acteurs et les problèmes de « places » (relation dominant-dominé) se manifestent explicitement ou – plus souvent – implicitement pendant les réunions de travail (interactions en face à face) qui accompagnent la conduite du projet. L'analyse de ces réunions doit permettre d'analyser finement ce jeu relationnel, cette « mise en places » et, du même coup, peut tenir lieu d'intervention dans la conduite du projet, visant à informer le chef de projet informatique sur les points sur lesquels les acteurs n'ont pas réussi à conclure une négociation (qui pourrait sembler apparemment aboutie) et sur le réseau relationnel qui existe entre les partenaires du projet et permettant de réagir de manière adéquate. Le corpus-échantillon sur lequel a été appliqué le plus systématiquement la grille d'analyse utilisée est la retranscription (non technique) effectuée par Imed Boughzala, d'une réunion de travail ayant eu lieu le 30 septembre 1999 dans les locaux de l'Université de Technologie de Troyes. Il s'agissait d'une réunion préalable à la mise en place du webEDI « remise d'écru » entre l'entreprise « teinturier » et l'entreprise « tricoteur » Plus précisément, la réunion avait pour fonction la validation du message de remise d'écru échangé entre les partenaires; la finalité était de trouver un accord sur les données échangées et les intitulés des masques d'écran de l'application. Notre analyse a porté dans un premier temps sur les négociations conversationnelles (Kerbrat-Orecchioni, 1984) présentes dans le corpus et sur les points de divergence suscitant ces négociations. Dans le cas analysé, différents points de discorde peuvent apparaître, que l'analyse conversationnelle d'une réunion de travail permet de mettre en évidence et qui doivent être compris, dans une logique d'accompagnement de projet, comme des signaux informant le chef de projet des problèmes à résoudre ou des points de désaccord risquant de parasiter le projet et le produit final. On a pu observer les points suivants : divergences de compétences entre les interactants dans le champ de l'informatique et du groupware. Sur la base d'une analyse de corpus 2, on observe que, sur le plan des compétences en informatique, les informaticiens des entreprises « tricoteur » et « teinturier » se trouvent en rivalité : le discours du tricoteur lui permet de mettre en scène une asymétrie de compétence avec son partenaire. Ce paramètre peut grandement orienter le projet en faveur de la réalisation d'un service uniquement proposé, évalué et validé par le tricoteur; divergences de finalités : l'analyse de leurs discours montre que les informaticiens des entreprises sont plus préoccupés par les bénéfices que peuvent tirer leurs entreprises respectives du système d'EDI, que par un bénéfice commun, qui n'est peut être évaluable qu' à partir du moment où l'entreprise étendue deviendra une réalité pour ses acteurs. Pour ne prendre qu'un exemple, l'identité collective de chacun (le « nous » au nom duquel ils parlent) n'est jamais un « nous inclusif – tricoteur + teinturier » mais toujours un « nous exclusif – nous-tricoteur versus nous-teinturier » opposant les deux entreprises; divergences sur leurs identités professionnelles : l'analyse des négociations conversationnelles révèle un grand nombre de négociations métalinguistiques. Il n'existe pas vraiment un langage commun entre un « teinturier » et un « tricoteur ». Le chef de projet tiendra compte de cette dimension pour construire une entreprise étendue; lorsque les accords nécessaires au bon déroulement d'une interaction ne sont pas préalables, on peut observer des procédures de transactions réalisées dans et par l'interaction : des négociations conversationnelles. Ces négociations peuvent porter sur la forme, la structuration ou le contenu des échanges, les « signes » et les opinions échangées, les identités et les places des interlocuteurs. On considère que « gagner » une négociation conversationnelle sera une des ressources symboliques que pourra utiliser un acteur du projet pour établir un rapport de force à son avantage. Les résultats de cette première phase d'analyse des échanges montrent que de très nombreuses négociations ont lieu au cours des discussions. Ces négociations portent sur : la gestion du script de l'interaction et sur la capacité de s'imposer comme animateur de la réunion : le chef de projet est parfois relayé par un partenaire dans son rôle de gestion de la discussion. C'est toujours le tricoteur qui s'impose comme coanimateur, par exemple en proposant des planifications de la discussion; le lexique, entre alors en jeu le problème de la standardisation et la mise en valeur d'une identité professionnelle au détriment d'une autre; les problèmes techniques. De manière logique, la plupart des négociations et des argumentations portent sur des points techniques. De manière générale, l'informaticien représentant l'entreprise « tricoteur » remporte ces négociations soit par des coups de force soit par alignement du « teinturier » sur ses positions. Cela met en place un réseau relationnel déséquilibré, qui risque de transformer le projet d'EDI en une concurrence d'intérêts. On peut par ailleurs, mentionner que la relation déséquilibrée observable à l'issue des négociations est largement coconstruite car elle semble très souvent acceptée par le teinturier. Ce résultat montre l'importance de l'Agent Coopérateur dans la gestion des conflits entre partenaires (non respect du contrat, règles de partage, réalisation des promesses; Boughzala, 2001, p. 102). Dans une deuxième phase d'analyse, nous avons tenté d'identifier d'autres « marqueurs de place ». L'analyse conversationnelle considère en effet que les relations dominés-dominant entre les individus engagés dans une même action sont à la fois données (préalables, sociales, contextuelles) et construites (interactionnelles). Analyser la construction de la relation verticale dans les interactions consiste à identifier les comportements interactionnels (verbaux ou non) qui assignent une « place » (haute ou basse). On peut parler de « marqueur de places » (ou « taxèmes », Kerbrat-Orecchioni, 1992) pour désigner ces indices. Une analyse du corpus nous permet d'identifier différentes catégories d'indices : la forme et le style des échanges (celui qui impose le style de l'échange se met en position haute), l'organisation des tours de parole (celui qui parle le plus, en premier, ou qui interrompt l'autre se met en position haute), l'organisation des échanges (celui qui assure l'ouverture et la clôture se met en position haute), le contenu (imposer les thèmes abordés), la nature des actes de langage (produire un acte menaçant pour l'autre – une critique par exemple – est un marqueur de position haute), les termes d'adresses (tu/vous). L'analyse des indices et leur mise en corrélation démontrent que le tricoteur parvient à se mettre très souvent en position haute au cours de la réunion, en utilisant divers moyens langagiers : critiquer les propositions des autres participants, hiérarchiser les sujets à aborder, évaluer (même positivement) les propositions des informaticiens, se mettre en position de coénonciateur des informaticiens (avec lesquels il parvient à parler « d'une même voix »), parler le plus souvent en s'autosélectionnant comme destinataire des questions de l'informaticien, jouer le rôle de porte-parole du « teinturier », produire des énoncés directifs à l'attention du « teinturier », réfuter directement le « teinturier ». Dans ce dernier cas, on observe des stratégies de résistance du « teinturier » ne désirant visiblement pas perdre la face aussi ostensiblement, mais uniquement dans ce dernier cas (les énoncés directifs). Les autres stratégies sont couronnées de succès, voire ratifiées par le teinturier. L'ensemble de ces stratégies permet donc au tricoteur de se mettre en position haute dans l'interaction et, du même coup, de valoriser sa compétence en informatique (opposée à une compétence supposée moins importante de son partenaire) en évaluant ou coénonçant les propositions des experts, de gérer l'interaction en hiérarchisant les sujets, de parler le plus longuement, de condamner même le teinturier au silence en parlant à sa place. Enfin, la production de conseils adressés au teinturier est une manière subtile de prendre le dessus sur son partenaire tout en restant globalement coopératif. La nature des actes de langage produits par les interactants et la mise en place d'une relation hiérarchique déterminent à la fois la réunion de travail elle -même et les effets qu'elle peut avoir sur la dynamique du projet qu'elle accompagne. Ainsi, notre analyse de corpus montre sans conteste que le représentant de l'entreprise « tricoteur » prend le dessus et instaure une relation de domination par rapport à son supposé partenaire « teinturier ». On peut s'interroger sur les facteurs externes qui ont favorisé cette mise en place : inégalité des compétences, différence des positions institutionnelles, répartition de la connaissance du projet EDI. De même, on peut aussi s'interroger sur les finalités. En dehors de finalités strictement psychologiques (l'informaticien de l'entreprise « tricoteur » a peut être un plaisir à dominer), on voit bien que la mise en place d'un tel réseau relationnel au cours des échanges peut répondre à une logique stratégique et organisationnelle visant à faire du teinturier la « tête de filière » et le pôle central de l'entreprise étendue. Nous avons présenté dans cet article l'outil WebEDI pour instrumenter une relation d'échange de documents entre deux partenaires dans une première version, et trois ou plus, dans une deuxième version. La filière textile est un terrain d'expérimentation difficile mais privilégié pour les raisons suivantes : c'est une filière durement concurrencée sur le plan international notamment à cause des coûts de main d' œuvre sans comparaison avec ceux des pays en voie de développement. On considère généralement qu'un fonctionnement en réseau plus efficace serait une condition sine qua non de survie, comme en témoigne l'expérience américaine montrant l'importance des NTIC pour la relocalisation de certaines activités de production textiles (Abécassis et al., 1998); c'est une filière dans laquelle les connaissances métiers comme les formes de coopération interentreprises sont à la fois complexes et informelles. La mise en œuvre de SI coopératif efficace passera donc très vraisemblablement par le développement d'une démarche de gestion des connaissances communes; c'est une filière dans laquelle les relations interpersonnelles entre partenaires peuvent être aussi bien des facteurs de réussite que des freins pour une démarche coopérative, ce que montre l'analyse conversationnelle des échanges. Pour proposer des services technologiques innovants et adaptés aux besoins des entreprises et pouvant être rendus à la filière textile, nous avons commencé par étudier les processus de cette filière, pour pouvoir ensuite développer des outils informatiques, en suivant les étapes de la démarche MeDICIS (pour Methodology for Designing Interenterprise Cooperative Information System) (Boughzala, 2001). Pour expérimenter notre démarche dans un contexte spécifique et dans le cadre de cette étude, après avoir analysé les relations au niveau macro, nous nous sommes focalisés au niveau micro sur la relation entre un tricoteur et un teinturier et nous avons identifié différents scénarii de travail coopératif par rapport à l'activité du tricoteur. L'analyse était faite au niveau intra et interpartenaires des processus métiers. Le résultat de cette analyse nous a conduit à conclure que les deux partenaires teinturier et tricoteurs, sont intégrés par les données, c'est pourquoi l'outil nécessaire à cette relation relève des outils appartenant au SI de communication. L'outil que nous avons spécifié et développé est un outil de type WebEDI d'échange de documents informatisé basé sur Internet (plus évolué et moins contraignant qu'un EDI traditionnel; Charmot, 1998) qui permet à ces deux partenaires d'échanger des données commerciales et techniques entre leurs systèmes d'information (bordereau de remise d'écru, bordereau de remise en teinture, bordereau de livraison, etc.) dans le cadre de la vente de tissu au mètre effectuée par le tricoteur. L'analyse pragmatique et linguistique des réunions des spécifications des bordereaux nous a permis de sélectionner les interprétations que pouvait faire un informaticien des besoins de deux partenaires. Cette analyse nous a aussi permis de mettre en évidence les jeux d'acteurs et de relation de place. Les résultats des recherches menées en Sciences Humaines ont été intégrés à la conduite de projet en tant qu'outils d'accompagnement, permettant à l'informaticien chargée de la réalisation finale de disposer par exemple de signaux préventifs sur les risques éventuels de blocage ou d'échec et sur les manières de résoudre ces problèmes afin de proposer un service qui incite les acteurs à coopérer ou, au moins, qui offre la possibilité d'une supervision de la coopération interentreprises .
Cet article rend compte d'un programme de recherche action, mené au sein du laboratoire Tech-CICO. Ce programme a pour but de concevoir un service NTIC favorisant la coopération entre différentes entreprises de la filière textile de Champagne-Ardenne. Cet article décrit dans un premier temps une modélisation des échanges de documents numériques entre partenaires dans la filière textile. Dans un second temps, on présentera l'apport de l'analyse conversationnelle des réunions de travail dans la conduite du projet.
sciencesInfo_02-0463848_tei_DN_053_0211.tei.xml
termith-396-communication
Pour préserver l'état de santé des personnels militaires projetés, le Service de santé des armées (SSA) a confié à l'Unité de veille sanitaire (UVS) de l'Institut de médecine tropicale du service de santé des armées (IMTSSA) une mission de veille sanitaire de défense définie en 2004 comme la collecte, l'analyse et la diffusion à ceux qui en ont besoin d'informations sanitaires polymorphes, provenant de populations extérieures à celle de l'organisme de veille (donc extérieurs à la défense), afin d'identifier et de prévenir les risques sanitaires potentiels pour la population, sous la responsabilité du veilleur dans le domaine de la défense [9] [15 ]. Pour remplir cette mission, elle a développé trois bases documentaires servant de socle de documentation scientifique. La première base capitalise des documents bruts sur les agents du risque biologique, naturel et provoqué, et les toxiques chimiques industriels ou militaires [27 ]. La deuxième, dénommée REDUVES pour « Recherches Et Développements de l'Unité de VEille Sanitaire », met à disposition des documents de synthèse sur les recherches et les développements en cours sur les agents biologiques et chimiques militarisables [19] [25] [26] [27 ]. La dernière base, dénommée BEDOUIN pour « Base Epidémiologique de Données sur l'OUtre-mer et l'Intertropical », fournit des renseignements sanitaires sur les différents théâtres d'opérations actuels ou possibles des forces [19] [26] [27 ]. La masse de documents collectés pour alimenter ces bases est très importante. Les informations les plus pertinentes sont souvent diluées dans un bruit documentaire. Il est donc indispensable d'évaluer ce flux de documents pour retrouver et extraire les plus originaux, facteurs d'avancées scientifiques et technologiques [24 ]. Ce traitement intellectuel, fondé sur des critères objectifs et quantifiables, est mené en suivant une grille d'analyse du document en sept étapes : détermination du type de document, traduction, contrôle du thème, résumé, analyse de l'originalité, application pour la défense et analyse de la validité scientifique [<hi rend="italic">figure 1</hi> ], que nous développerons dans cet article. Les documents collectés sont d'abord classés en fonction de leur type, c'est-à-dire selon le support, le niveau, la diffusion et la forme [1] [8 ]. Dans la veille sanitaire de défense, les documents récoltés ont tous un support numérique, sont tous d'un certain niveau scientifique, et sont disponibles sur Internet. Mais leur forme diffère en fonction de la structuration du contenu. Ils peuvent prendre trois formes : ouvrages, notamment monographies scientifiques de synthèse, thèses et articles scientifiques qui représentent la majorité des documents collectés. Par exemple, sur 1 310 documents collectés à partir d'une recherche dans les bases Pascal® et Francis® avec l'équation (variole OR smallpox), 97 % ont la forme d'un article de revue, 2,5 % d'un ouvrage et 0,5 % d'une thèse. L'article de recherche est un document publié dans une revue scientifique, rédigé par un ou plusieurs chercheurs, qui présente les résultats d'études fondamentales ou appliquées et dont le plan est dit IMRED pour « Introduction, Matériel et méthodes, Résultats Et Discussion » [1] [5] [8 ]. Les articles contiennent également un résumé, une bibliographie et, pour certains, des mots clés. Ils sont validés par un comité d'experts (comité de lecture), composé de spécialistes du domaine, qui se prononce sur la nouveauté des résultats et l'intérêt de l'hypothèse, et sollicite des corrections. L'article accepté est transmis au comité de rédaction de la revue qui organise la réalisation et la diffusion de la revue par l'éditeur. La thèse de doctorat est un mémoire présentant un travail de 3 à 5 ans de recherches, réalisé par un étudiant-chercheur, sous la direction d'un directeur de thèse, évalué par des rapporteurs indépendants et soutenu devant un jury d'enseignants-chercheurs, experts du domaine [1] [8 ]. Elle comprend une introduction, plusieurs chapitres, une conclusion, une bibliographie et un résumé. Les différents chapitres établissent le fond théorique de l'étude, décrivent les techniques expérimentales utilisées et rapportent les résultats. Les thèses d'exercice (médecins, pharmaciens, etc.) sont également analysées par la veille sanitaire de défense. Ces mémoires, moins longs, sont préparés en un an, dans le cadre de l'obtention de diplôme d' État. Le livre est une publication non périodique éditée par une maison d'édition, à un moment donné, dans un pays donné et possédant un ISBN (International standard book number), numéro international normalisé à 13 chiffres depuis 2007 (10 jusqu'en 2006) qui l'identifie de manière univoque [1] [8 ]. Les livres analysés par la veille sanitaire de défense ont un support numérique (e-book). Ils permettent de naviguer, de faire des recherches, d'annoter ou de mettre le texte en relief. Ils peuvent circuler de façon autonome, être stockés et lus sur un support informatique. Outre une table des matières donnant un aperçu de l'ensemble des questions abordées, le livre possède entre 5 et 15 chapitres répondant à une question. Il contient une introduction, un index, une bibliographie, une conclusion et un résumé. Les livres analysés sont pour la plupart des monographies scientifiques de synthèse, c'est-à-dire des ouvrages comportant l'équivalent d'un seul volume ou d'un nombre limité de volumes, présentant un traitement synthétique ou un état de l'art d'un domaine ou d'un sujet scientifique. Mis en forme, validés et commercialisés par un éditeur, ils peuvent être revus et corrigés, et donc faire l'objet de plusieurs éditions successives. La plupart des documents collectés dans le processus sont en langue étrangère. Par exemple, une recherche menée le 4 février 2010 dans les bases Pascal® et Francis® avec l'équation (variole OR smallpox) a collecté 80,5 % de documents en anglais, 16 % en français, 1,5 % en espagnol, 1,4 % en allemand et 0,6 % en russe. Avant d'envisager les étapes suivantes, la traduction du document est nécessaire. Dans cette optique, un logiciel de traduction automatique (Systran Professional®) est utilisé. Ce robot intègre en plus un dictionnaire médical français/anglais et anglais/français de plus de 2 000 mots. Cependant, comme tous les outils de traduction automatique, il ne donne que le sens global du texte et ne permet pas une traduction parfaite. L'analyse se poursuit par le contrôle du thème du document, dans le but d'écarter ceux qui ne correspondent pas aux priorités et sujets définis par la veille de défense. Par exemple, le veilleur est vigilant quand un document traite de recherche et de développement sur les agents biologiques et chimiques militarisables (charbon humain, etc.). Il est attentif face à un document traitant de l'émergence d'un événement sanitaire inhabituel dans un territoire jusqu'alors indemne de cet événement ou de sa réémergence inexpliquée (par exemple : émergence de fièvre hémorragique à virus Marburg en Angola en 2005). Pour l'aider dans ce travail, la liste de l'OTAN des agents biologiques est un outil utile [21 ]. Ce contrôle se fait par la lecture du titre, du résumé du document et éventuellement des mots clés. Dans le cas où le document n'a pas de résumé, si le résumé n'est pas significatif ou est trop court, le veilleur appuie son analyse en utilisant un logiciel de résumé automatique du texte intégral. Dans le cadre de la veille sanitaire de défense, le choix s'est porté sur le logiciel Copernic Summarizer® qui réduit la taille du document de 50 à 95 % et fournit un résumé de 100 à 1 000 mots. Fondé sur des algorithmes basés sur des calculs statistiques et des données linguistiques, ce logiciel permet en outre d'identifier les concepts d'un texte et en extrait les mots clés et les phrases les plus marquantes. Cet outil est notamment utilisé dans l'extraction des concepts de certains ouvrages de plus de 100 pages qui n'ont pas de résumé. La phase suivante analyse la nouveauté, le caractère original ou la plus-value scientifique apportée par le document considéré. Elle consiste en une lecture du titre du document et de son résumé. Dans le cas des articles, la partie Résultats et Discussion est également examinée. Une lecture approfondie compare le contenu à ceux de documents antérieurs et connus pour les thèmes correspondants. Un document est considéré comme nouveau si son contenu décrit un phénomène inconnu jusqu'alors ou apporte une connaissance inédite ou originale sur un phénomène connu, ou fait le point sur un sujet connu. Par exemple, la publication, dans une revue internationale à comité de lecture, de l'élaboration d'un test de diagnostic d'une maladie infectieuse, plus rapide et sensible que les méthodes de routine, sera considéré comme un nouveau document. D'où l'importance pour le veilleur documentaire de constituer une base de documents bruts solide et exhaustive sur les thèmes d'intérêt des armées, capitalisant rigoureusement les connaissances sur ces thèmes. Un document d'intérêt, au contenu novateur, sans application pour la défense car trop fondamental, sera rejeté. Par exemple, un document qui élucide une partie de la structure du virus Ebola, bien que novateur, ne sera pas pris en compte car ses applications potentielles pour la défense sont à très long terme. Par contre, un document relatant l'efficacité et l'innocuité sur l'homme d'un nouveau vaccin contenant une partie de ce virus sera conservé, car ses applications sont possibles à court terme. Ce type de document est d'autant plus intéressant qu' à l'heure actuelle aucun vaccin n'est efficace contre la maladie d'Ebola dont la létalité est de l'ordre de 50 à 90 %, dans des zones géographiques où des forces françaises sont déployées. L'étape la plus importante est l'analyse de la valeur scientifique du document [11] [12] [28] [29 ]. Celle -ci est fondée sur une grille de lecture objective et quantifiable, fonction du type de document. La grille de lecture porte principalement sur la rigueur du contenu, notamment la clarté de la synthèse et l'objectivité de l'auteur [<hi rend="italic">tableau 1</hi> ]. Grille d'analyse de la rigueur du contenu des ouvrages Qualité Oui Non Titre Clair Résumé Clair Précis Introduction Objectif clairement énoncé Chapitres Argumentés Référencés Expliqués Objectifs Conclusion Argumentée Claire Objective Réponse à l'objectif énoncé Bibliographie Respectueuse des normes Étayée Exacte En premier lieu, le titre de l'ouvrage est examiné, notamment sa clarté et son attractivité. Le résumé doit décrire avec précision le(s) problème(s) abordé(s), la méthode, les résultats et les conclusions du livre. L'analyse de l'introduction examine si l'objectif de l'ouvrage est clairement exposé. Le veilleur vérifie également si les données ou affirmations avancées dans les chapitres sont argumentées. En effet, il est essentiel de connaître leur origine (littérature, articles, enquêtes spécifiques, expérience ou avis personnel). Dans cette optique, une étude de la bibliographie est effectuée [15 ]. Si l'auteur controverse les résultats de certains travaux, l'analyse doit en vérifier les éléments d'explication. Les conclusions doivent s'appuyer sur des données fiables et documentées et être argumentées et soutenues. Dans tous les cas, il doit être possible de distinguer les conclusions de l'auteur de celles qui sont basées sur des arguments scientifiques provenant de la synthèse d'études. Enfin, il faut déterminer si la conclusion permet de répondre aux questions et objectifs posés dans l'introduction. À l'issue de cet examen, le veilleur attribue au document une cote de 1 à 4, estimation de sa valeur scientifique, fonction de la rigueur du contenu [26 ]. Les livres cotés « 1 » remplissent l'ensemble des critères de la grille. Ils sont scientifiquement très rigoureux, aussi bien sur le fond que sur la forme. Les ouvrages notés « 2 » ont un contenu rigoureux, mais certains critères secondaires ne sont pas remplis, notamment en terme d'attractivité; par contre leur contenu est scientifiquement irréprochable. Les ouvrages cotés « 3 » ont un niveau de rigueur jugé moyen tant pour la clarté de la rédaction que pour celle de l'argumentation ou des résultats. Très rarement, sont retrouvées des monographies cotées « 4 ». Elles sont scientifiquement peu rigoureuses et respectent peu de critères de la grille. Les données sont souvent peu fiables et les conclusions avancées présentent généralement des lacunes. Elles ne sont pas diffusées. La thèse reprend dans son contenu plusieurs types d'étude de niveaux différents. Certaines thèses reprennent dans leurs chapitres des articles de revues dont le doctorant est l'auteur principal ou bien sont des états de l'art sur un sujet. L'analyse porte principalement sur le fond, notamment la méthode, les objectifs et hypothèses de travail [<hi rend="italic">tableau 2</hi> ]. Grille d'analyse de la rigueur du contenu des thèses Qualité Oui Non Titre Clair Résumé Problèmes décrits avec concision Clair Informatif Introduction Informative Description claire du sujet et du but à atteindre Logique Simple Synthèse de la littérature étoffée Matériels et méthodes Méthode scientifique rigoureuse Résultats Études décrites avec précision Fond théorique riche Résultats objectifs Résultats précis Conclusion Claire Réponse aux questions posées ou ouverture vers d'autres questions Bibliographie Respectueuse des normes Étayée Exacte Le résumé est examiné du point de vue de son caractère précis et descriptif. Il doit décrire avec concision le problème abordé, la méthode qui a permis de le résoudre, les résultats obtenus et leurs conclusions. L'introduction est étudiée sur sa logique et sa simplicité. Cette partie doit décrire le sujet et son importance. Elle doit expliquer le problème et son rapport avec les grands thèmes de la discipline. Elle doit faire le point de la littérature sur son origine, sa connaissance, les autres méthodes ayant tenté de le résoudre. Les parties Matériel et méthodes développées dans les différents chapitres doivent permettre à un chercheur qui suit la description de reproduire exactement ce qui a été fait. La rigueur de la démarche est examinée, comme les détails expérimentaux nécessaires à l'interprétation des résultats, à l'identification des études menées et à leur durée. Les conditions d'obtention de chaque série de résultats doivent être décrites, ainsi que chaque paramètre tenu constant. Les erreurs de mesure doivent être montrées. Les tests statistiques doivent être appropriés aux comparaisons et aux analyses effectuées. Les représentations graphiques doivent être analysées. Les intervalles de confiance sur chaque donnée doivent être présentés, à moins que les erreurs soient très petites. Les théories développées doivent permettre de comprendre les bases du problème et l'éventuelle solution apportée, et être en rapport avec le travail effectué. Les équations doivent être discutées et expliquées. L'objectivité, la précision et l'exactitude doivent être discutées, notamment leur signification et leur contribution à la connaissance humaine. Leur accord avec les théories courantes doit être étudié. Les conclusions, souvent sous forme de liste de points, doivent être claires et tenter d'apporter une réponse aux questions posées ou ouvrir vers d'autres questions. La bibliographie doit être respectueuse des normes, soutenir les résultats et faits scientifiques avancés et être exacte [15 ]. À l'issue de la lecture, le fond théorique de l'étude, les techniques expérimentales qui ont permis de résoudre le problème ou ses étapes doivent être connus. La nouvelle théorie ou la solution apportée aux problèmes, ainsi que les perspectives ouvertes doivent être facilement déterminées. En fonction de leur niveau de rigueur, les thèses sont cotées de 1 à 4, comme les livres. La grille d'analyse des articles tient compte de la rigueur de la rédaction, notamment de l'exposé de la méthode, des objectifs et hypothèses de travail. Elle s'interroge aussi sur la notoriété de la revue de publication, ainsi que sur le type d'étude menée et son niveau de preuve [13] [17] [23 ]. La notoriété de la revue dans laquelle l'article est publié est évaluée car elle est souvent représentative de la qualité des résultats [10 ]. Un article publié dans une revue réputée présage souvent de sa qualité scientifique et de l'exigence de son comité de lecture. Pour cette évaluation, la veille sanitaire s'appuie sur un indicateur statistique, mis au point par l'ISI (Information Science Institute) et publié dans le Journal of citation report : le facteur d'impact [14 ]. Ce facteur est le rapport, pour une année donnée, entre le nombre de citations sur une période de deux ans des articles publiés par le périodique et le nombre d'articles publiés par la revue. Une revue qui a un facteur d'impact élevé est très citée dans la bibliographie des articles des autres revues. Elle est donc très utilisée par les chercheurs et a une notoriété élevée. Un classement de la notoriété des revues, fonction du facteur d'impact, est ainsi établi. Les revues dont le facteur d'impact est élevé (supérieur à 3,0) sont considérées comme les plus prestigieuses et classées au premier rang. Ce sont des revues internationales, de fait exclusivement en anglais, et très exigeantes. Elles publient des articles de recherche novateurs (fréquemment utilisés et cités). Leur couverture d'un champ disciplinaire est large et actualisée. Le plan de recherche et la méthode de leurs publications sont très rigoureux. Leur processus d'évaluation, de révision et de publication est difficile et long (environ deux ans). Deux rapporteurs au minimum analysent chaque manuscrit déposé et le taux de rejet est élevé (environ 80 %). Les revues dont le facteur d'impact est compris entre 0,3 et 3,0 sont dites de deuxième rang. Ce sont des revues internationales ou nationales exigeantes. Les processus d'évaluation et de publication sont plus rapides, les taux de rejet moins élevés. Elles sont plus ouvertes aux revues de synthèse, aux recherches exploratoires. Leur reconnaissance peut varier selon la politique scientifique du moment. Les revues de dernier rang ont un facteur d'impact inférieur à 0,3. Ce moindre niveau de citation peut s'expliquer de différentes façons. Soit elles sont moins exigeantes par rapport à la rigueur méthodologique, aux critères et processus de sélection et au nombre de rapporteurs (un rapporteur peut suffire). Soit elles sont moins accessibles au plan international ou jouissent d'une moindre reconnaissance de la communauté académique. Il s'agit parfois, aussi, de revues ayant une ligne éditoriale didactique pour lesquels les articles fondamentaux sont souvent absents. Soit ce sont des revues destinées à des thématiques très précises, à des secteurs d'activité ou des zones géographiques limitées, donc vouées à une communauté scientifique plus restreinte. L'examen du contenu porte sur les qualités intrinsèques des différents chapitres de l'article. Plusieurs critères sont évalués [<hi rend="italic">tableau 3</hi> ]. Grille d'analyse de la rigueur du contenu des articles Qualité Oui Non Titre Court Clair Résumé Court Clair Explicatif Introduction Informative Descriptif du contexte Objectif énoncé Matériels et Précis dans la démarche Méthodes Type d'étude menée décrit Résultats Résultats précis Résultats objectifs Résultats cohérents But du travail atteint Discussion Résultats synthétisés Résultats comparés Résultats critiqués Ouverture du travail Bibliographie Respectueuse des normes Étayée Exacte La clarté, la concision et l'attractivité du titre de l'article sont examinées en premier lieu. Le résumé doit être court, précis et informatif. Il doit synthétiser la méthode de travail et les résultats. La rigueur de l'introduction est étudiée, notamment son caractère informatif et descriptif. L'introduction doit permettre la compréhension du travail et du contexte de l'étude. La réponse à deux questions doit être donnée : pourquoi le travail est-il entrepris et quel est son objectif ? La concision de la partie Matériel et méthodes est un critère de qualité d'un article. Ce chapitre doit être assez précis pour permettre la reproduction de l'expérience ou la vérification du travail. Il ne doit pas comporter de résultats mais doit décrire les détails expérimentaux nécessaires à leurs interprétations et à l'identification des biais, de la taille de l'échantillon, de l'étude menée, de sa durée et de son lieu. L'objectivité, la précision et l'exactitude des parties Résultats et Discussion sont importantes. Les résultats doivent être donnés avec précision et comparés par l'auteur à ceux d'autres publications, les différences expliquées et l'originalité du travail analysée. Les réponses à deux questions doivent être données : le but du travail a -t-il été atteint et les résultats sont-ils cohérents ? La bibliographie doit respecter les normes de Vancouver [15 ], être exacte, étayer les résultats et être référencée dans le texte. Tout article dont les résultats sont à l'évidence incohérents est rejeté. La lecture de la partie Matériel et méthodes permet de déterminer le type d'étude menée pour en quantifier le niveau de preuve, indicateur de qualité reconnu par la communauté scientifique [7 ]. En veille sanitaire de défense, on a défini sept types d'étude [20] : un essai clinique comparatif est une étude où les sujets sont répartis de manière aléatoire en groupes recevant le ou les traitements ou un placebo. Par exemple, l'article intitulé « A DNA vaccine for Ebola virus is safe and immunogenic in a phase I clinical trial » publié dans Clinical and Vaccine Immunology de novembre 2006 est un essai comparatif d'un vaccin contre la maladie d'Ebola analysé et sélectionné par la veille de défense [18]; une revue systématique est une critique de la littérature, qui évalue et synthétise toutes les études pertinentes et parfois contradictoires sur un sujet; la méta-analyse rassemble les données d'études comparables et les réanalyse au moyen d'outils statistiques pour donner une réponse quantitative à une question que chaque étude séparément ne pourrait donner; une étude de cohorte est une étude comparative où les sujets sont sélectionnés en fonction d'une ou de plusieurs caractéristiques et suivis dans le temps afin de mesurer les effets de ces caractéristiques. Dans ce cadre, la veille sanitaire de défense a, par exemple, examiné l'étude de cohorte intitulée « Ebola outbreak killed 5000 gorillas » publiée dans le revue Science de décembre 2006. Dans cette étude, les auteurs ont suivi au Congo et au Gabon, de 1995 à 2005, 243 gorilles. Ils ont mis en évidence la disparition de 93 % des individus étudiés liée au virus Ebola [6]; une étude cas-témoin est une étude rétrospective dans laquelle un groupe de sujets antérieurement exposés à un facteur de risque est comparé à un groupe de sujets non exposés à ce facteur. Nous avons ainsi analysé l'étude cas-témoin publiée dans American Journal of Tropical Medicine and Hygiene de décembre 2004 intitulée « Assessing water-related risk factors for Buruli ulcer : a case-control study in Ghana ». L'étude avait mis en évidence que la nage en rivières ou l'activité dans un environnement aquatique était un facteur de risque de la maladie [2]; une série de cas est une description de patients comparables, mais sans comparaison avec un groupe témoin ou un autre groupe. Par exemple, l'article, publié dans Cutis de juillet 2003, intitulé « Skin reaction following immunization with smallpox vaccine : a personal perspective » décrit le cas d'une réaction allergique après vaccination par la vaccin contre la variole. Cette publication attire notamment l'attention des praticiens sur le choix du site d'inoculation [30]; les études descriptives présentent les caractéristiques d'une maladie particulière. Une étude transversale décrit la fréquence d'une maladie, de ses facteurs de risque ou de ses autres caractéristiques, dans une population donnée, à un moment déterminé. Ce type d'étude est utile pour déterminer la prévalence d'une maladie à un moment déterminé et pour évaluer un nouveau test diagnostique. Le degré de qualité de l'étude peut être évalué par son niveau de preuve scientifique reposant sur des scores reconnus [3] [7 ]. Quatre niveaux de preuve sont retenus par la veille sanitaire de défense pour hiérarchiser la qualité de l'information publiée : les études de niveau 1 ont une preuve scientifique établie. Ce sont les essais cliniques comparatifs randomisés et de forte puissance statistique et les méta-analyses d'essais cliniques comparatifs randomisés; les études de niveau 2 ont une présomption scientifique. Ce sont les essais comparatifs randomisés de faible taille, les études comparatives non randomisées bien menées et les études de cohorte; les études de niveau 3 sont des études cas-témoin à niveau de preuve plus bas que celles de niveau 2; les études de niveau 4 ont le niveau de preuve le plus faible. Ce sont les études comparatives comportant des biais importants, les séries de cas et les études épidémiologiques descriptives transversales. À l'issue de l'analyse, le veilleur attribue au document une cote, estimation de sa valeur scientifique et fonction de la rigueur du contenu, du rang de la revue de publication et du niveau de preuve [<hi rend="italic">tableau 4</hi> ]. Grille de cotation des articles Niveau de preuve de l'étude Revue prestigieuse Revue exigeante Autre Établi Article coté « 1 » Article coté « 1 » Cas exceptionnel Présomption, Contenu rigoureux Article coté « 1 » Article coté « 1 » Article coté « 3 » Modéré Article coté « 2 » Article coté « 2 » Article coté « 4 » Faible Cas exceptionnel Article coté « 3 » Article coté « 4 » Les articles cotés « 1 » sont donc des articles très rigoureux répondant à l'ensemble des critères de qualité évalués. Ils sont publiés dans des revues prestigieuses ou exigeantes avec un niveau de preuve scientifique établi ou avec forte présomption scientifique. Par exemple, l'article « Ebola outbreak killed 5000 gorillas » a été coté « 1 ». En effet, c'est une étude de cohorte, donc de niveau 2, avec une forte présomption scientifique. Il a été publié dans la prestigieuse revue Science, dont le facteur d'impact est de 30,9. De plus, c'est un article très rigoureux répondant à l'ensemble des critères de qualité de la grille. Les articles cotés « 2 » sont publiés dans des revues prestigieuses ou exigeantes mais ont un niveau de preuve modéré. La grande majorité des critères de qualité sont également remplis, notamment sur le fond. Dans ce cadre, l'étude cas-témoin intitulée « Assessing water-related risk factors for Buruli ulcer : a case-control study in Ghana » a été cotée « 2 ». Son niveau de preuve est de 3. Elle est publiée dans American Journal of Tropical Medicine and Hygiene, une revue de deuxième rang, dont le facteur d'impact est de 2,48, et son fond scientifique est rigoureux. Les articles moins rigoureux, publiés dans des revues exigeantes mais à niveau de preuve faible, sont cotés « 3 », de même que les articles à présomption scientifique publiés dans des revues de dernier rang. Ainsi la série de cas intitulée « Skin reaction following immunization with smallpox vaccine : a personal perspective » a été cotée « 3 ». Son niveau de preuve est de 4. Elle est publiée dans Cutis, une revue de deuxième rang, dont le facteur d'impact est de 0,92. Les articles montrant le moins de rigueur scientifique, dont le niveau de preuve est modéré, faible ou de l'ordre de la présomption scientifique et publiés dans des revues de dernier rang sont cotés « 4 ». Les articles publiés dans des revues prestigieuses mais avec un niveau de preuve faible ou bien des articles, à preuve scientifique établie, mais publiés dans des revues de dernier rang sont rarement retrouvés. L'application de la grille a été conceptualisée sous forme d'un logigramme [<hi rend="italic">figure 2</hi> ], servant de document de référence pour l'analyse. Ainsi, du 1er mars au 31 juillet 2007, 11 990 documents ont été récoltés par notre processus. La première étape a dénombré 11 630 articles (97 %), 300 livres (2,5 %) et 60 thèses (0,5 %)., dont 1 979 documents écrits en français (18 %), 9 592 en anglais (80 %) et 419 (2 %) en une autre langue (principalement espagnol, portugais, italien, allemand et russe). Ces derniers ont été traduits par le logiciel Systran Professional®). L'analyse du thème a montré que 11 790 documents ne correspondaient pas aux thématiques définies par l'OTAN dans son recueil sur les agents biologiques, soit 98,3 %. Ces documents portaient principalement sur la chirurgie, la cancérologie, la neurologie, l'endocrinologie, l'ophtalmologie, la pédiatrie et la gynécologie obstétrique, thèmes n'intéressant pas notre processus. Trois ouvrages avaient des résumés peu significatifs (1,5 %). Ils ont été résumés dans leur intégralité par le logiciel Copernic Summarizer®. Finalement, sur les 200 documents restants, 72 ont été jugés originaux et correspondant aux applications de défense (36 %). En suivant la dernière étape de la grille, 46 ont été cotés « 1 », soit 64 % jugés d'un très haut niveau. Dix-sept ont été notés « 2 » (23,5 %) et 9 ont été cotés « 3 » (12,5 %). Aucun document coté « 4 » n'a été retrouvé. L'application de cette grille présente deux avantages. Face au flux de documents auquel il doit faire face, elle permet de guider le veilleur dans son analyse, en lui donnant des critères définis et quantifiables. Elle permet également d'augmenter l'objectivité de son jugement. Cependant, elle présente trois inconvénients. Des publications répondant à l'ensemble des critères évalués peuvent être diffusées, puis éventuellement controversées ultérieurement ou apparaître comme des fraudes scientifiques [4] [22 ]. Cette grille évalue les qualités scientifiques et de rigueur d'un document mais ne permet pas de quantifier son degré de « vérité scientifique ». De plus, même si la grille diminue la subjectivité de jugement du veilleur, elle ne l'annule pas. En effet, son interprétation d'humain, son degré d'expertise et son expérience personnelle prennent une part importante dans l'évaluation des critères, et donc dans la sélection et la diffusion des documents. Enfin, les sources utilisées n'étant pas exhaustives, un certain nombre de documents potentiellement dignes d'intérêt ne sont pas analysés ni donc diffusés. Pour remplir la mission de veille sanitaire de défense, une grille d'évaluation des documents à sept étapes, fondée sur des critères objectifs et quantifiables, a été créée. Son application permet, à partir d'une grande quantité de documents, de qualité variable, de guider le veilleur dans sa lecture et de ne sélectionner que ceux qui sont pertinents. Cependant, même si elle augmente son niveau d'objectivité, cette grille laisse une part importante à son interprétation d'humain. Il serait intéressant de pondérer cette part de subjectivité, notamment dans les étapes d'analyse d'originalité et d'applications de défense, qui laissent à l'expertise humaine une part importante. Une liste définie de critères quantifiant la nouveauté et les applications potentielles pourrait être élaborée et intégrée à la grille. Enfin, il serait intéressant de tester la pertinence de cette grille à d'autres thématiques de santé. • SEPTEMBRE 2009
[ élude ] Un service de veille scientifique est amené à collecter une masse importante de documents de qualité variable. Pour identifier les plus pertinents d'entre eux, l'Unité de veille sanitaire de l'Institut de médecine tropicale du service de santé des armées (IMTSSA) a élaboré une grille d'analyse en sept étapes. En tenant compte de la rigueur du contenu et, dans le cas d'un article, du facteur d'impact de la revue de publication et du niveau de preuve de l'étude, cette grille permet d'estimer la valeur scientifique d'un document. Marc Tanti, en collaboration avec Christian Hupin, Jean-Paul Boutin et Parina Hassanaly, présente dans cet article la grille qu'ils ont conçue, fondée sur des critères définis et quantifiables ; puis expose et discute les résultats qu'ils ont obtenus dans le domaine de la veille sanitaire de défense. Un modèle qui pourra être transposé avec profit dans d'autres secteurs de recherche.
sciencesInfo_10-0302457_tei_DOCSI_idPAS_D_ISBN_pu2010-01s_sa02_art02.tei.xml
termith-397-communication
Au XVIIe siècle les revues scientifiques alors nommées « journaux » avaient pour mission de rassembler les savants pour des recherches en commun mais aussi de contrôler toute l'activité scientifique. La mise en place de procédures de sélection et de validation des textes se fera de façon progressive, à partir du XVIIIe siècle, avec la constitution de comités éditoriaux spécialisés dans chaque discipline couverte par la revue. Cette dernière avait donc déjà un rôle d'expertise et d'arbitrage. La revue apparaît comme un vecteur de la diffusion scientifique permettant une plus grande visibilité des travaux. Au XVIIIe siècle la publication dans la revue devient une pratique de la communauté scientifique (De Solla Price, 1961) et le XIXe siècle voit l'augmentation de la presse spécialisée scientifique liée au développement des découvertes. Dans les années 1990 l'ensemble du système de communication de la science se trouve affecté par le recours à Internet à différents niveaux selon les disciplines. Actuellement la revue électronique semble avoir trouvé son audience et son lectorat particulièrement en « sciences dures ». Mais ces nouveaux usages bouleversent-ils les conditions et les enjeux de diffusion des résultats ? Quels changements dans les pratiques informationnelles induisent la publication électronique ? On peut en effet se demander si les chercheurs confrontés quotidiennement à la lecture de publications électroniques développent de nouvelles pratiques d'écriture. Il semblerait également que la publication électronique ferait évoluer les pratiques de lecture et de consultation des revues. Mais qu'en est-il réellement ? Le rythme des nouvelles initiatives liées aux publications électroniques s'accélère mais donne t-il une nouvelle ampleur au débat sur l'avenir de la communication scientifique ? Pour répondre à ce questionnement nous avons conduit une démarche fondée sur une observation qualitative menée auprès d'une population de chercheurs d'une école d'ingénieurs en arts chimiques et technologiques (ENSIACET) dont les travaux sont structurés autour de quatre laboratoires (Chimie, Génie Chimique, Agro-ressources et Matériaux). Dans un premier temps nous avons étudié les manières de faire d'un groupe constitué de quelques personnes. Dans un deuxième temps il s'agira de montrer si l'écrit électronique conduit à développer de nouvelles pratiques d'écriture et à établir de nouvelles normes. Ces analyses qui s'inscrivent dans une recherche de longue haleine seront présentées ici dans leur phase exploratoire et elles devraient conduire à affiner la problématique et à poser des hypothèses de recherche. Après avoir présenté le contexte dans lequel la revue scientifique est apparue et les enjeux qu'elle a suscités, nous essayerons de percevoir pourquoi et comment l'intégration de la publication électronique se réalise dans les pratiques informationnelles des chercheurs. La diffusion d'informations dans le domaine scientifique est une tradition ancienne. Au début du XVIIe siècle quand la coopération entre savants est devenue systématique par la création d'académie spécialisée, la correspondance par échanges de lettres entre savants et érudits a pu se développer et se maintenir durant 30 ans, notamment grâce au Père Mersenne (1588-1648) initiateur du premier réseau de savants. Ces échanges informels de lettres permettaient une diffusion plus large des informations. Les lettres étaient manuscrites, généralement signées, archivées, copiées et transmises totalement ou en partie aux correspondants choisis par le Père Mersenne. Cependant pour éviter des représailles éventuelles ou par désir de réserve publique, les auteurs étant des personnages de haut rang social, les textes eux pouvaient être anonymes. Les travaux étaient validés à la fois scientifiquement, par un examen collectif, et humainement, par des louanges. Ces lettres renseignent sur les expériences en cours et également sur ce qui se fait à Paris et dans l'Europe savante. Elles sont rédigées en plusieurs langues et confiées à des intermédiaires, messagers, ambassadeurs, voyageurs et libraires. Pierre de Fermat (1601-1665) compte sur ces échanges informels pour être informé des traités de mathématiques parus depuis cinq ou six ans; le mathématicien anglais Oughtred (1574-1660) prend connaissance des travaux de l'Italien Cavalieri (1598-1647) par un correspondant, alors qu'il ne parvient pas à trouver ses livres. En parallèle, les savants utilisaient en effet un autre moyen d'expression, le livre, qui se développait grâce à l'invention de l'imprimerie (1434). Afin de résoudre les problèmes de lenteur de diffusion des connaissances, d'impartialité, de priorité et de plus grande visibilité des travaux de recherche, le périodique scientifique, alors désigné par « journal », fut créé comme une alternative au livre (Otlet, 1934). Certains de ces problèmes rencontrés alors sont aussi ceux pour lesquels les revues, aujourd'hui, sont contestées. Les premiers périodiques scientifiques furent lancés par des sociétés savantes, selon leur jugement spécialisé, dans le but d'informer la société sur qui faisait quoi, plutôt que de publier des connaissances nouvelles. En France, l'Académie Royale des Sciences prend en charge l'édition de ce que l'on pourrait nommer la première revue scientifique française le Journal des Scavans (janvier 1665), alors que la Royal Society, fondée à Londres, fournit la première revue scientifique anglaise Philosophical Transactions (mars 1665). Le Journal des Scavans offre aux chercheurs la possibilité d'exposer et de discuter leurs opinions. Les fragments scientifiques publiés mentionnaient l'achèvement d'un travail ou faisaient la critique de résultats obtenus et publiés à l'étranger. Il s'enrichit des principales découvertes de l'académie, inconnues du public, et contribue à répandre en Europe les découvertes scientifiques. Les revues scientifiques sont nées, nous l'avons vu, de l'impossibilité, tant des communications épistolaires que des livres, de s'adapter aux nouvelles exigences de la science, exigences d'une diffusion plus large, plus rapide et d'une reconnaissance des scientifiques à travers l'établissement des priorités sur les découvertes. Par ses qualités techniques, par sa fonction de certification des priorités et par son souci de qualité, le « journal » préfigure les fonctions assumées par les meilleurs périodiques scientifiques d'aujourd'hui. La publication originale de textes courts par des auteurs individuels servait à présenter une innovation dans la vie scientifique. Le rôle de l'écrit scientifique s'en trouva modifié : il engageait son auteur sur ses découvertes et sur ses idées, d'où une certaine crainte de représailles. On peut citer le cas de Pierre de Fermat qui ne publia rien de son vivant. Si ce mode de publication des résultats de la science semble assez vite le plus approprié, ce succès est loin d' être assuré au départ, certains scientifiques considérant alors que la revue s'oppose à la pratique reconnue des lettres manuscrites et apporte le risque de voir se publier tout et n'importe quoi (Fayet-Scribe, 1997). Le « journal » apparaît comme un vecteur de la diffusion scientifique permettant une plus grande visibilité des travaux. Le Journal des Scavans en plus d'assurer la protection des découvertes et l'approbation par les pairs, garantissait les promotions et les carrières. En effet, des demandes de subventions au profit d'entreprises érudites étaient publiées. Par exemple, Leibniz (1646-1716) publia pour faire reconnaître sa valeur et postuler à la chaire de mathématiques de Padoue. Au XVIIIe siècle le « journal » a des fonctions de certification de la découverte scientifique. Il devient une pratique de la science comme le souligne De Solla Price " The journal paper became not just the communication, but the discovery itself ". L'une des conséquences imprévues de la création et du soutien des revues fut la consolidation des droits de propriété sur les idées, ce qu'on appelle aujourd'hui la propriété intellectuelle, permettant aux savants de faire valoir leurs droits (Merton, 1973). Ce n'est qu'en janvier 1791 que l'Assemblée Nationale vote une loi en faveur de la protection des inventeurs dans la publication des travaux. Elle permet la délivrance d'un titre appelé brevet, source essentielle de l'information technique, à l'auteur d'une invention pour lui garantir la propriété exclusive et un droit d'exploitation. Au XIXe siècle le terme « journal » est remplacé par celui de « revue ». Le développement de la presse spécialisée scientifique est lié aux découvertes. En 1850, une nouvelle loi votée par l'Assemblée Nationale impose la signature des articles. Chaque article repose sur la fondation de « papiers » antérieurs, puis sert à son tour de point de départ, entre autres pour l'article suivant, qui fait référence aux travaux antérieurs. La revue scientifique prend alors la forme que nous lui connaissons aujourd'hui. Elle est généralement publiée en Europe : Angleterre, France ou Allemagne et reste pluridisciplinaire. Par une spécialisation grandissante des domaines de la recherche, de son institutionnalisation, et une accélération de son internationalisation, le XIXe siècle fut le siècle des revues. En sciences dites « dures » la place centrale de la revue repose sur plusieurs phénomènes : la conception d'une science expérimentale, le besoin de conserver le cheminement des découvertes scientifiques, la nécessité de leur validation et le besoin de procurer l'exclusivité des découvertes. Le chercheur écrit pour diffuser les connaissances qu'il a construites et s'adresse à ceux de ses collègues qui travaillent dans le même domaine que lui. La communication est endogène et intra-disciplinaire (Veron, 1997). La revue est associée à une structure de validation identifiée par un comité éditorial composé de chercheurs reconnus dans leur domaine. Ce processus de validation est appelé " contrôle par les pairs ". Souvent, c'est la notoriété des membres du comité de lecture qui construit la renommée d'une revue. La certification atteste de la qualité de la recherche et de la validité des résultats. Ce n'est qu'après la Seconde Guerre mondiale que le modèle actuel s'est institutionnalisé sous la forme d'un comité de lecture – extérieur ou non au comité éditorial – assistant l'éditeur. Jusqu'au XXe siècle, la revue scientifique est le modèle éditorial dominant. Dans les années 1990, l'ensemble du système de communication de la science se trouve affecté par le recours à Internet à différents niveaux selon les disciplines. Sous l'impulsion de Paul Ginsparg, physicien, se crée une base de « e-print » dédiée aux physiciens des hautes énergies. La création de cette base se fait sous le signe d'une contestation et d'une remise en cause des modèles éditoriaux dominants. Des serveurs en ligne, institutionnels ou non, se déploient sur lesquels les chercheurs peuvent déposer leurs écrits de façon à les rendre accessibles à tous sans entrave : « pre-print » ou « post-print » on parle alors d'archives ouvertes. 7000 serveurs de prépublications scientifiques et techniques existent dans le monde. Les « pre-print » ou prépublications sont des articles qui n'ont pas été contrôlés par les pairs (comité scientifique ou comité de lecture); il s'agit de la version « auteur ». De même, des revues exclusivement électroniques se développent sur le web avec ou non un comité de lecture. Nous sommes dans une phase transitoire marquée par la coexistence de deux systèmes ce qui rend la définition de la revue scientifique électronique difficile (Couzinet, 1999). Mais l'offre dominante des publications électroniques est actuellement une mise à disposition sous forme électronique des revues imprimées. Depuis 2004, de plus en plus d'éditeurs acceptent le dépôt des articles publiés, « post-print », dans les archives ouvertes. Mais des nuances existent sur le format de la version finale de l'article qui peut être déposé. Cependant de nombreux éditeurs de revues (Science, Nature …) refusent d'évaluer ou de publier les articles préalablement rendus publics. Différents travaux en sociologie des sciences ont montré le rôle fondamental de la communication scientifique dans le travail du chercheur (Garvey, Merton, Latour). Les sciences de l'information et de la communication ce sont plus attachées à définir le rôle social des revues (Boure, 1996) ou leurs rôles social et politique (Couzinet, 2006). Une recherche reste inachevée tant que les résultats n'ont pas été rendus disponibles. « L'article - la publication - est à l'origine de la reconnaissance d'un scientifique par ses pairs » (Latour, 1995) qui se traduit par « publier ou périr » pour tout chercheur. La publication d'un article n'est pas pour le chercheur seulement un moyen de communiquer les connaissances qu'il a construites, de faire connaître une découverte et de procéder à des échanges entre chercheurs, mais c'est aussi le moyen d'obtenir l'aval d'un comité de lecture qui garantit le niveau scientifique des travaux et permet d' être reconnu en tant que membre de sa communauté. Vecteur de communication de l'information scientifique validée, la notoriété de la revue est construite par celle de son comité de lecture et ainsi permet d'obtenir des financements et de faire valoir les mérites académiques et scientifiques, principale voie de promotion professionnelle. Elle est l'outil fondamental de l'évaluation de la recherche. Dans ce processus, le chercheur a un statut pluriel; il est à la fois lecteur de publications scientifiques de sa discipline, auteur - l'acte de publier étant une étape essentielle et incontournable dans sa carrière -, et évaluateur (referee). Avec l'électronique, la nature même de l'article est changée : intégration d'images, de vidéos, de sons, et d'hypertextes; l'unité documentaire qui fait sens n'est plus la revue mais l'article. Il semblerait que la publication électronique contribue à faire évoluer les pratiques de lecture et de consultation des revues. Les mutations observées en matière de lecture sont-elles aussi observables en matière d'écriture ? Il est difficile de faire une différence entre usage et pratique. En effet, « L'usage est le processus informationnel…, qui consiste à faire avec la matière informationnelle pour obtenir un effet qui satisfasse un besoin d'information, l'information subsistant après usage » (Dictionnaire de l'information, 2004). La pratique informationnelle peut être considérée comme l'ensemble des actions et des choix de l'individu lors d'une phase de recherche d'information provoquée par un besoin d'information. L'objectif de notre recherche, dans un premier temps, est d'observer les pratiques informationnelles des chercheurs d'une école d'ingénieurs, c'est-à-dire leurs pratiques d'accès à l'information bouleversées par les nouvelles technologies de l'information et de la communication, et, dans un deuxième temps, d'observer les différents usages des publications électroniques en dégageant les stratégies de lecture des revues et des articles scientifiques. Les pratiques des chercheurs travaillant dans le domaine des sciences de l'ingénieur n'ayant pas encore, à notre connaissance, été observées en sciences de l'information et de la communication. Dans le but d'apporter notre contribution aux recherches réalisées jusqu' à présent sur les usages et pratiques informationnelles des chercheurs face à l'électronique, la méthode de l'enquête de terrain a été choisie afin de pouvoir rencontrer des chercheurs confrontés quotidiennement aux ressources électroniques et dont les besoins en information sont importants. Les usages et les pratiques informationnelles des chercheurs débutants ou confirmés ont donné lieu à de nombreux travaux en sciences de l'information et de la communication. Face à l'électronique, les pratiques informationnelles et la diffusion des résultats de la recherche sont en effet, modifiées et varient selon les domaines de recherche. De nombreuses études (Chartron, Mahé, Pignard) ont montré l'intégration des revues électroniques dans les pratiques des chercheurs en « sciences dures » variable selon le type d'usagers et la discipline. En 1997 et 2002, Annaïg Mahé et Ghislaine Chartron ont réalisé une étude qualitative sur le Campus de Jussieu, à Paris, auprès de chercheurs et de doctorants et auprès de chercheurs du Commissariat à l'Energie Atomique afin de déterminer les usages des revues électroniques. Les disciplines concernées sont majoritairement la Physique, la Chimie, et la Biologie. Un certain nombre de résultats concordent avec ceux de la littérature anglo-saxonne du domaine (Crawford et al, 1996, Lawal 2002) qui fait apparaître l'importance de la discipline de recherche et de l'environnement du chercheur. Les publications périodiques électroniques sont connues et utilisées par un grand nombre de chercheurs en particulier par les physiciens et les chimistes (Chartron, 2002). Ces chercheurs lisent en majorité des publications anglo-saxonnes et peu d'ouvrages. Cependant des réticences apparaissent chez les biologistes, réticences dues aux habitudes du support papier et au manque de maîtrise de l'outil informatique. Parmi les outils à disposition du chercheur la revue apparaît comme le support officiel et légitime des publications scientifiques. En 2004, Nathalie Pignard-Cheynel a analysé les usages et les pratiques de chercheurs en physique des particules qui concordent avec ceux cités ci-dessus, mais a mis en évidence la diffusion des résultats de recherche sous forme de « pre-prints ». A la différence des « sciences dures » une observation conduite antérieurement avait montré que les chercheurs en sciences humaines et sociales utilisaient encore peu l'électronique dans leurs pratiques de consultation et de diffusion. Ce travail mené sur une population de doctorants en sciences de l'information et de la communication avait mis en lumière qu'ils sont plus réticents envers les ressources électroniques (Couzinet, Bouzon, 1997). Enfin, une autre enquête menée sur les pratiques informationnelles des moniteurs-doctorants du CIES (centre d'initiation à l'enseignement supérieur) de Jussieu en 1997 (Mahé, Chartron) met en évidence qu'ils n'utilisent les revues électroniques qu' à 14 %. Cet ensemble de recherches développées met au jour des manières de faire liées à la discipline d'exercice, aux habitudes du recours à l'informatique mais également à l'offre de revues sur un support électronique. Ce que nous nous proposons d'observer, un groupe de chercheurs en sciences de l'ingénieur, se trouve confronté à la nécessité de développer des recherches fondamentales mais surtout des recherches appliquées essentiellement tournées vers l'innovation technique. Le rôle du dépôt de brevet visant à assurer la propriété des découvertes nous semble introduire une différence notable avec les populations étudiées à ce jour. Notre terrain d'enquête est l'ENSIACET, Grande Ecole, qui délivre le diplôme d'ingénieur et a un rôle déterminant dans la recherche et le développement des technologies nouvelles. Cette école est l'une des trois composantes de l'INPT (Institut National Polytechnique de Toulouse) et assure deux missions principales de formation et de recherche en étroite collaboration avec le secteur industriel. La recherche à l'ENSIACET est de haut niveau et garantit l'adéquation de l'enseignement à l'évolution des connaissances et aux besoins des industriels. Elle y est structurée autour de 4 laboratoires : laboratoire de génie chimique (CNRS/INPT/UPS), laboratoire de chimie agro-industrielle (INRA/INPT), centre inter universitaire de recherche et d'ingénierie des matériaux (CNRS/INPT/UPS) et laboratoire de catalyse chimie fine et polymères. L'objectif de notre étude dans un premier temps est de rendre compte des pratiques informationnelles des chercheurs de cette école, c'est-à-dire d'observer les bouleversements induits par les nouvelles technologies de l'information et de la communication et dans un deuxième temps de relever les différents usages des publications électroniques en dégageant les stratégies de lecture des revues et des articles scientifiques. Les chercheurs depuis 2002 ont un accès aux revues d'éditeurs qui diffusent, sous forme numérique, leurs revues imprimées. En 5 ans, le nombre de titres de revues accessibles en version électronique a doublé et en parallèle le nombre d'articles téléchargés a augmenté. Les chercheurs diffusent leurs recherches sous forme d'articles dans des revues, d'actes de colloques, et de brevets. Rappelons que ces analyses qui s'inscrivent dans une recherche de longue haleine seront présentées ici dans leur phase exploratoire, elles devraient conduire à affiner la problématique et à poser des hypothèses de recherche. Nous avons pu constater que les chercheurs interrogés continuent à chercher des informations via les bases de données bibliographiques et n'utilisent ScienceDirect (Elsevier) que dans le but d'obtenir le texte intégral en recherchant avant tout la(les) revue(s) importante(s) dans leur domaine de recherche. ScienceDirect contient de l'information pluridisciplinaire en texte intégral et bibliographique issue de plus de 1800 revues. L'entrée dans la ressource électronique se fait principalement par le titre de la revue et parfois par sujet. Les personnes interrogées recherchent avant tout la(les) revue(s) importante(s) dans leur domaine de recherche. Nous avons pu constater que pour certaines l'intérêt pour le support électronique porte sur la possibilité de faire une recherche en texte intégral. Les articles sont alors indexés de façon automatique à partir de l'ensemble du texte ce qui permet une interrogation en « langage naturel ». Cette indexation s'effectue grâce à un logiciel dans le but d'établir une liste ordonnée de tous les mots apparaissant dans les documents avec la localisation exacte de chacune de leurs occurrences. Jusqu'où vont-ils dans l'indexation des documents ? Que deviennent les documents non indexés ? Même si les moteurs de recherche filtrent les mots « vides », les chercheurs sont conscients du « bruit » obtenu et qu'ils peuvent passer à côté d'une information pertinente, mais ces conséquences ne semblent guère se faire sentir car ils bénéficient d'une formation fondée sur le sens critique, c'est-à-dire qu'ils savent différencier dans la masse importante d'informations celles qui sont validées et pertinentes. S'ils ne consultent plus la version imprimée de la revue, la longueur du texte apparaît comme un obstacle à la lecture en ligne d'où son impression pour le lire. Le besoin d'avoir une vue globale, de feuilleter et d'annoter les textes, et de se trouver face à un texte stabilisé, implique d'avoir l'article imprimé. Le mode de diffusion proposé ne les incite pas à développer d'autres recherches. Leurs pratiques de consultation de l'information ne dépassent pas le champ des revues de leur domaine. La présence de liens hypertextes ne donne pas une nouvelle dimension à leur lecture. Pour éviter une perte de pertinence et pour avoir une lecture verticale, ils n'utilisent pas les liens même s'ils sont disponibles 1. Les avantages de la publication électronique sont le gain de temps, l'accès direct au texte intégral, et la possibilité de faire de la veille. Les inconvénients portent sur l'absence de validation et une lecture sur écran (Chartron, 2002). Les éléments dégagés ici donc concordent avec ceux relevés dans différentes études sur les usages et les pratiques des chercheurs face à la publication électronique. 4.2. Réticences En 2002, une enquête effectuée auprès de chercheurs américains et canadiens en sciences dures sur l'utilisation des archives de « pre-print » montre que seulement 18 % les utilisent et publient ultérieurement selon la filière traditionnelle (Lawal, 2002). Le degré d'adhésion aux enjeux et aux implications des nouveaux outils nous a semblé intéressant à observer. Donc les chercheurs ne suivent pas les évolutions liées aux mouvements et initiatives sur l'open access car ils ont une faible connaissance des moyens à disposition Ils ignorent l'existence de revues exclusivement électroniques et de serveur de « pre-print » dans leurs domaines. Il n'existe d'après eux aucune archive de prépublications électroniques consacrée exclusivement aux sciences pour l'ingénieur. Il a été mis en évidence que les techniques d'accès au document électronique exigeant de nouvelles compétences soulèvent des résistances auprès de certains utilisateurs (Guédon, 1994). L'immobilisme semble être lié aux craintes d' être incompétents face à l'informatique et au refus de changer ses habitudes (Guichard, 2002) ce qui n'a pas été observé lors de nos entretiens. Des études montrent que les chercheurs craignent aussi, que la diffusion publique de leur « pre-print » ne favorise le plagiat (De La Vega, 2000), la perte d'antériorité et de crédit de leur travail (Harnad, 2000). Or, le « pre-print » ou l'auto-publication serait un moyen de régler le problème de la priorité dans les recherches ou de la propriété intellectuelle des découvertes scientifiques (Pignard, 2004). Pour la population que nous étudions, le refus à produire en ligne porte sur les auto-publications sur un site ou dans une revue exclusivement électronique si le contrôle et la validation par les pairs ne sont pas présents. Cela n'est pas lié au fait que leur propriété intellectuelle ne serait pas protégée, le brevet étant un moyen de le faire, mais à l'absence de comité de lecture. En effet, les brevets, les normes et les rapports techniques constituent également une source privilégiée d'informations. Le « preprint » sous forme de texte électronique n'est pas par nature différent du texte imprimé que l'on envoie, pour lecture et avis, avant même de le soumettre pour publication. Cependant, la validation reste fondamentale pour tous. Pour certains, leurs hésitations à diffuser des « pre-print » semblent venir d'une certaine gêne de montrer un travail non fini et peut-être de qualité moyenne. Pour eux sans validation le travail n'est pas abouti et ne peut être diffusé. Malgré la remise en cause des processus d'évaluation des chercheurs, comme suite aux affaires de fraude scientifique qui apparaissent de plus en plus fréquemment dans la presse spécialisée, la validation par les pairs et les remarques des « referees » restent pour eux le seul moyen d'améliorer l'article et donc d'augmenter sa valeur. Les séminaires, congrès et colloques permettent une communication orale, puis écrite sous formes d'actes de congrès. Les travaux de recherche sont en phase terminale de développement, pour la plupart, mais sans qu'il y ait eu une validation par les pairs aussi stricte que celle effectuée sur l'article. L'échange électronique a modifié également la gestion des congrès : de la soumission des résumés jusqu' à la diffusion des textes des auteurs, puisque les résumés et certains textes sont accessibles sur Internet avant le déroulement de ces journées. Les chercheurs interrogés sont prêts à diffuser leurs communications de congrès pour les rendre plus accessibles et dans l'idée d'améliorer les échanges. De nombreux auteurs (Vinck 1995, Courtial 1990) critiquent les études scientométriques, à partir de la production écrite des chercheurs, qui prennent une importance croissante dans la communauté scientifique, notamment pour les sciences exactes. Ils dénoncent des modalités de calcul parfois biaisées, qui se révèlent souvent inégalitaires. Cependant pour l'instant, les revues restent le seul moyen de valider le travail. Les personnes interrogées restent attachées à elle et, faute de mieux, aux principaux critères de cette évaluation que sont le « facteur d'impact » et la validation par les pairs. L'article représente « l'unité de sens primaire » de la communication scientifique, le produit fini de la recherche. A travers la publication dans la revue, l'article est donc identifié par son appartenance à un corpus particulier, ensemble cohérent et dynamique : la revue donne un sens collectif à la production de connaissances et elle la légitime. L'article accède désormais à un statut individuel, dont la légitimité n'est plus attestée par le label d'une revue (Vieira, 1997). L'article n'est plus publié sous un titre commun « il est seulement une unité de la base de données » (Renzetti, 1996). La forme de l'article imprimé est définie en fonction de critères très précis pour un usage donné; il ne suffit pas de passer d'un support à l'autre pour lui donner une vie nouvelle. La structure interne de ce dernier détermine des modes de lecture que l'on ne peut pas artificiellement modifier. Les chercheurs sont amenés à repenser leurs pratiques d'écriture, les règles et les contraintes de l'édition électronique étant différente de celles de l'édition papier (Rygiel, 2005). S'il est possible de reproduire la version imprimée sur le web en revanche les publications électroniques sans équivalent papier doivent trouver une écriture adaptée au support. Dans l'écriture spécifique au net, ce n'est pas l'écriture en elle -même qui est primordiale mais la mise en forme du contenu et sa mise en valeur. Ce qui distingue l'écriture électronique de celle traditionnelle, c'est la possibilité de créer des liens hypertextes. Cela suppose au moment de l'écriture de créer des mini arborescences. De même, la structuration des données conditionne leur accès et leur recherche. L'hypertexte change le rapport des utilisateurs avec la connaissance. « Le texte-web est centrifuge, incite à cliquer et à s'éloigner » (Vandendorpe, Bachand, 2002). L'article ne peut plus être lu de façon linéaire. Les clés d'accès se multiplient pour l'utilisateur final. L'hypertexte permet au lecteur de comparer très facilement ce qu'un texte dit et ce qu'un autre texte affirme que le premier texte dit (Cambrosio, Jacobi, 1997). Si les règles de la présentation et de la rédaction des articles scientifiques sont bien connus par les acteurs de la production de ce type de documents sur support papier, elles restent très mal définies dans le cas des articles sur support électronique (Ben Romdhane, Laine-Cruzel, 1997). Les chercheurs interrogés ne semblent pas prêts à être maître d' œuvre de la numérisation de leurs articles. Il existe déjà des contraintes dans l'écriture de ses articles auxquelles l'auteur doit se soumettre en fonction des instructions et avis des éditeurs. Leur attitude peut être qualifiée d'ambivalente dans la mesure où les mêmes personnes proclament leur totale absence de réticences face à ces nouvelles fonctionnalités et énumèrent, quelques instants plus tard, des réserves et des critiques sur la diffusion d'articles non validés par les pairs. Des initiatives redéfinissent les processus de validation des publications scientifiques suite aux affaires de fraude scientifique qui apparaissent de plus en plus fréquemment dans la presse spécialisée ou même dans la presse grand-public. Le serveur de « e-print » de Los Alamos fondé par P. Ginsparg donne la possibilité à tous de faire des commentaires, remarques et autres corrections directement sur les « pre-print ». Stevan Harnad dans les deux revues électroniques « Psycholoquy » et « Behavioral and Brain Sciences » propose une fois l'article validé par un comité de lecture d' être soumis aux « commentaires ouverts » pour être diffusé définitivement avec les remarques des relecteurs et les réponses de l'auteur. Face à ces nouvelles initiatives qui proposent de faire des commentaires, remarques et corrections directement sur le « pre-print », ou que les commentaires des « referees » soient diffusés avec le « post-print », les chercheurs interrogés acceptent l'idée avec pour certains la nécessité d'un contrôle des personnes qui font les commentaires sur le « pre-print ». L'éditeur Springer a mis en place l ' « open choice » qui consiste à faire payer l'auteur ou le laboratoire pour la publication de son article, article offert ensuite gratuitement aux lecteurs. Dans la population interrogée les uns refusent un tel procédé, qui entraînerait un poids supplémentaire sur l'auteur et une diffusion plus large des articles de ceux bénéficiant de subventions importantes. Pour les autres, ce serait un moyen de communiquer et de diffuser les informations à un plus large public. Pour les chercheurs l'accès à l'information souhaitée reste primordial. Cependant, ils se contentent d'utiliser des ressources bien précises mises à leur disposition et n'ont pas le temps de suivre les évolutions de la diffusion de l'information. Les revues scientifiques représentent toujours le moyen privilégié de communication de l'information scientifique par rapport aux monographies. Elles sont associées à une structure de validation identifiée par un comité éditorial. Les personnes interrogées savent que le processus de validation pose certains problèmes, notamment celui de la cooptation de chercheurs pour la constitution de ces instances de validation, mais la publication qui, d'après eux, doit et est reconnue par les institutions reste encore celle ayant un comité de lecture. Les chercheurs veulent maintenir la validation des articles. Ils sont prêts à publier en ligne si le contrôle par les pairs est préservé. A ce stade, le choix de lire ou de publier dans telle ou telle revue n'est pas lié à son « facteur d'impact ». Les domaines de recherche des enquêtés étant très spécifiques, les articles sont nécessairement moins cités et bien que très pertinents, n'intéressent qu'une minorité de chercheurs. La réflexion sur l'avenir des revues ne nous semble pas pouvoir être basée seulement sur l'opposition papier/électronique et le problème économique des unités de recherche et des bibliothèques. Les chercheurs sont rarement conscients de ces enjeux. Ces entretiens révèlent aussi que la question du choix entre revue imprimé et articles numérisés disponibles en texte intégral reste posée. La validation des résultats de recherche par des comités de pairs est toujours perçue comme primordiale. La réflexion sur la diffusion de contenus et le rôle des publications dans la diffusion des connaissances nous paraît donc devoir être étudié en termes de représentations de la valeur de l'évaluation par les pairs. La question de la priorité des découvertes, du positionnement dans une communauté donnée en termes de notoriété et de progression dans la carrière n'évolue pas avec le type de support de diffusion de la science malgré la possibilité, pour la population étudiée, de disposer, pour une partie de leurs travaux, d'un autre support de protection, le brevet. Cette hypothèse, de portée très générale, nécessite bien évidemment d' être affinée et d' être reliée aux pratiques d'écriture pour comprendre les distorsions entre usages de l'information et production de connaissances. Il nous semble important de réfléchir non seulement à la diffusion mais aussi au contenu et au rôle des publications dans la diffusion des connaissances et l'évaluation des résultats (Sabbah, 1999). La mise en valeur de l'autonomie des articles, comme le suggère le succès du serveur de prépublications de Paul Ginsparg, semble peu intéresser les chercheurs en sciences de l'ingénieur. L'avenir du numérique se situe t-il vraiment vers une redéfinition du contrôle par les pairs suivant le modèle d'organisation publique de la critique telle qu'on le retrouve dans le journal Psychology de Steven Harnad ?
La revue apparaît comme un vecteur de la diffusion scientifique permettant une plus grande visibilité des travaux. Actuellement la publication électronique semble avoir trouvé son audience et son lectorat particulièrement en sciences dures. Mais ces nouveaux usages bouleversent-ils les conditions et les enjeux de diffusion des résultats ? Le premier travail exploratoire auprès d'une population de chercheurs d'une école d'ingénieurs devrait permettre de poser des hypothèses à vérifier, entre autres, par une étude quantitative.
sciencesInfo_10-0384091_tei_DN_103_0047.tei.xml
termith-398-communication
Le thème du dossier numérique, quoique peu exploré jusqu' à présent sur le plan théorique est néanmoins riche de pistes de réflexions. Nous souhaiterions l'aborder ici sous deux aspects. 1. La question du passage d'un corpus papier, ancré dans la forme d'un support donné (ici le dossier), à un corpus électronique renvoie au rôle de la technique dans la structuration de l'information. Il s'agira d'ailleurs ici plus de la question de la déstructuration d'un ensemble donné, dans le contexte du passage à de nouveaux outils, dans la mesure où le rapport de l'information à son support matériel n'est pas simplement une question de stockage, mais soulève la question de l'organisation même de l'information. Nous nous appuierons dans cette partie sur une forme d'utilisation particulière des dossiers dits « de presse » dans le cadre de la documentation de presse. 2. A travers cette problématique de structuration/déstructuration d'un ensemble destiné à la fois à contenir, à organiser et à diffuser de l'information, nous nous interrogerons sur la prégnance des modèles ainsi obtenus et leur rôle dans la représentation que se font les professionnels de ce type d'outil. Nous aborderons brièvement cette représentation par le biais d'une analyse sémiotique de quelques icônes représentant l'objet dossier dans des applications documentaires, ou des sites web. En conclusion, nous évoquerons quelques pistes liées à l'évolution des solutions logicielles, envisagées moins sous l'angle technique que sous celui des modes d'organisation de l'information et de ses représentations. Sans doute n'est-il pas exagéré de dire que le dossier documentaire marque historiquement une étape importante de la constitution de la documentation comme discipline spécifique. Par rapport à l'unité de volume représenté par le livre traité en bibliothèque 1, le dossier documentaire « est le résultat du découpage régulier d'un choix de revues et de journaux, de la collecte de différentes pièces détachées et brochures, ainsi que de dessins, photographies, cartes, etc. » [FAY 00 ]. Encore plus que l'attribution d'une cote à un ouvrage, le choix de la destination d'un composant du dossier relève d'une activité signifiante : la réunion de différentes pièces documentaires dans un seul volume permet de prendre connaissance globalement de leur sens intrinsèque, mais se révèle également productrice d'un sens nouveau, dans la mesure où la collection de ces documents produit de l'information par le truchement de leur seule mise en regard. La forme des objets documentaires est loin d' être anecdotique, et l'analyse des transformations morphologiques de ces objets relève de la « culture triviale » évoquée par Yves Jeanneret [JEA 94 ]. Ces objets de « l'infra-ordinaire » comme disait Georges Perec, nous sont devenus transparents parce que trop utiles et trop connus. Leur matérialité nous paraît naturelle, alors qu'en tant qu'artefacts ils recouvrent à la fois une logique d'organisation et une pratique. Retrouver leur originalité n'est pas facile car cela suppose de s'abstraire du geste quotidien. Qu'il s'agisse ou non de documentation, n'importe qui aujourd'hui est habitué à ouvrir les portes d'une armoire et à en extraire un dossier dit suspendu pour consulter les différentes pièces dont il est composé. Pourtant ce geste ne va pas de soi, et la meilleure méthode anthropologique par rapport à ce genre de problématique est de se demander systématiquement comment on faisait « avant ». Selon Joanne Yates [YAT 82] (voir aussi Morton [MOR 95]), l'invention des dossiers suspendus a été accueillie « comme une grande innovation au moment de leur apparition à la fin du dix-neuvième siècle (…) Les dossiers suspendus se présentaient comme un système de conservation où les documents de toute origine pouvaient se regrouper et se disposer par sujet, par région ou tout autre catégorie. » Il ne fait pas de doute que c'est cette dimension de l'organisation de l'information en un volume, physiquement palpable et disponible de manière ramassée, qui confère à l'unité dossier toute sa richesse documentaire. Dans le contexte de l'entreprise, qui est celui étudié par Joanne Yates, le dossier suspendu a l'avantage, sur le registre relié, de rapprocher physiquement différentes pièces se référant à une même affaire (courrier émis et courrier reçu par exemple). L'unité thématique transcende ici la forme du document. Notons que, à la suite des analyses de Chandler [CHA 88] sur le développement de la firme capitaliste à compter de la seconde moitié du 19e siècle, Yates identifie cette transformation comme une réponse à l'explosion quantitative des échanges écrits dans les entreprises : courriers, notes, rapports, etc. Dans ces conditions, c'est bien le problème de la gestion du volume qui engendre l'innovation technologique. Dans l'exemple que nous avons choisi d'étudier, la question du volume est également importante puisque les flux quotidiens d'entrée dans les grands centres de documentation de presse en France vont de 4 à 800 coupures 2 par jour, en mode papier ou en numérique. Dans l'application à la documentation de presse, nous retiendrons essentiellement le fait que le dossier réunisse des éléments auparavant disjoints au sein de publications différentes, dans une même unité thématique documentaire. En revanche, ces documents sont relativement homogènes en ce sens qu'ils proviennent tous de journaux préalablement découpés, ce qui n'est pas forcément le cas dans d'autres applications documentaries 3. Les documentalistes distinguent en général entre le dossier-outil et le dossier-produit. On appellera dossier-outil le système physique de rangement dans des chemises des documents, en ce qui nous concerne ici, des coupures de presse. Outil, car il s'agit du fonds documentaire, du stock, donc de la matière première utilisée pour faire des recherches. La plupart du temps 4, en mode manuel, le résultat d'une de ces recherches est la reproduction d'un certain nombre de documents rencontrés dans un ou plusieurs, dossiers, puis recomposés à l'intérieur d'un dossier documentaire appelé ici dossier-produit. La grande force de l'outil documentaire papier est que, dans ce contexte, pour contredire la formule célèbre, la carte EST le territoire. En effet, un ensemble de dossiers structurés par l'intermédiaire d'un plan de classement constitue à la fois un corpus organisé et la représentation de ce corpus. Autrement dit, il n'y a pas besoin de description intermédiaire comme des fiches documentaires par exemple. Cet aspect est particulièrement bien souligné dans l'ouvrage collectif sur le dossier documentaire : « Indexer sur des fiches intermédiaires, c'est nier l'accès direct à l'information. S'il y a obligation de passer par ces fiches, c'est alors nier l'avantage essentiel des dossiers par rapport à d'autres outils documentaires. » [COU 94, p. 65 ]. La notion d'accès direct à l'information mérite quand même qu'on s'y arrête un instant. Dans cet ouvrage, écrit par et pour des professionnels de l'information, la notion d'accès direct s'applique évidemment à la personne qui connaît à la fois les règles du système et le mode d'organisation des contenus. Il s'agit donc d'un accès à travers une connaissance intériorisée, tacite [NON 95]; mais cet accès ne sera pas forcément « direct » pour tout le monde. Joëlle le Marec [MAR 89] a montré il y a déjà quelques années, à propos de la Bibliothèque publique d'information de Beaubourg que la lecture par le grand public de dispositifs de classement physique de type CDU n'étaient pas donnée d'emblée. L'accès n'est pas si direct qu'il en a l'air : subsiste le filtre de la nomenclature, du plan de classement, même si celui -ci n'est pas médiatisé par une cote comme dans le cas des bibliothèques; même un plan de classement purement alphabétique ne laisse pas forcément transparaître aussi facilement sa logique d'organisation. Toute classification possède sa part de subjectivité, qui nuit partiellement à la notion d'accès direct évoqué ci-dessus. Cette réflexion n'est pas à négliger car dans bien des cas, les projets d'informatisation se sont articulés autour d'une volonté plus ou moins affichée de fournir un accès plus facile ou « transparent » aux ressources documentaires pour l'utilisateur final. La problématique de l'accès direct n'est donc pas si neutre que cela. Dans le domaine de la presse écrite, nous retiendrons deux acceptions principales du terme « dossier » 5. La première désigne à travers ce terme un type d'article ou une unité éditoriale particulière. Il s'agit ici de regrouper sous une même en-tête différents articles ayant trait à un même événement ou permettant d'apporter des éclairages complémentaires à un article d'actualité (citons comme exemple les pages « Evénement » qui ouvrent le journal Libération ou encore les cover stories des magazines d'actualité, cela peut même désigner une publication à part entière comme les « Dossiers et documents » publiés par Le Monde). Dans tous ces différents cas, la notion de dossier est basée sur la logique d'un rapprochement physique dans un même ensemble de pages, d'une série d'articles ou d'illustrations (cartes, photos, schémas) reliés entre eux selon une logique thématique. Parfois une partie des unités composant le tout peut être aussi bien comprise dans cet ensemble que lue séparément. C'est le cas notamment des encadrés, qui, comme leur nom l'indiquent sont physiquement séparés des autres articles, et servent la plupart du temps à développer un angle en particulier ou à expliquer un point précis, nécessaire à l'éclairage du tout, mais qui peut garder sa valeur documentaire propre lorsqu'il en est séparé. Par exemple dans un dossier sur le conflit en Afghanistan, un encadré parlera des medressas, les écoles coraniques dans lesquelles se sont formés les talibans au Pakistan. En tant que tel, l'encadré peut être lu sans référence à l'ensemble, tout en faisant partie du même dossier. Dans ce cas, l'unité documentaire peut être comprise à deux niveaux : le dossier comme ensemble global, ou ses composantes, chacun de ces éléments pouvant faire l'objet d'un classement spécifique. On notera que la publication des journaux sous forme électronique, notamment dans les sites web, renouvelle le genre du dossier rédactionnel, puisque les différentes parties d'un même document d'actualité peuvent être consultables sous forme de liens clicables dans la page, comme on peut le voir dans l'exemple ci-dessous. Dans la deuxième acception du terme, nous désignons par dossier de presse la collection dans une même chemise d'articles provenant de sources différentes. La documentation de presse traditionnelle (utilisant des outils papier) est basée sur l'utilisation de ces dossiers thématiques, adressés par des descripteurs, ou par des cotes alphanumériques recensés dans des plans de classement inspirés des grands systèmes de classification comme la Dewey ou la CDU. Ces systèmes sont particulièrement efficaces, même si leur utilisation ne procède pas forcément d'une réflexion théorique sur ce qu'est l'objet-dossier, sa finalité, son mode de consultation. L'informatisation de ces corpus documentaires a posé problème dans la mesure où la notion de dossier numérique ou dossier virtuel ne pouvait pas s'incarner dans un outil de gestion automatique qui faisait au contraire la part belle au traitement de l'unité documentaire (l'article de journal), mais au prix de la déstructuration du volume physique représenté par le dossier papier. Nous avons souligné à plusieurs reprises [COT 91 ], [COT 98] que l'information de presse était particulièrement volatile. Le traitement de l'actualité est complexe et oscille toujours entre deux écueils : la redondance et l'oubli. L'actualité étant ce qu'elle est, la valeur incrémentale de l'information nouvelle chaque jour est relativement faible; pourtant il faut produire un volume identique de pages, et si possible restituer l'information nouvelle dans son contexte, c'est-à-dire vis-à-vis de l'information d'hier ou d'avant-hier. Il est difficile dans ces conditions d'éviter la redondance. Celle -ci ne frappe pas forcément le lecteur car chaque nouvel article est écrit chaque jour ou chaque semaine, dans la perspective d'une lecture renouvelée, sans autre contexte que celui de la mémoire du lecteur. En revanche, dans le dossier comme objet de réunion physique des documents, la redondance éclate : redondance synchronique, celle qui réunit les articles quasiment identiques parus dans des journaux différents, et redondance diachronique, celle qui ramène dans un même espace des commentaires ou des faits réédités à distance de plusieurs intervalles de temps. L'oubli est la deuxième menace qui frappe le fait d'actualité. La solution de continuité est quasiment la règle en matière d'actualité. Elle fonctionne d'autant mieux que la presse moderne obéit de plus en plus à des impératifs commerciaux et exige le renouvellement des problématiques, le parler-bref, pour susciter l'intérêt du lecteur et le renouveler en permanence. On focalisera donc pendant quelques jours sur un événement, poussant l'effet de redondance au maximum, quitte à laisser totalement tomber la couverture quelques jours après, laissant en suspens les questions que peut se poser tel ou tel lecteur sur la suite de l'événement. Le dossier, se nourrissant d'une telle matière mettra également cruellement à nu cet effet du dispositif de production d'information, car la superposition des documents permettra de toucher du doigt la coupure avec netteté : entre telle date et telle date, le fil de l'histoire s'interrompt brusquement, si toutefois même il reprend. Le dossier documentaire est donc un outil indispensable, mais imparfait. Il oscille en permanence entre son statut de dossier-outil où le documentaliste est tenté de conserver le maximum d'informations « au cas où », et celui de dossier-produit, qui exigerait une reconstruction totale du discours informatif sous la forme d'un discours documentaire. Cependant, très peu de documentalistes de presse pratiquent le nécessaire « désherbage » capable de produire cette forme synthétique, le plus souvent faute de temps. Néanmoins, les avantages du dossier manuel se lisent essentiellement dans l'activité de recherche d'information : pour des raisons peu souvent étudiées, et qui relèvent de l'activité cognitive associant le mouvement de la main, de l' œil et l'activité du cerveau, la sélection d'une poignée d'articles pertinents dans un dossier volumineux se fait beaucoup plus rapidement et avec plus de sûreté et d'efficacité que la consultation à l'écran d'une liste de références, sous forme par exemples de titres fournis par une interrogation dans une banque de données ou par l'intermédiaire d'un moteur de recherche. Sur ce plan, l'avantage technologique de la numérisation, en ce qui concerne le gain de place, la conservation sur le long terme 6, et la transversalité de la recherche, se trouve contredit par la relative lenteur de l'exploitation de l'information à travers la lecture sur écran. Nous avons vu qu'une des caractéristiques du dossier en tant que construction physique était de donner un sens particulier à l'information grâce à la réunion de documents de sources diverses. Par cette mise en regard, le dossier est instrument de la construction d'un discours, spécifique, qui se superpose aux discours singuliers inscrits dans les documents eux -mêmes. Dans quelle mesure l'informatisation a -t-elle détruit cette organisation ? La numérisation, en matière de presse et de documentation de presse, peut être envisagée à deux niveaux : le niveau de l'informatisation de la publication elle -même, le niveau de l'informatisation des sources extérieures. En ce qui concerne le premier point, l'évolution des techniques de fabrication à partir des années 1960 (photocomposition, puis PAO) a abouti à fournir un équivalent du numéro du journal sous forme de fichier. Cependant, la technologie employée pour stocker ces textes dans les grands serveurs de bases de données, celle du texte intégral, va totalement à l'encontre de la notion de dossier documentaire. Au contraire, elle éclate même en des unités distinctes les différentes parties d'un même dossier rédactionnel tel qu'il peut être mis en page dans un quotidien ou un magazine. La plupart des logiciels utilisés pour le stockage des articles de presse ne savent pas gérer par exemple la relation du texte-père avec un encadré. La plupart du temps, la solution retenue est de basculer le texte de l'encadré dans le fichier-père et de livrer le tout à la recherche et à la consultation. Les générations ultérieures d'outils, en permettant, soit l'exportation globale de l'image de la page en format PDF par exemple, soit sa reconstitution à la volée à partir d'un balisage XML permettent au moins de restituer l'information dans son contexte visuel et hiérarchique 7. En revanche, en ce qui concerne les sources acquises à l'extérieur, la difficulté est plus grande, et le passage du manuel au numérique a la plupart du temps contribué à déstructurer totalement l'idée de dossier. Soit la chaîne de numérisation classique de la GED 8. La séquence des opérations est la suivante : Sur le plan purement informatique, les images sont stockées dans le serveur dans l'ordre de leur acquisition par le système, il n'existe pas d'organisation spécifique des données. La question a pu se poser dans les toutes premières générations, lorsque le stockage se faisait sur des disques optiques numériques, accessibles via des jukeboxes. Dans le but d'optimiser les temps de réponse, la répartition des documents par disque (par exemple un disque pour telle thématique ou telles entrées d'un plan de classement) pouvait s'avérer nécessaire. La remontée en puissance du support magnétique vis-à-vis du support optique et l'accroissement considérable des capacités de stockage, allié aux progrès en matière de compression des données, ont rendu ce problème négligeable. On ne s'occupe donc plus en entrée de la question du regroupement physique des documents numériques. De toutes les façons, il s'agissait là d'un problème concernant le gestionnaire du système et non pas l'utilisateur pour lequel ce stockage par regroupement est de toutes les façons invisible et impalpable. Par conséquent, la seule manière de simuler une logique de dossier au sens d'un regroupement de coupures de presse traitant du même sujet est l'indexation. Le descripteur joue donc ici le rôle de terme unifiant pour simuler la réunion de documents différents sous une même thématique. Le problème principal ici est que la manière de nommer un dossier dans un système documentaire manuel diffère grandement des logiques d'indexation à l' œuvre dans les systèmes informatisés. Le nommage d'un dossier s'apparente plus à l'attribution d'un titre qu' à l'application d'un descripteur, d'où la grande souplesse de traitement de ces outils. Les noms de dossier peuvent s'écarter des canons de la logique documentaire mais coller au plus près de l'actualité en reprenant par exemple la locution sous laquelle un événement se fait connaître et reconnaître à la fois par la communauté des producteurs de l'information, les journalistes et celle du public. On pourrait avancer ici la notion de « mot-titre » pour désigner l'expression servant à nommer un dossier. Ceci vaut notamment pour les « affaires » ou les faits divers, mais aussi pour les grandes questions internationales. « L'affaire des diamants », « L'affaire Gregory », « Le sommet de Kyoto », « Le terrorisme islamique », etc. sont à la fois des thématiques de l'actualité et des noms de dossiers qui ont l'avantage non seulement de retranscrire parfaitement le contenu même de l'événement, mais également d'exprimer celui -ci dans sa singularité 9. En revanche l'application de descripteurs comme « corruption », « meurtre d'enfant », « pollution/sommet international », « terrorisme/religion/islam » renvoient chacun de ces événements à une universalité qui nuit à leur qualification documentaire. Dans les années 1980, la question du « foulard islamique » dans les écoles françaises pouvait difficilement être qualifiée par les descripteurs « école » et « accessoire du vêtement » tels qu'on pourrait les trouver dans un thesaurus ! Or, relevant essentiellement d'une logique analytique, les procédures d'indexation informatisées sont venues contredire l'efficacité de la logique du traitement en dossiers. Tant que l'image de l'article n'est pas concernée (dans les banques de données Ascii de première génération par exemple), le traitement des documents entrés s'effectue selon la logique du texte intégral : tout terme de l'article, sauf les mots-vides est indexé. Du même coup, pour un feuillet 10 comprenant environ 215 mots, on aura approximativement 150 clés d'indexation possibles. Si l'on raisonne en termes de dossiers virtuels, cela signifie que cet article peut être virtuellement classé à 150 endroits différents. On voit donc d'une part que la notion de dossier est soumise ici à un véritable éclatement, d'autre part que le risque de bruit est démultiplié. D'où le plus souvent, dans les banques de données documentaires de presse, comme celle du Monde par exemple, la combinaison de l'indexation en texte intégral et de l'attribution de descripteurs à l'article 11. L'époque de l'informatisation des centres de documentation de presse voit le passage d'un outil de type classification thématique (plan de classement, nomenclature) à la logique plus analytique des thesaurii. La norme d'usage de ces outils veut que l'on utilise principalement des unitermes [AIT 92 ]. Même si, notamment à travers la reconnaissance des synapsies, les thesaurii autorisent la présence de termes précoordonnés, ils vont rarement jusqu' à accepter des phrases entières ou des locutions qui permettraient de retrouver l'élément titre utilisé pour la dénomination d'un dossier documentaire. Dans son étude sur les pratiques documentaires d'indexation, Muriel Amar [AMA 00] relève la surreprésentation des noms propres (noms de personnes ou noms géographiques) comme descripteurs. La notion de mot-titre que nous avons avancée plus haut pour caractériser la désignation d'un dossier documentaire s'applique parfaitement à cette pratique. Il s'agit, dans un souci fonctionnel « d'économie intellectuelle » de s'assurer d'une entrée simple, univoque, sur l'information 12. Les outils dits de traitement du langage naturel permettent soit d'automatiser partiellement les tâches d'indexation (c'est le cas à Libération par exemple), soit de procéder à de la fouille de textes, avec ou sans médiation d'un langage documentaire contrôlé de type thesaurus, afin de rassembler « à la volée » tous les textes parlant d'un même thème. Dans ces conditions (tout comme dans la logique du texte intégral, mais avec un traitement statistico-linguistique en plus), il n'y a plus de dossier-outil, mais seulement des dossiers-produits. Dans la figure ci-dessous, on voit comment le moteur de recherches Northernlight simule le regroupement de sites web sous la forme de dossiers. Cependant on distinguera ici deux logiques, l'une qui relève de l'extraction et de la réorganisation a posteriori des contenus dans des ensembles thématiques plus ou moins cohérents (par exemple Exalead), et l'autre qui s'articule sur des outils d'indexation intellectuels élaborés a priori, thesaurus, dictionnaires etc. (application de la société Kalima au journal Libération par exemple). On n'oubliera cependant pas que classifier, quel que soit l'outil, c'est avant tout faire prévaloir une vision du monde et que l'automaticité du traitement n'a de valeur que si elle s'appuie sur une structuration préalable du champ sémantique au moyen d'outils de description de la réalité. Ainsi, dans l'application citée ci-dessus pour le journal Libération, le thesaurus préexistant est utilisé comme pivot, autour duquel on a rajouté un certain nombre d'unités textuelles, expressions que l'on peut rencontrer dans des articles, qui servent de déclencheurs pour l'attribution automatique des descripteurs contenus dans le thesaurus. La notion de dossier structure la représentation que le documentaliste se fait de son fonds documentaire. Même en utilisant un outil informatique de type logiciel documentaire ou système de gestion de bases de données, nombreuses sont les astuces qui visent à recréer une unité plus large que la simple coupure de presse, afin de redonner un effet de profondeur à la recherche ou la consultation documentaire. Par exemple, telle équipe utilise un système de « sur-titre » pour pouvoir réunir plusieurs documents différents dans un même ensemble artificiel. Telle autre équipe regrette, à l'occasion du passage à un nouvel outil logiciel, la fonction « d'épinglage » qui existait dans une version antérieure et qui permettait, en créant une seule fiche descriptive, d'y « attacher » autant d'articles que souhaité. Cette représentation ne concerne pas seulement la pratique de rattachement d'articles, mais elle s'inscrit également dans une dimension visuelle, iconique. Les interfaces graphiques ont généralisé les représentations matérielles de la boîte, du dossier, qui simulent les accessoires de rangement sur le « bureau » de l'ordinateur. Les médias informatisés [JEA 00] sont sans épaisseur autre que celles simulées par les arborescences informatiques. Il est donc normal qu'ils cherchent à recréer symboliquement la marque de la profondeur des objets destinés au classement : boîtes, dossiers, chemises, etc. Depuis l'arrivée des interfaces graphiques (Xerox, puis Mac, puis Windows), on ne peut qu' être frappé par l'usage d'icônes qui manifestent la résurgence de l'univers du papier dans les technologies de l'information et de la communication. Déjà, dans les années 1980, le logiciel Hypercard, ancêtre des logiciels hypertextes sur MacIntosh multipliait les allusions graphiques à la page, au cahier, au bloc-notes, au carnet à spirales, à la fiche de bibliothèque, au tiroir de rangement, comme si, dès lors qu'elle était capable de traduire en images son dispositif abstrait de classement, l'informatique n'avait pas d'autre solution que d'emprunter au monde non virtuel l'épaisseur rassurante de ses objets en les transformant en icônes. Cet aspect, qui constitue par ailleurs un de nos champs de recherche, mériterait à lui tout seul de plus amples développements. A titre d'exemple, on peut observer la métaphore du dossier employée sur le site de l'International Herald Tribune 13. La pratique visée ici est celle qui consiste à mettre « de côté » des articles, sous la forme de coupures (clippings), réunies dans un dossier virtuel. Ce type d'offre sur un site de presse s'inscrit dans une pratique, constatée par ailleurs 14, de lecture différée sur internet. La consultation s'avère la plupart du temps être un temps de repérage, de thesaurisation d'éléments qui seront ensuite « lus à tête reposée ». En proposant ce type de services, l'Herald Tribune s'inscrit parfaitement dans ce genre de pratiques. Quelles pistes évoquer, au-delà du constat fait ci-dessus, selon lequel la numérisation dans la presse n'a pas vraiment fait émerger de notion de dossier numérique, mais a plutôt contribué à déstructurer l'unité traditionnelle des fonds documentaires de presse ? Pour une part, cet effet est lié à la logique de l'outil technique principalement employé à partir des années 1980 et jusqu'aux années 2000 : le logiciel documentaire basé sur la technologie du texte intégral. En passant d'une logique de mot-titre à une logique de mot-clé, les entrées d'index sont démultipliées au détriment de la logique de collection qui régit le dossier documentaire. Or, cette génération de logiciels est bousculée de plusieurs côtés. Sur le plan des logiques d'indexation (voir le numéro de Document numérique consacré à l'indexation 15), la recherche dite en langage naturel propose éventuellement le regroupement d'articles de même teneur dans des unités plus ou moins cohérentes identifiées comme des dossiers (voir par exemple ci-dessus la pratique du moteur de recherche Northernlight 16). Sur un autre plan, l'organisation de l'information propre au web (internet et intranet) rejaillit sur les outils documentaires, qui se présentent désormais plus comme des portails d'accès à l'information quel que soit son type (voir par exemple l'évolution récente du logiciel Doris de chez Ever Team vers le produit Dportal). Dans cette logique, la navigation hypertextuelle ou tout simplement l'organisation arborescente de l'information reviennent en force 17, tout en se combinant avec la logique des moteurs de recherche évoquée plus haut. Dans ces conditions, on devrait voir prochainement arriver des outils capables de représenter l'information à deux niveaux : sur le plan analytique par une recherche de plus en plus pointue dans les texte mêmes, autorisant toutes les transversalités que le dossier documentaire papier méconnaît; sur le plan synthétique en autorisant le regroupement d'articles par thèmes, sous-thèmes, etc. désignés par des mots-titres et permettant un accès rapide à une collection d'informations thématiques regroupées dans un dossier numérique digne de ce nom. Il reste qu' à cet outil, il manquera encore, en l'état actuel des technologies, la facilité de manipulation liée au feuilletage manuel des coupures .
Dans la documentation de presse, le dossier manuel remplit une fonction d'organisation de l'information qui n'est pas facilement substituable par la logique informatique. Du moins lorsque celle-ci est basée sur la simple logique du texte intégral. Répondant à un besoin particulier d'organiser l'information par thèmes plus que par mots-clés, la logique documentaire pourrait rencontrer la logique d'évolution des outils informatiques, lesquels s'orientent, aussi bien sur le plan du traitement que sur celui de la représentation graphique, vers une simulation de l'univers matériel des dossiers.
sciencesInfo_03-0023735_tei_DN_061_0013.tei.xml
termith-399-communication
Évoquer l'héritage documentaire de la « culture de l'information » peut sembler une évidence. Cette culture n'est pas pour autant un moyen de qualifier autrement la documentation. Nous souhaitons dans cet article montrer les racines et terrains que se partagent la culture de l'information et les milieux documentaires, notamment professionnels. Ce travail s'inscrit dans la lignée de notre recherche doctorale [20] où nous avons tenté d'effectuer une archéologie [14] du concept de culture de l'information. Nous aborderons ici plus particulièrement l'héritage documentaire en rappelant toutefois, comme Claude Baltz [1 ], que la culture de l'information ne peut être un concept strictement documentaire ni encore moins l'apanage des seuls professionnels de la documentation. Ce concept s'inscrit d'ailleurs au point de rencontre de chemins que rappelle à bon escient Brigitte Juanals [17, p. 12] : « La culture de l'information est un concept qui se trouve à la croisée des sciences de l'information et de la communication, des sciences de l'éducation et de l'informatique. » Nous souhaitons examiner ici les conditions d'émergence du concept de culture de l'information dans le milieu des professionnels de l'information et de la documentation. Nous nous appuyons pour cela sur l'analyse d'un corpus de textes scientifiques de référence, essentiellement francophones, ainsi que sur les résultats de l'enquête en ligne que nous avons menée en 2008 auprès d'acteurs du terrain (professeurs-documentalistes, bibliothécaires, documentalistes, etc.). Il s'agissait de comparer les visions de la culture de l'information et de vérifier s'il y avait bien une évolution du concept, avec le passage d'une conception de la « formation des usagers ou élèves à la maîtrise des outils de recherche d'information » à une idée plus ambitieuse de cette formation reposant sur une « culture » de l'information. Nous avons reçu plus de 900 réponses dont près de 800 exploitables 1. Cette enquête a montré qu'il n'y pas de représentation figée ni encore moins de vision uniforme de la culture de l'information, y compris parmi les professeurs-documentalistes. L'héritage documentaire ne signifie pas qu'il faille y voir une linéarité, voire une téléologie. Nous ne voulons donc pas écrire une histoire positiviste de la culture de l'information, et ce d'autant moins que l'expression – car il est encore difficile d'affirmer que le concept est stabilisé bien que nous nous soyons attelé à ce travail définitionnel – fait encore débat et est loin de faire l'unanimité dans les cercles de la documentation et des bibliothèques. D'autres expressions ou visions de la « formation à l'informa­tion » coexistent, voire concurrencent celle de culture de l'information. Nous présenterons à cet effet quelques résultats de l'enquête menée durant notre recherche doctorale, notamment afin d'évaluer le réel succès de l'expression. Parler d'un héritage peut être source de confusion. En effet, le sens de cette notion diffère selon que l'on se place d'un point de vue « littéraire » ou d'un point de vue scientifique et technique. Chez Chateaubriand, par exemple, on trouve une position d'héritage pesant : c'est le respect dans la crainte qui prédomine. Il est au contraire libérateur chez Newton, pour qui le passé est un soutien et non un fardeau. Nous privilégions ce point de vue quand il s'agit d'évoquer l'héritage documentaire de la culture de l'information en rappelant par la même occasion que celle -ci est également une culture technique [27] qui présente une forte dimension citoyenne [21 ]. Suzanne Briet [3] avait déjà esquissé les traits de cette évolution assumée de l'héritage technique et scientifique : « Il n'est pas excessif de parler d'humanisme nouveau à ce propos. Une autre race de chercheurs " is in the making ". Elle est issue de la réconciliation de la machine et de l'esprit. L'homme moderne ne répudie aucune part de son héritage. Appuyé sur les trésors d'expérience que lui a légués le passé, il se tourne résolument vers le monde de demain. » La culture de l'information s'inscrit à la fois dans la lignée des outils constitutifs de la pensée et dans celle des précurseurs de la documentation qui ont imaginé des systèmes et des méthodes rationnelles pour faciliter l'accès au savoir. Il s'agit des logiques de classement, des tentatives de découper le monde afin de le comprendre. Même si ces techniques évoluent continuellement face à la complexité du document numérique et à l'accroissement des données à traiter, la culture de l'information constitue également une archéologie des savoirs en incitant au tri, au choix, à la création de sens afin que, selon la formule de Foucault [14, p. 170 ], « toutes les choses dites ne s'amassent pas indéfiniment dans une multitude amorphe ». Un travail de mise en évidence et de revalorisation de ces techniques et outils est donc primordial, comme le montrait fort justement Sylvie Fayet-Scribe [11] : « Rendre visibles ces techniques intellectuelles est important dans la mesure où justement elles ne semblent pas avoir d'histoire, ou si peu. « Relèvent-elles alors de la mémoire et seraient-elles sans cesse réactivées par nos pratiques ? Ou encore sont-elles un éternel présent ? Car, incorporées à nos pratiques, nous n'aurions pas conscience de leur existence ? Prendre en compte leur histoire serait alors prendre des distances, et les rendre pleinement visibles. Les prendre pour objet, ce serait bel et bien, selon la définition philosophique, les voir " indépendamment de l'esprit du sujet ". Ne s'agit-il pas aussi de mettre en lumière un " patrimoine culturel immatériel " ? Si les œuvres, les lieux ayant une valeur esthétique ou d'identité nationale ou locale sont bien identifiés comme appartenant au patrimoine, il est plus difficile de considérer des techniques intellectuelles comme des traces culturelles durables de notre patrimoine appartenant à la culture de l'information écrite. « Or, que leur utilité fonctionnelle soit disparue ou non, nous considérons qu'elles relèvent d'un bien dont nous avons hérité des générations passées. Elles relèvent de la culture de l'information que notre société actuelle a tout intérêt à bien identifier. » Faire référence à l'héritage documentaire, c'est donc rappeler l'héritage technique de la culture de l'information à travers l'ensemble des outils et dispositifs qui servent à mémoriser, archiver et catégoriser informations et connaissances. Sylvie Fayet-Scribe [13] considère d'ailleurs que la naissance d'une culture de l'information issue de la documentation pourrait être située dans les années 1930 2 grâce aux réalisations de pionniers comme Paul Otlet, Henri Lafontaine et Suzanne Briet, mais également grâce à l'influence des associations de bibliothécaires et de documentalistes. Cependant, il est encore possible de trouver d'autres racines, notamment à l'époque des Lumières et du projet encyclopédique, comme l'avait déjà montré Brigitte Juanals [17 ]. Un projet encyclopédique dont l'aspect le plus important est l'ouverture des savoirs et la possibilité offerte au citoyen éclairé de faire, de refaire et d'innover, comme le rappelait justement Gilbert Simondon [27, p. 92-93] : « La grandeur de l'Encylopédie, sa nouveauté, résident dans le caractère foncièrement majeur de ces planches de schémas et de modèles de machines qui sont un hommage aux métiers et à la connaissance rationnelle des opérations techniques. Or, ces planches n'ont pas un rôle de pure documentation désintéressée, pour un public désireux de satisfaire sa curiosité; l'information y est assez complète pour constituer une documentation pratique utilisable, de manière telle que tout homme qui possède l'ouvrage soit capable de construire la machine décrite ou de faire avancer, par l'invention, l'état atteint par la technique en ce domaine, et de faire commencer sa recherche au point où s'achève celle des hommes qui l'ont précédé. » Cette culture technique est pleinement celle des technologies de l'intelligence dont le livre est un des plus illustres exemples : « Les livres, écrit Paul Otlet [23, p. 211 ], sont devenus les organes par excellence de la conservation, de la concentration et de la diffusion de la Pensée, et il faut les considérer comme des instruments de recherche, de culture, d'enseignement, d'information et de recréation. Ils sont à la fois le réceptacle et le moyen de transport des idées. » Les livres sont chez Otlet pleinement des hypomnémata 3 [15] [28 ], en tant que supports de mémoire et technologies intellectuelles. Il évoque d'ailleurs la lecture récréative qui « délasse, distrait, console, retrempe » et qui est aussi selon lui « recréative » : « Re creative = re-faire le moi. » Nous retrouvons ici pleinement la dimension de la culture technique de Simondon, avec cette possibilité de refaire et de créer. Les livres sont également, selon Otlet, des « remèdes de l' âme », c'est-à-dire des pharmaka 4. Ils constituent des instruments de prise de soin de soi. Tout le passage sur les différents types de lecture, dans le Traité de documentation, est intéressant car le livre y est présenté comme un instrument de travail et notamment de travail sur soi. Sans doute faut-il également y voir des liens avec les écoles de pensée qui font du livre un cheminement spirituel. Actuellement, les hypomnémata sont de plus en plus divers et numériques. Par conséquent, les nouveaux outils numériques et les nouvelles écritures qui se construisent vont continuer à faire évoluer la culture de l'information et poser divers problèmes : « L'un des plus délicats, selon Juanals et Noyer [18, p. 43 ], est la renégociation politique du partage des savoirs transversaux, des légitimités institutionnelles acquises au cours de la longue histoire technopolitique et passionnelle des savoirs protégés, des opacités cognitives et informationnelles héritées, ou encore de la construction et du partage des secrets. » Les mutations évoquées dans ces propos montrent les divers enjeux politiques, institutionnels et professionnels en jeu en ce qui concerne la circulation des informations et des savoirs. Suzanne Briet affirmait que « la documentation pour soi ou pour les autres [était] apparue aux yeux de bien des gens comme " une technique culturelle " d'un type nouveau » [3 ]. Aujourd'hui, cette technique culturelle participe de la transmission de cette culture technique et citoyenne qu'est la culture de l'information et dont les frontières vont au-delà des murs des bibliothèques et des centres de documentation. Les associations professionnelles continuent néanmoins de jouer un rôle clé et souvent pionnier dans un cadre qui est celui qu'envisageait le couple Grolier 5 : « Éric et Georgette de Grolier, rappelle Sylvie Fayet-Scribe [12, p. 222 ], insistaient déjà sur la nécessité de mettre l'usager au centre du système d'information et de lui faire acquérir une culture de l'information. » Les associations professionnelles ont été porteuses de l'expression de culture de l'information et continuent de participer à son expansion en tant qu'acteurs de son émergence. Dans son article [1] publié à la suite de la rencontre ADBS du 18 novembre 1997 6, Claude Baltz avait tenté de distinguer les différentes cultures de l'information. Il décrivait cinq cultures proches : la culture de l'information au sens de l'ADBS sur laquelle nous allons revenir, la culture de l info-business, la culture des médias, la culture « info-com » et la culture informatique. Notons au passage que Claude Baltz privilégiait d'ailleurs l'expression de « culture informationnelle » après avoir été tenté par celle de « cyberculture ». Nous proposons ici d'étudier les trois principaux axes professionnels de la culture de l'information au travers des influences de l'ADBS, des acteurs des bibliothèques puis des professeurs-documentalistes. Elle constitue la première « culture de l'informa­tion » identifiée par Claude Baltz. L'ADBS a été pionnière en étant porteuse du concept, particulièrement avec la journée d'étude de 1997 proposée en compagnie d'autres associations membres de l'interassociation ABCD (Archivistes, Bibliothécaires, Conservateurs, Documentalistes). Cette dernière regroupait les principales associations professionnelles de l'information-documentation qui se retrouvent désormais au sein de l'IABD (Interassociation Archives Bibliothèques Documentation). Les premières journées autour de l'expression « culture de l'information » avaient été organisées dans ce cadre interassociatif, avec chaque fois comme initiateur Jean Michel, ingénieur des ponts et chaussées et spécialiste de l'information de l'ENPC (École nationale des ponts et chaussées), alors président de l'ADBS. La première s'est déroulée en mars 1995, précédée par des échanges sur la liste adbs-info en 1994. Le compte rendu disponible sur le site du BBF [24] montre que le terme de culture de l'information a été toutefois peu débattu : « ABCD est la toute jeune inter-association, présidée par Jean-Luc Gautier-Gentès, directeur de la Bibliothèque d'art et d'archéologie, qui rassemble les principales associations de bibliothécaires, de documentalistes et d'archivistes. Elle organisait à la Villette en mars dernier un colloque sur la " culture de l'information ", dont l'objectif principal était d'examiner les places et rôles, propositions et stratégies des différents acteurs de la chaîne documentaire dans la vie des citoyens, quels que soient leur âge et leur statut. » La seconde rencontre, qui a eu lieu le 31 janvier 1996 à la Cité des sciences et de l'industrie, mettait désormais en avant le caractère conceptuel de la culture de l'information : « Les associations de professionnels intervenant dans le domaine de l'information, de la documentation, des archives et des bibliothèques se sont regroupées pour organiser le premier débat public sur le concept de Culture de l'information. 7 » Depuis, le concept a parfois pris un sens proche de l'intelligence économique ou territoriale, notamment quand il s'agit d'évoquer la culture d'information d'entreprise [4 ]. Des rapprochements peuvent être également observés avec la gestion des connaissances, voire avec l'architecture de l'information. L'expression semble parfois s'affranchir de toute référence à la documentation; mais l'on peut observer fréquemment la redécouverte de processus déjà bien connus des professionnels de l'information. Brigitte Guyot le soulignait dès 1993 [16] : « Premier paradoxe, les discours proviennent essentiellement d'un certain type d'acteurs, ingénieurs en entreprise ou hommes de management, et très rarement des spécialistes de l'information. En œuvrant pour une véritable culture de l'information, ils reprennent ou redécouvrent parfois des méthodes et approches mises au point depuis longtemps par les spécialistes de l'information documentaire, ce qui est déjà révélateur d'un certain positionnement au sein de l'entreprise. » Pourtant, le modèle dominant en ce qui concerne la formation à l'information reste néanmoins nettement issu du monde des bibliothèques. Cette conception est clairement celle qui domine au niveau international, avec notamment les actions menées en ce qui concerne l information literacy. Même si ce concept anglo-saxon n'est pas tout à fait équivalent à celui de culture de l'information 8, il existe de fortes proximités. Mais nous ne souhaitons pas revenir ici sur les aspects liés à la traduction d'information literacy [19] ni au côté international du concept de culture de l'information [22 ]. Cette conception s'inscrit dans la lignée de la formation des usagers à l'utilisation de la bibliothèque et de la « maîtrise de l'information ». La formation notamment au sein des universités et des bibliothèques universitaires a évolué au fur et à mesure des avancées technologiques. Ces actions reposent souvent sur des dynamiques locales 9, ce qui explique l'hétérogénéité des formations dispensées à l'univer­sité et les régulières tentatives de mesure de leur efficacité 10. Le contenu est quant à lui variable et dépend des heures allouées. L'objectif étant de ne pas demeurer sur la seule présentation de la bibliothèque universitaire mais de pouvoir proposer aux étudiants une formation plus complète en dépassant la formation des usagers pour aller vers le développement d'une culture de l'information. Le service FORMIST (FORMation à l'Information Scientifique et Technique) de l'Enssib 11 a d'ailleurs beaucoup œuvré dans ce sens. Nous avons demandé aux professionnels des bibliothèques, dans notre enquête, quel terme leur convenait le mieux pour qualifier ces missions de formation (figure 1). L'expression de « culture de l'information » apparaît la plus appréciée, mais elle ne devance que de peu les expressions plus traditionnelles de « maîtrise de l'information » et de « formation des usagers ». Nous retrouvons à peu près les mêmes proportions chez les assistants et bibliothécaires (figure 2). Nous précisons que nous n'avons pas distingué les personnels des bibliothèques municipales de ceux des bibliothèques universitaires. Les formations dispensées pour les étudiants sont parfois trop procédurales et reposent sur des aspects liés aux bonnes pratiques et sur la projection d'un usager idéal en partie du fait de la domination du modèle des compétences. Christel Candalot-Cassaurang montre dans sa thèse [5] la nécessité de mettre en place des formations plus ambitieuses, reposant d'ailleurs davantage sur des concepts : « L'université, en tant que lieu de conceptualisation, a un rôle à jouer dans la construction de cette culture informationnelle, en proposant aux étudiants d'étudier et comprendre les concepts sur lesquels repose notre " société de l'information ". » [6, p. 152] Christel Candalot-Cassaurang est certifiée en documentation nommée dans le supérieur. La culture de l'information intéresse en effet grandement la profession de professeur-documentaliste. L'emploi de l'expression de « culture de l'informa­tion » a pris une forte ampleur ces dernières années au sein de la profession : beaucoup de conférences, colloques et journées d'étude abordent justement cette thématique. C'est la dimension pédagogique de la culture de l'information qui prédomine chez les professeurs-documentalistes, qui ont obtenu une reconnaissance et une mission d'enseignement avec la création du Capes en 1989. La profession s'inscrit de ce fait dans une logique de transmission de savoirs et de compétences 12. La formule « culture de l'information » connaît un succès notable dans une profession qui demeure en quête régulière de légitimité. Les professeurs-documentalistes évoquent fréquemment d'importants besoins de formation des jeunes générations, que les nouveaux médias ne font qu'accroître. Pourtant, cette expression ne fait apparemment pas l'unanimité parmi les 425 professeurs-documentalistes ayant répondu à notre enquête (figure 3). Le concept de « formation des usagers » séduit un grand nombre de répondants, ce qui est fort surprenant car il renvoie surtout à la formation au lieu « CDI » et nullement à une formation à l'information plus ambitieuse. Vraisemblablement, le concept de culture de l'information, avec ce qu'il véhicule, suscite encore des interrogations, ce qui explique les nombreuses journées académiques et colloques organisés sur le sujet ces dernières années. Un ouvrage portant le terme de culture de l'information [9] est paru fin 2006 sous la direction de Jean-Louis Durpaire, président actuel du jury des Capes de documentation. La culture de l'information y est surtout abordée à l'échelon d'une politique documentaire d'établissement dont le but est de développer des enseignements informationnels et documentaires en liaison avec les autres disciplines. La dimension didactique y est peu présente, car l'objectif était de montrer des pistes d'intervention possibles. L'aspect pédagogique du document, qui est pourtant bien présent étymologiquement, semble devoir être rappelé régulièrement. C'est d'ailleurs ce que tente de réaliser la Fédération des professeurs-documentalistes de l' Éducation nationale (FADBEN), association qui défend les intérêts de ceux -ci et travaille notamment à la légitimité du Capes de documentation et au développement des moyens pour assurer les missions de formation à l'information. Elle a d'ailleurs publié un manifeste intitulé Pour une culture de l'information [10 ]. Ce texte s'inscrit dans les prescriptions de l'Unesco en ce qui concerne les sociétés du savoir et la nécessaire formation à la maîtrise de l'information. Sans proposer de réelle définition, la FADBEN y trace tout de même quelques perspectives qui permettent de comprendre le sens qu'elle donne au concept : « Aujourd'hui, il faut maîtriser l'information pour participer à la société du savoir, permettre la formation tout au long de la vie et le développement de la citoyenneté, favoriser l'intégration sociale et culturelle des individus, et aussi pour des raisons économiques qui sont fortement corrélées au contexte dans lequel nous évoluons. […] Les objectifs de l'éducation à l'information pour l'élève sont les suivants : développement chez tous les élèves d'une culture de l'information, efficacité et cohérence de la formation, éveil de l'esprit critique de l'élève, apprentissage de l'autonomie, de l'apprendre à apprendre. » Ce manifeste fait d'ailleurs suite au huitième congrès de l'association organisé en mars 2008 et dont le titre était « Culture de l'information : des pratiques aux savoirs ». Le manifeste de la FADBEN rappelait les exigences économiques d'une formation à l'information. Mais l'objectif actuel est surtout la poursuite du travail de rationalisation à travers notamment une démarche didactique. Cette rationalisation implique notamment de rapprocher l'héritage documentaire de la démarche scientifique en intégrant les concepts issus des sciences de l'information et de la communication. Ce travail est actuellement amorcé par plusieurs chercheurs et acteurs du terrain dont l'ERTé 13 « Culture informationnelle et curriculum documentaire » a été une des manifestations les plus visibles. Annette Béguin rappelait d'ailleurs, en introduction à l'ouvrage qui a été publié à la suite au colloque de l'Erté en octobre 2008 14, que « l'intérêt pour la culture informationnelle est dans l'air du temps, mais ce thème, en France du moins, est miné de malentendus; le plus important, me semble t-il, étant de considérer que la culture de l'information au sein de l' École est une sorte de supplément d' âme dont personne ne serait explicitement chargé mais que chacun serait compétent à enseigner. Nous pensons au contraire que la recherche doit fonder la réflexion pédagogique et permettre de rationaliser les décisions institutionnelles. » [2, p. 21] Cette entreprise entre dans la continuité pédagogique et scientifique du projet de Paul Otlet [23, p. 4] : « Une rationalisation du Livre et du Document s'impose, partant d'une unité initiale, s'étendant à des groupes d'unités de plus en plus étendus, embrassant finalement toutes les unités, existantes ou à réaliser, en une organisation envisageant, à la base, l'entité documentaire individuelle que forme pour chaque personne la somme de ses livres et de ses papiers. » Cette rationalisation doit se poursuivre au-delà de l'organisation des collections et des documents en prenant en compte la dimension pédagogique du document. La didactique de l'information constitue ainsi une piste intéressante. Elle vise à clarifier les notions à transmettre et à mettre en place une progression de la transmission au travers d'un curriculum. Pour cela, Alexandre Serres, Pascal Duplessis et Ivana Ballarini ont structuré un corpus notionnel au sein d'un tableau de 64 notions en 7 notions organisatrices qui fut publié pour la première fois dans la revue de la FADBEN en mars 2007 [8 ]. Les notions abordent un environnement informationnel et technique qui prend en compte les évolutions du numérique, les nouveaux médias et notamment les moteurs de recherche. La didactique de l'information s'inscrit pleinement dans une extension de la littératie informationnelle, rejoignant quelque peu le projet, visant à former à l'ensemble des médias, de la translittératie entendue comme « l'habileté à lire, écrire et interagir par le biais d'une variété de plateformes, d'outils et de moyens de communication, de l'iconographie à l'oralité en passant par l'écriture manuscrite, l'édition, la télé, la radio et le cinéma, jusqu'aux réseaux sociaux 15. » [29 ]. Cette convergence de la formation autour des médias anciens et nouveaux est parfaitement décrite par Alexandre Serres [25] : « Il faut donc prendre toute la mesure de la numérisation et de la généralisation d'Internet et des TIC à toutes les sphères de la réalité et repenser, à partir de là, les " literacies " informationnelles. Autrement dit, il faudrait faire une " révolution copernicienne " dans la conception et la définition des différentes formations à l'information : partir de la réalité des pratiques et des techniques de l'information, des enjeux qui leur sont liés, et bâtir ensuite une culture informationnelle globale, intégrant toutes les dimensions de l'information, notamment [des] trois cultures spécifiques 16, portant d'une part sur les médias, la documentation et les bibliothèques, d'autre part sur l'informatique et les outils. Il faudrait y intégrer l'éducation aux images, plus que jamais nécessaire à l'heure de l'explosion des documents vidéos. Il resterait à y ajouter la " cinquième dimension ", essentielle […] : la dimension communicationnelle. » Cette convergence est aussi un rappel de l'importance de l'écriture et de la lecture. Dans ses recommandations au lecteur [23 ], Otlet montrait que la lecture diffère d'une simple capacité à épeler. Désormais former à l'information et à la complexité des nouveaux médias suppose une maîtrise de la lecture bien plus que rudimentaire. La majorité des répondants à notre enquête considérait d'ailleurs que les principales difficultés des jeunes générations dans leur recherche d'information étaient imputables à des capacités de lecture et d'analyse déficientes (figure 4). L'héritage documentaire marque la volonté d'un accès à l'information et à la connaissance sans cesse élargi. Nous avons tenté de montrer que cet héritage devait être préservé tant il permettait de recouvrir les deux aspects du document : celui du renseignement et de la preuve, et celui de l'enseignement. Il a principalement consisté, avec les pionniers de la documentation, dans un accès organisé et facilité pour les lecteurs, notamment de bibliothèques. Désormais, cette organisation et médiation des professionnels est insuffisante au regard de la somme des documents numériques. L'accès aux savoirs repose surtout sur une transmission plus exigeante et ambitieuse : une formation à la culture de l'information dont le projet didactique 17 constitue un des éléments actuellement les plus intéressants. La culture de l'information n'est pas un nouveau nom pour la documentation mais davantage la poursuite de l'esprit documentaire sous d'autres formes. Elle est encore en émergence et il serait vain de la considérer comme uniforme. Notre enquête datant de 2008, il sera opportun à l'avenir de la réitérer : car au constat d'émergence de l'expression [26] tend en effet à succéder une production scientifique de plus en plus visible ainsi qu'une concrétisation professionnelle que l'on peut particulièrement observer chez les professeurs-documentalistes. •
[ étude ] Avec la « société de l'information » est apparue la notion de « culture de l'infor mation » qui, bien au-delà des professionnels, concerne aujourd'hui tout un chacun. En s'appuyant sur la littérature scientifique et sur une enquête menée auprès des acteurs de terrain, Olivier Le Deuff montre dans cet article l'influence de la documentation et des professionnels de l'information-documentation sur ce concept de culture de l'information. Il évoque notamment l'héritage des techniques documentaires en tant que technologies de l'intelligence et l'influence des associations professionnelles dans l'émergence et la construction du concept. Ce dernier s'inscrit dans la poursuite pédagogique et scientifique d'une politique de rationalisation dont relève désormais la didactique de l'information.
sciencesInfo_11-0000205_tei_DOCSI_473_0004.tei.xml
termith-400-communication
Internet, outil de communication par excellence, continue à progresser en offrant ses services à un nombre croissant de personnes. Celles -ci ne se contentent plus d' être de simples consommateurs d'information gravitant autour des moteurs de recherches (Boughanem et Savoy, 2008), consultant des horaires ou la météo, réservant des chambres d'hôtel, ou achetant livres et CDs de musique. Les internautes occupent également un rôle de producteur d'information. Rédiger son journal intime et le diffuser, donner son opinion personnelle, écrire son carnet de bord d'artiste ou partager ses émotions face aux événements, tous ces exemples se retrouvent dans les blogs 1. Enumérer la liste possible des thèmes abordés par les blogs s'avère impossible car ils tentent de couvrir toutes les activités et préoccupations humaines. Cependant, si chaque blog possède, originellement pour le moins, un caractère autobiographique prononcé, on peut attribuer également à ces journaux électroniques les qualificatifs de « subjectif » et « d'opinion » 2. Parfois centré exclusivement sur une personne, le blog possède très souvent un aspect d'interaction. En effet, chaque billet publié peut faire l'objet de commentaires de lecteurs, parfois de manière continue. Si le blog s'ouvre d'emblée avec une vocation communautaire (e.g., celui des grévistes ou sur un projet de construction controversé), les personnes seront plus portées à discuter ou commenter les événements ou les billets postés précédemment dans cette tribune. La blogosphère n'a pas laissé indifférent les acteurs du marketing et les entreprises ont compris qu'elles pouvaient en tirer parti de multiples manières (influencer, apprendre, communiquer, se montrer, conseiller, vendre) (Malaison, 2007). Les acteurs politiques ont également suivi cette tendance avec des différences notables entre les Etats-Unis et la France, voire entre politiciens français (Jereczek-Lipinska, 2007; Véronis et al., 2007). Ainsi on peut se limiter à reporter les discours officiels à l'image des quotidiens. Dans ce cas, on perd la dimension personnelle, la vision privée du politicien (avec simplicité et franc-parler) ainsi que toute interactivité avec les citoyens qui font du blog un nouveau média tant dans la forme que dans le contenu. Est -ce que ce nouveau moyen de communication favorisera réellement une démocratie participative, souhait exprimé par S. Royal lors de la campagne présidentielle de 2007 ? Ce nouveau média s'accompagne de ses propres faiblesses et abus. Par exemple, lors d'une campagne électorale, un site de blogs peut être pris d'assaut par les partisans d'un des candidats afin d'imposer leur point de vue. De manière similaire, MySpace.com peut être submergé de vidéos soulignant les mérites d'un parti ou d'un candidat. Afin de mieux cerner les principales tendances on peut également essayer de dresser une cartographie numérique de la blogosphère comme le propose le site www. USandUS. eu pendant les élections américaines de 2008. Cette progression de l'ensemble de ces écrits formant la blogosphère a été grandement facilitée par la simplicité d'accès et d'édition proposée par des logiciels spécifiques 3. Ces derniers s'appuient sur des compléments au standard XML (e.g., RSS, ATOM) afin de faciliter la gestion de l'aspect dynamique des flux d'information comme, par exemple, pour insérer un billet dans la bonne rubrique et selon l'ordre chronologique ou pour avertir les abonnés dès qu'une nouvelle est insérée. Structurée selon des auteurs et des thématiques, la consultation s'effectue habituellement selon l'ordre chronologique inverse (le dernier billet rédigé se retrouvant souvent dans la page d'accueil). Si le contenu textuel domine, celui -ci peut s'accompagner de dessins, d'images, de photos (photoblog), voire d'éléments audio (podcasting ou baladodiffusion) ou vidéo (videoblog). Evidement, parfois l'élément audio ou visuel prend clairement le dessus et la distinction entre blog et service de diffusion s'estompe (voir, par exemple, les sites Flickr.com, FaceBook.com ou YouTube.com). Dans d'autres cas, l'attention se porte sur les liens entre pages personnelles à l'image des réseaux sociaux (Facebook.com ou Linkedin.com). Parfois, la distinction entre un blog collectif se nourrissant de son propre bavardage et un forum de discussion peut s'atténuer. Faire partager ses émotions, donner son avis ou convaincre l'autre ne signifie pas liberté de dire n'importe quoi. Le contenu d'un blog reste sous la responsabilité de son éditeur. De plus, si de nombreux blogs voient le jour, de nombreux autres tombent dans l'oubli ou sont délaissés rapidement par leur créateur. Si leur volume croît suivant une courbe exponentielle, comment retrouver l'information pertinente dans la blogosphère (Witten, 2007) ? Le moteur Google s'y intéresse et il a ajouté à son inventaire de services un moteur de recherche 4 dédié à ce contenu particulier. Pour une présentation des défis et solutions particulières de la recherche sur le web, on peut se référer à (Boughanem et Savoy, 2008). Le contenu et le style de la blogosphère possèdent des caractéristiques distinctes des corpus d'articles scientifiques ou de presse utilisés habituellement en recherche d'information. Par nature subjectif, le blog possède comme premier objectif de diffuser des opinions ou de faire partager des émotions. Les fautes d'orthographe et d'accord, avec une syntaxe hésitante, vont connaître une plus grande fréquence. Le lexique lui -même va laisser transparaître une classe sociale donnée et le recours à l'argot ou au langage SMS 5 (Fairon et al., 2006) n'est pas une exception. La connaissance précise de la langue dans laquelle est rédigée un document ne sera plus acquise de manière certaine (Singh, 2006). A ceci s'ajoute la prise en compte de plusieurs codages possibles pour une écriture voire pour des lettres accentuées. Le style distinct entre les deux types de corpus peut également soulever de nouveaux problèmes. Le document traditionnel (livre, périodique, thèse, carte, partition) se caractérise par son support auquel s'associe une trace d'inscription. Sa conception tend habituellement à favoriser une lecture linéaire. La subdivision logique apporte un élément structurant sur le contenu véhiculé et favorise des accès intradocument. Le document numérique désire proposer une nouvelle gestion des documents, souvent par le biais d'un accès moins linéaire et en favorisant l'intégration d'autres médias (image, son, vidéo) à l'écriture. Dans la blogosphère, le billet d'information peut certes posséder sa propre structure mais l'attention se porte également sur la réaction des lecteurs qui ont la possibilité d'y inclure leurs commentaires voire des remarques sur ces derniers. Encourager une écriture collective peut également favoriser l'effacement des noms des auteurs, à l'image de l'encyclopédie Wikipédia. Les requêtes reflètent clairement les intérêts de la communauté des internautes avec une prépondérante d'interrogations comportant uniquement le nom d'une personne, d'un lieu ou d'un produit. La réponse attendue doit comporter souvent un point de vue personnel sur une question (« la guerre en Irak ») ou correspondre aux expériences personnelles concernant un produit (« iPhone »). Retourner de simples faits ne constitue pas toujours une réponse idéale. De plus, le temps joue un rôle crucial et toute information obsolète doit être ignorée. Le dépistage de la bonne réponse peut également s'appuyer sur les étiquettes descriptives (les meta-informations) spécifiant le thème d'un flux d'information ou en admettant qu'un même auteur rédige des blocs ayant des sujets reliés. Finalement, le monde des blogs contient également son lot de contenu commercial non désiré, le spam. Afin d'analyser empiriquement une partie de ces questions, la piste « blog » a été créée lors de la campagne d'évaluation TREC en 2006 (Ounis et al., 2006) et poursuivie en 2007 (Macdonald et al., 2007). Dans cette communication, nous désirons présenter le corpus utilisé (section 2). Afin de travailler avec les meilleures stratégies de dépistage, nous avons décidé d'implémenter le modèle Okapi, deux approches tirées de la famille Divergence from Randomness (DFR) et un modèle de langue (voir section 3). La section 4 présente notre méthodologie d'évaluation et l'appliquera à nos divers modèles de recherche en fonction de différentes stratégies d'indexation ou de longueur de requêtes. Notre proposition décrite dans la cinquième section s'appuie sur la prise en compte de plusieurs mots de la requête dans la réponse retournée à l'internaute. Créée par l'Université de Glasgow, la collection de blogs dénommée Blogs06 a été extraite du web entre décembre 2005 et février 2006. Elle comprend un volume d'environ 148 Go pour 4 293 732 documents. Trois sources composent ce corpus soit 753 681 feeds ou flux d'information représentant environ 17,6 % du total, 3 215 171 permalinks (permalien ou lien permanent) (74,9 %) et 324 880 pages d'accueil (pour environ 7,6 %). Dans cet ensemble d'articles, ce corpus contient également des spams (ou pourriel), des documents à contenu essentiellement publicitaire cherchant à tromper les moteurs de recherche afin d' être dépisté en réponse à des mots-clés fréquents. Les flux d'information correspondent bien à un outil de la blogosphère. Si l'on analyse le volume de l'information mémorisée au lieu du nombre d'entrées, la partie feed représente 38,6 Go (pour environ 26,1 %). Par exemple, la page d'accueil du site de Sarah Carey (en Irlande) est disponible à l'adresse http:// www. sarahcarey. ie/. Depuis cette adresse, de nombreux flux de discussion peuvent s'ouvrir comme, par exemple sur la presse en général (http:// www. sarahcarey. ie/ wordpress/ feed/ #). Depuis un flux d'information, plusieurs permaliens peuvent être obtenus et suivis. La partie des permaliens comprend 88,8 Go pour environ 60 % du volume total. Un permalien correspond à une URL utilisée pour référer l'entrée d'un élément d'information (billet) à caractère dynamique relié à une discussion précise. Comme cet élément voit son volume croître avec le temps, donner comme référence la page elle -même conduirait les internautes au début de la discussion et non directement à l'élément visé par la citation. Le format associé aux permalien s n'est pas standardisé mais ce dernier se compose de l'adresse URL, suivi souvent d'une date (e.g., quatre chiffres pour l'année, deux chiffres pour le mois et deux chiffres pour le jour). Il se termine par le nom ou numéro de l'article (voire de l'ajout). Parfois le nom de l'utilisateur est inclus dans le permalien (e.g., en tête de l'URL si la personne concerné à ouvert son journal électronique sur un système dédié comme http:// tintin). Si nous reprenons notre exemple précédent, nous avons les permaliens " http:// www. sarahcarey. ie/ wordpress/ archives/ 2005/ 11/ 29/ women-and-work-2# " ou " http:// www. sarahcarey. ie/ wordpress/ archives/ 2005/ 12/ 03/ radio-appearance# ". Finalement la partie des pages d'accueil se compose de 20,8 Go soit environ 14,1 % du total. On y retrouve ceux de personnes désirant offrir une simple carte de visite électronique ou une première page offrant l'accès à divers flux d'information. Des détails plus complets sur cette collection sont disponibles à l'adresse http:// ir. dcs. gla. ac. uk/ test_collections/. Dans la suite de nos expériences, de même que lors des deux campagnes TREC (Ounis et al., 2006; Macdonald et al., 2007), seule la partie des permaliens a été retenue pour l'évaluation. La figure 1 présente un exemple de document extrait du corpus Blogs06. Dans cette figure, on constate que chaque document débute par la balise <DOC>. Nous retrouvons ensuite la balise l'identificateur unique de l'article (<DOCNO>) puis la date de sa récupération depuis internet (balise <DATE_XML>). Suivent diverses balises spécifiant le feed, le permalien ainsi que l'en-tête de réponse du serveur lors de la récupération de ce document (après la balise <DOCHDR>). Dans cette partie, on retrouve la date, l'URL source, le type de logiciel utilisé par le serveur, le type de codage, etc. Les données pertinentes pour la recherche d'information suivent la balise fermante </DOCHDR>. On y retrouve l'en-tête de la page (encadré par les balises <HEAD>) avec la présence assez récurrente des balises métas " Keywords " et " Description " ainsi que <TITLE>. Contrairement à diverses autres collections-tests, on y retrouve beaucoup d'éléments pas ou peu pertinents pour la recherche d'information comme des programmes Javascript, des redirections, la référence à des feuilles de style, etc. Ces divers éléments peuvent être exploités par d'autres applications ou par des systèmes d'information ayant un objectif différent du nôtre consistant à proposer un accès efficient par le contenu. Le contenu de la page visible sur l'écran de l'internaute est encadré par les balises <BODY>. Selon les documents, la densité de commandes HTML est variable mais elle s'avère supérieure à nos attentes. De larges passages mémorisent de simples menus, listes ou font appel à des scripts. Les documents n'ont pas été nettoyés et il n'est pas rare d'obtenir des documents rédigés dans d'autres langues comme l'espagnol ou le japonais. La figure 2 illustre un second document que notre système de dépistage a récupéré en réponse à la demande « LexisNexis ». Cet article correspond à une annonce faite par l'entreprise pour un nouveau produit. Le contenu se composera d'une information dite « objective » dans le sens que l'on a une description d'un produit sans véritable jugement personnel. Dans la figure 2, le document a été analysé et les balises HTML inutiles pour le dépistage de l'information ont été éliminées. La balise <DATA> a été ajoutée pour indiquer le début du texte retenu pour l'indexation. Avec ces documents, nous disposons de 100 requêtes numérotées de 851 à 900 pour l'année 2006 et de 901 à 950 pour l'année 2007. Dans la présente étude, nous avons fusionné ces deux sous-ensembles pour former un lot relativement important de requêtes. En effet, aucune modification majeure n'a été apportée en 2007 par rapport à 2006. De plus, le doublement du nombre de requêtes (ou d'observations) permet ainsi une analyse plus fine des résultats. Limiter nos analyses à 50 cas n'a pas de sens alors que nous pouvons disposer d'un volume deux fois plus conséquent. De plus, sur la base de 50 observations il s'avère plus difficile de détecter des différences statistiquement significatives. Suivant le modèle habituel des diverses campagnes d'évaluation, chaque requête possède principalement trois champs logiques, à savoir un titre bref (<TITLE> ou T), une phrase décrivant le besoin d'information (<DESC> ou D) et une partie narrative (<NARR> ou N) spécifiant plus précisément le contexte de la demande ainsi que des critères de pertinence permettant de mieux évaluer les opinions dépistées. La figure 3 présente trois exemples. Dans nos évaluations, nous avons retenu souvent uniquement la partie " titre " (T) pour construire les requêtes. Avec cette contrainte, le nombre moyen de termes d'indexation par requête s'élève à 1,72 (min :1, max : 5, médiane : 2) tandis que le recours aux deux champs " titre " et " descriptif " (TD) produisent une longueur moyenne de 6,53 mots (min : 2, max : 12, médiane : 6). Finalement pour les requêtes longues (TDN), le nombre moyen de mots pleins par requête s'élève à 17,4 (min : 8, max : 34, médiane : 16,5). Les thèmes des demandes couvrent des domaines variés comme la recherche d'opinions, commentaires ou recommandations touchant la culture (n° 851 " March of the Penguins ", n° 875 " american idol ", n° 913 " sag awards ", ou n° 928 " big love "), les produits et services (n° 862 " blackberry ", n° 883 " heineken ", n° 900 " mcdonalds ", n° 909 " Barilla ", ou n° 937 " LexisNexis "), les personnalités (n° 880 " natalie portman ", n° 935 " mozart " ou n° 941 " teri hatcher "), la politique (n° 855 " abramoff bush ", n° 878 " jihad ", n° 887 " World Trade Organization " ou n° 943 " censure "), la science et la technologie (n° 896 " global warming ", n° 902 " lactose gas ", ou n° 923 " challenger "), les faits divers (n° 869 " muhamad cartoon "), voire des thématiques plus variées (n° 861 " mardi gras " ou n° 889 " scientology "). Elles incluent des questions présentant un caractère ambigu indéniable comme la demande n° 905 " king funeral " (concernant Coretta Scott King et non Elvis Presley ou un autre roi). Notons également que cette demande est reliée à la requête n° 874 " coretta scott king ". Les thèmes relèvent essentiellement de la culture nord-américaine et correspondent, pour la partie " titre ", à des demandes formulées en l'état par des internautes. Ce biais en faveur des Etats-Unis laisse toutefois apparaître des requêtes portant sur des thèmes internationaux comme la ville indienne de " varanasi " (n° 918) ou la " sorbonne " (n° 948). Les sujets abordés correspondent assez bien aux interrogations les plus populaires adressées aux moteurs de recherche commerciaux comme Google 6 ou Yahoo ! Si l'on analyse les jugements de pertinence correspondant à 32 078 documents pertinents, on remarque que le nombre moyen d'articles pertinents par requête s'élève à 320,78 (médiane : 263,5, min : 16 (n° 939 " Beggin Strips "), max : 872 (n° 872 " brokeback mountain ") avec un écart type de 225,84). Les jugements de pertinence sont notés sur une échelle de 1 à 4. Une valeur unitaire indique que le document répond à la requête de manière objective ou d'une manière adéquate pour être repris dans une réponse que devrait rédiger l'internaute. Les valeurs supérieures indiquent que l'article répond à la requête mais qu'il possède également une opinion personnelle sur le sujet. Ainsi, la valeur quatre indique que l'article présente clairement un jugement positif concernant la requête tandis qu'une valeur de deux signifie une appréciation négative concernant le thème de la demande. La valeur de trois indique des jugements mélangés, tantôt positifs, tantôt négatifs voire ambigus ou peu clairement tranchés. Dans nos évaluations, nous avons admis comme bonne réponse tous les articles ayant une valeur de pertinence supérieure ou égale à un. Nous n'avons donc pas fait de distinctions entre un document objectif ou subjectif d'une part et, d'autre part, entre une opinion négative, mixte ou positive. Nous désirons obtenir une vision assez large de la performance de divers modèles de dépistage de l'information (Boughanem et Savoy, 2008). Dans ce but, nous avons indexé les billets d'information de la blogosphère (et les requêtes) en tenant compte de la fréquence d'occurrence (ou fréquence lexicale notée tfij pour le je terme dans le ie document). Ainsi, si un terme possède une fréquence d'occurrence plutôt forte pour un document (tf élevé), il décrira bien le contenu sémantique de celui -ci et doit donc posséder une forte pondération. En complément à cette première composante, une pondération efficiente tiendra compte de la fréquence documentaire d'un terme (notée dfj, ou plus précisément de l'idfj = log( n / dfj) avec n indiquant le nombre de documents inclus dans le corpus). Ainsi, si un terme dispose d'une fréquence documentaire très élevée, il apparaît dans presque tous les documents (comme, par exemple, les mots " dans " ou " http "). Dans ce cas, sa présence dans la requête ne s'avère pas très utile pour discriminer les documents pertinents des articles sans intérêt. A l'inverse, si ce terme dispose d'une fréquence documentaire faible, il apparaît dans un nombre restreint de pages web (et sa valeur idf sera élevée). Dans ce cas, ce mot permet d'identifier un ensemble restreint de documents dans le corpus. Une pondération élevée permettra à ces quelques articles d' être classés au début de la liste des résultats retournés. Afin de tenir compte de ces deux premières composantes, on multiplie les deux facteurs pour obtenir la formulation classique tf · idf donnant naissance à un premier modèle vectoriel. Comme troisième composante nous pouvons tenir compte de la longueur du document, en favorisant, ceteris paribus, les documents les plus courts comme le proposent plusieurs modèles probabilistes. En effet, ces derniers ont été proposés afin d'améliorer la pondération tf · idf. Dans le cadre de notre étude, nous avons considéré le modèle Okapi (Robertson e t al., 2000) utilisant la formulation suivante : dans laquelle li est la longueur du ie article (mesurée en nombre de termes d'indexation), et b, k1, mean dl des constantes fixées à b = 0,4, k1 = 1,4 et mean dl = 787. Au niveau de la requête, les termes de celle -ci sont pondérés selon la formulation classique tf · idf, soit : Remarquons que les requêtes étant des expressions brèves, la composante tf se limite très souvent à l'unité. Dès lors, la formule [2] correspond essentiellement à une pondération des termes de la requête selon leur valeur idf. Le score de chaque document Di par rapport à la requête Q est calculé selon l'équation [3 ], soit : Comme deuxième modèle probabiliste, nous avons implémenté le modèle PL2, un des membres de la famille Divergence from Randomness (DFR) (Amati et van Rijsbergen, 2002). Dans ce dernier cas, la pondération wij combine deux mesures d'information, à savoir : dans laquelle tcj représente le nombre d'occurrences du je terme dans la collection, n le nombre d'articles dans le corpus et c une constante fixée à 5. La pondération des termes de la requête dans les divers modèles DFR se limite à la fréquence d'occurrence (soit wqj = tfqj) et le score de chaque document en fonction de la requête Q est calculé selon la formule [3 ]. Comme troisième modèle probabiliste, nous avons retenu le modèle I( ne )C2 également issu de la famille DFR se basant sur la formulation suivante. Enfin, nous avons repris un modèle de langue (LM) (HIEMSTRA, 2000), dans lequel les probabilités sont estimées directement en se basant sur les fréquences d'occurrences dans le document D ou dans le corpus C. Dans cet article, nous avons repris le modèle de Hiemstra (2000) décrit dans l'équation [6] qui combine une estimation basée sur le document (soit Prob [tj| Di ]) et sur le corpus (Prob [tj| C]). dans laquelle λjest un facteur de lissage (une constante pour tous les termes tj, fixée à 0,35) et lc correspond à une estimation de la taille du corpus C. La recherche d'information possède une longue tradition empirique visant à confirmer ou infirmer les modèles et techniques proposés. Dans cet esprit, nous décrirons notre méthodologie d'évaluation dans la section 4.1. La section 4.2 évalue l'emploi d'un enracineur (stemmer) plus ou moins agressif permettant d'augmenter la moyenne des précisions (MAP). Le recours à des requêtes plus longues permet habituellement d'augmenter la qualité du dépistage de l'information. Cette affirmation sera examinée dans la section 4.3. Dans la suivante, nous évaluons l'impact d'une procédure d'enrichissement automatique de la requête. Finalement, la section 4.5. propose de comparer les résultats de nos approches avec les meilleures performances obtenues lors des deux dernières campagnes d'évaluation TREC. Afin de connaître la performance d'un système de dépistage de l'information, nous pouvons tenir compte de divers facteurs comme la vitesse de traitement de la réponse, la qualité de l'interface, l'effort exigé par l'usager afin d'écrire sa requête ou la qualité de la liste des réponses fournies. En général, seul le dernier critère est pris en compte. Pour calculer la qualité de la réponse associée à une requête, la communauté scientifique a adopté comme mesure principale la précision moyenne (PM) (Buckley et Voorhees, 2005). Son calcul s'opère selon le principe suivant. Pour chaque requête, on détermine la précision après chaque document pertinent. Cette dernière correspond au pourcentage de bonnes réponses (documents pertinents) dans l'ensemble des articles retournés à l'usager. Par exemple, dans le tableau 1, après trois documents retournés, la précision serait de 2/3 tandis que la précision après 35 documents serait de 3/35. Ensuite on calcule une moyenne arithmétique sur l'ensemble de ces valeurs. Si une interrogation ne dépiste aucun document pertinent, sa précision moyenne sera nulle. Dans le tableau 1, la précision moyenne de la requête A possédant trois documents pertinents s'élève à (1/3)·(1/2 + 2/3 + 3/35) = 0,4175. Précision moyenne de deux requêtes ayant trois documents pertinents (notés P) et non pertinents (NP) présentés dans des rangs différents Rang Requête A Requête B 1 NP P 1/1 2 P 1/2 P 2/2 3 P 2/3 NP … NP NP 35 P 3/35 NP … NP NP 108 NP P 3/108 PM 0,4175 0,6759 Pourtant la précision moyenne (PM) possède quelques inconvénients. En premier lieu cette valeur reste difficile à interpréter pour un usager. Que signifie une précision moyenne de 0,3 ? Ce n'est pas la précision après 5 ou 10 documents dépistés, valeur qui serait simple à interpréter pour l'utilisateur. Deuxièmement, comme l'illustre le tableau 1, des différences de précision moyenne importantes comme par exemple 0,6759 vs. 0,4175 (variation relative de 60 %) ne semblent pas correspondre à une différence aussi significative pour un usager. En effet, le classement proposé par la requête A ne s'éloigne pas beaucoup de la liste obtenue avec la requête B. En tout cas, l'usager n'attribuerait pas à cette variation une amplitude aussi élevée que 60 %. Pour un ensemble de requêtes, nous pouvons opter pour la moyenne arithmétique (MAP) des précisions moyennes individuelles (PM). Cette mesure a été adoptée par diverses campagnes d'évaluation (Voorhees et al., 2007) pour évaluer la qualité de la réponse à un ensemble d'interrogations. Afin de savoir si une différence entre deux modèles s'avère statistiquement significative, nous avons opté pour un test bilatéral non paramétrique (basé sur le rééchantillonnage aléatoire ou bootstrap (Savoy, 1997), avec un seuil de signification α = 5 %). Comme nous l'avons démontré empiriquement, d'autres tests statistiques comme le t - test ou le test du signe aboutissent très souvent aux mêmes conclusions (Savoy, 2006). Pour compléter la précision moyenne, nous pourrions également recourir à l'inverse du rang moyen de la première bonne réponse (MRR ou mean reciprocal rank), mesure reflétant mieux le comportement des internautes souhaitant uniquement une seule bonne réponse. A l'aide de cette mesure, la requête A du tableau 1 posséderait la valeur 1/2 = 0,5 tandis que la requête B obtiendrait une valeur de 1/1 = 1,0. Notons toutefois que ces diverses mesures de performance sont fortement corrélées (Buckley et Voorhees, 2005). Le choix de la MAP ou du MRR ne présente pas un éclairage biaisé dans l'analyse des résultats. Nous savions que le style et le lexique utilisés dans la blogosphère s'avéreraient différents des corpus d'agence de presse que nous avons l'habitude de traiter. Comme les interrogations sont souvent très courtes et se limitent à un ou deux termes précis (souvent un nom propre), nous pensons que le recours à un enracineur léger devrait fournir de meilleures performances qu'une approche plus agressive comme l'algorithme de Porter (1980) basé sur environ 60 règles. Dans ce but nous avons évalué la suppression de la consonne finale ' - s ' indiquant souvent la forme pluriel de la langue anglaise (Harman, 1991). Prenons note toutefois que ces enracineurs fonctionnent sans connaissance de la langue et génèrent des erreurs. Ainsi, l'algorithme de Porter ne réduit pas sous la même racine l'adjectif " European " et le nom " Europe ", tandis que l'approche proposée par Harman (voir tableau 2) retourne " speeche " pour le pluriel " speeches ". Les trois règles de l'enracineur léger suggéré par Harman (1991) Si la finale est ' - ies ' mais pas ' - eies ' ou ' - aies ' alors remplacez ' - ies ' par ' - y ', fin ; Si la finale est ' - es ' mais pas ' - aes ', ' - ees ' ou ' - oes ' alors remplacez ' - es ' par ' - e ', fin ; Si la finale est ' - s ' mais pas ' - us ' ou ' - ss ' alors éliminez ' - s'; fin. Comme autre possibilité, nous pouvons ignorer tout traitement morphologique (évaluation donnée sous la colonne " aucun " dans le tableau 3). Comme troisième choix, nous avons repris l'algorithme de Porter (1980) afin d'éliminer les suffixes flexionnels et certains suffixes dérivationnels. Comme autre approche, nous pourrions recourir à une analyse morphologique plus poussée capable de nous retourner le lemme ou l'entrée correspondante dans le dictionnaire. Dans ce dernier cas, en réponse au terme " eating ", le système retournerait " eat ". Toutefois, la couverture du dictionnaire sous-jacent n'est jamais complète et la présence de noms propres soulève la délicate question du traitement des mots pas reconnus par une telle analyse morphologique. Enfin la préférence pour l'emploi d'enracineurs s'explique par la nécessité d'un traitement peu coûteux en espace mémoire et en temps de calcul. Evaluation de nos divers modèles de dépistage selon trios algorithmes de suppression des séquences terminales (100 requêtes « titre ») Moyenne des précisions (MAP ) Enracineur aucun léger (- ' s' ) Porter Okapi 0,3395 0,3325 * 0,3242 * DFR-PL2 0,3375 0,3310 * 0,3215 * DFR-I(ne)C2 0,3258 0,3202 * 0,3122 * LM (λ=0,35 ) 0,2518 0,2464 * 0,2390 * tf. idf 0,2129 0,2088 * 0,2033 * L'application d'un enracineur offre une première forme de normalisation des mots permettant un meilleur appariement entre les termes de la requête et ceux des documents. Ainsi, si la requête inclut la forme « jeux », il semble naturel de dépister des sites web décrit par les mots « jeux » ou « jeu ». Par contre, l'application d'un enracineur même une approche simple peut provoquer des appariements erronés. Ainsi à la requête « Jeu de Nim », le moteur de recherche Google 7 nous a retourné dans les rangs deux et trois des sites proposant des informations sur les « jeux à Nîmes ». Les variations morphologiques entre les deux formes « Nim » et « Nîmes » peuvent être assimilées, de manière incorrecte dans cet exemple, à des variations de genre et de nombre. La présence d'accent et leur élimination automatique reste un problème que l'on rencontre dans plusieurs langues mais pas de manière significative en langue anglaise (qui connaît quelques expressions comme " résumé " ou " cliché "). Les évaluations de le tableau 3 indiquent que le modèle Okapi propose la meilleure qualité de réponse. Dans ce tableau, les différences de performance par rapport à la meilleure approche notée en gras et statistiquement significatives seront soulignées. Comme on le constate, la performance du modèle Okapi ne s'écarte pas significativement du modèle DFR-PL2. Les différences de performance avec les trois autres modèles s'avèrent par contre statistiquement significatives. Si l'on pose comme référence la performance obtenue en l'absence de tout traitement morphologique, la suppression des suffixes tend à réduire la performance, et les différences avec un enracineur léger ou plus sophistiqué sont statistiquement significatives (notées par un astérisque ' * ' dans le tableau 3). En moyenne, ces différences de performance sont relativement faibles, soit de - 1,9 % avec un enracineur léger ou - 4,6 % avec l'algorithme de Porter. La recherche dans la blogosphère ne doit pas, contrairement à la recherche dans les dépêches d'agence, recourir à un enracineur même dans une version limitée à la suppression de la lettre finale ' - s'. Afin de connaître les problèmes particuliers de nos diverses stratégies de dépistage, nous avons analysé quelques interrogations présentant une performance très faible avec notre meilleure approche (Okapi et sans enracineur). La demande n° 916 " dice.com " possède une précision moyenne de 0,0 et aucune bonne réponse n'a été dépistée. La forme interne de la requête se limitait aux deux termes " dice " et " com " provoquant l'extraction d'un nombre considérable de pages ayant un caractère spam indéniable ou pointant vers des sites de jeux enligne (" dice game "). Or l'internaute désirait spécifiquement des commentaires ou jugements concernant spécifiquement le site « dice.com ». Avec l'interrogation n° 928 (précision moyenne de 0,0005, première bonne réponse au rang 115), l'internaute souhaitait recevoir des opinions concernant l'émission de télévision de HBO " Big Love " et ses participants. Avec une représentation interne {" big ", " love " }, le système de dépistage n'est pas arrivé à retourner en premier des blogs liés spécifiquement à l'émission de télévision concernée. Avec la requête n° 937 " LexisNexis ", notre système a retourné en première place une bonne réponse mais la précision moyenne de cette requête demeure faible (0,0355) car il existe de nombreuses bonnes réponses (précisément 210). De nombreuses pages web contiennent la forme exacte apparaissant dans la demande mais souvent sous la forme d'un lien vers le site de l'entreprise LexisNexis. L'usager désirait lui des informations concernant la qualité de service du système LexisNexis et non des offres promotionnelles ou des annonces de nouveaux produits ou services liés à cette firme. Si l'on compare l'indexation sans suppression des suffixes et l'algorithme de Porter, nous pouvons illustrer les différences avec la requête n° 936 " grammys ". Avec l'absence de tout traitement morphologique, cette requête obtient une précision moyenne de 0,0513 et le premier document pertinent se trouve au dixième rang (il existe 420 bonnes réponses à cette interrogation). Avec l'algorithme de Porter, la précision moyenne baisse à 0,0445 mais la première bonne réponse se situe au 616e rang. En fait la fréquence documentaire passe de 3 456 (terme " grammys " sans enracineur) à 9 899 (terme d'indexation " grammi " avec l'approche de Porter). En utilisant les cinq modèles de recherche et sans enracineur, le tableau 4 indique que le modèle le plus performant dépend de la longueur de la requête, soit l'approche Okapi pour des requêtes très courtes (T), ou le modèle DFR-PL2 si l'on considère des requêtes de longueur moyenne (TD) ou longue (TDN). Evaluation de nos divers modèles de dépistage selon trois types de requêtes (100 requêtes, sans enracineur) Moyenne des précisions (MAP ) Type de requite T TD TDN Nombre moyen termes 1,73 6,62 18,43 Okapi 0,3395 0,3786 * 0,3686 * DFR-PL2 0,3375 0,3821 * 0,3693 * DFR-I(ne)C2 0,3258 0,3722 * 0,3630 * LM (λ=0,35 ) 0,2518 0,3166 * 0,3357 * tf · idf 0,2129 0,2132 0,2178 Moyenne + 13,3 % + 12,7 % Les différences de performance entre le modèle Okapi d'une part et, d'autre part, l'approche DFR-PL2 ne s'avèrent pas statistiquement significatives. Par contre ces variations sont significatives entre le modèle le plus performant et le modèle de langue (LM) ou l'approche classique tf · idf (valeurs soulignées dans le tableau 4). Comparé à l'emploi des requêtes très courtes (T), les requêtes « titre & descriptif » (ou TD) permettent d'accroître la performance moyenne de l'ordre de 13,3 % tandis que pour les requêtes longues (TDN), cette augmentation s'élève à 12,7 %. Comparées aux requêtes très courtes (T), ces différences de performance sont toujours statistiquement significatives sauf pour le modèle tf · idf (différence significative indiquée avec le symbole ' * '). Dans ce dernier cas, la variation de la longueur de la requête n'a pas vraiment d'impact sur la performance obtenue. Pour l'ensemble des modèles, la différence de performances entre les requêtes TD et TDN demeure marginale et souvent contradictoire (pour les modèles les plus performants, les requêtes TD apportent une meilleure performance). Si l'on regarde la figure 3, on comprend bien que les termes ajoutés par la partie descriptive (nombre moyen de termes par requête passe de 1,73 à 6,62) s'avèrent, en général, plus adéquats afin de discriminer entres les pages abordant le thème sous-jacent à la demande et celles plus périphériques à la requête. La partie narrative (longueur moyenne des requêtes de 18,43 mots) ajoute beaucoup de mots dans la requête sans que ces derniers apportent des éléments autorisant un meilleur classement des documents pertinents. Lorsque l'on mesure la performance par la précision moyenne, le recours à une pseudo-rétroaction (Efthimiadis, 1996; Buckley et al., 1996) afin d'élargir automatiquement les requêtes courtes permet d'augmenter la qualité du dépistage. Une telle approche semble, a priori, aussi attractive dans le contexte de la blogosphère puisque l'augmentation de la longueur des requêtes décrite dans la section précédente apportait une augmentation de la précision moyenne. Cependant, cet enrichissement était fait manuellement par l'usager. De plus, après une augmentation de la performance, l'accroissement de la taille des requêtes conduisait à une légère dégradation (voir tableau 4). Afin de procéder à une expansion automatique des interrogations soumises, nous avons implémenté l'approche de (1971) avec les constantes α = 0,75 et β = 0,75 et en incluant entre 10 et 20 nouveaux termes extraits des 3 à 10 premiers blogs dépistés. Les résultats obtenus sont indiqués dans le tableau 5 et les différences de performance demeurent relativement faibles et ne sont habituellement pas significatives (les variations significatives sont indiquées par un soulignement). On remarque également que les deux mesures, la moyenne des précisions moyennes ou MAP et score du premier document pertinent dépisté (MRR) ne corroborent pas parfaitement. Les variations entre ces deux mesures étant toutefois mineures. Evaluation avant et après l'expansion automatique des requêtes Requête « titre » seulement MAP MRR Modèle avant (Okapi ) 0,3395 0,7421 3 documents / 10 termes 0,3298 0,7590 3 documents / 20 termes 0,3142 0,7359 5 documents / 10 termes 0,3472 0,7753 5 documents / 20 termes 0,3313 0,7635 10 documents / 10 termes 0,3456 0,8122 10 documents / 20 termes 0,3394 0,8006 Pour expliquer cette faible variation de performance, nous pouvons suivre les indications données par Peat et Willett (1991). Ces auteurs indiquent, qu'en moyenne, les termes des requêtes tendent à avoir une fréquence plus importante que la moyenne. Selon la formule de Rocchio, les nouveaux termes à inclure dans la requête ont tendance à être présents dans plusieurs documents classés au début des réponses retournées et donc ils possèdent également une fréquence d'apparition importante. L'injection de ces termes n'améliore pas la discrimination entre les articles pertinents et ceux qui ne le sont pas. Le résultat final aboutit alors à une dégradation de la performance de la recherche. Notre méthodologie d'évaluation s'appuie sur la présence de 100 requêtes afin de déterminer l'efficacité du système de recherche proposé. Afin d'avoir une idée de leur efficacité comparée aux meilleurs systèmes de dépistage proposés lors des campagnes d'évaluation en 2006 et en 2007, le tableau 6 indique la précision moyenne calculée séparément pour les deux années. Evaluation des deux meilleurs systèmes lors des campagnes TREC comparés au modèle Okapi Moyenne des précisions (MAP ) Modèle TREC 2006 TREC 2007 Okapi (T ) 0,3091 0,3699 & 5 documents / 10 termes (T ) 0,3111 0,3834 & deux termes (T) (cf. section 5 ) 0,3202 0,4112 Indiana Univ. (TDN) (Yang, 2006 ) 0,2983 Illinois Univ. (T) (Zhang et yu, 2007 ) 0,4819 Pour l'année 2006 (requêtes no 851 à 900), le meilleur système de dépistage a été proposé par Indiana University (Yang, 2006) avec une précision moyenne de 0,2983. Pour l'année 2007 (requêtes no 901 à 950), la meilleure approche a été proposée par l'Illinois University à Chicago (Zhang et yu, 2007). Comme l'indiquent les valeurs du tableau 6, le modèle Okapi présente une meilleure performance pour l'année 2006 mais qui s'avère inférieure pour l'année 2007. Signalons que pour 2007, l'accroissement de la précision moyenne provient d'expansions automatiques des requêtes. En effet, les participants ont remarqué que les requêtes correspondaient bien à des nouvelles et thématiques récurrentes sur le web. Ainsi, on a proposé d'utiliser directement le moteur Google (ou sa version adaptée aux blogs) afin d'extraire des termes appropriés afin d'élargir les interrogations. Parfois, on propose d'utiliser le corpus de nouvelles AQUAINT (Ernsting et al., 2007) ou le site Wikipédia (Zhang et yu, 2007) pour extraire les termes adéquats (Ernsting et al., 2007). Signalons également que pour certains participants (Ernsting et al., 2007), toutes les pages n'ont pas la même probabilité a priori d' être pertinente et que le nombre de billet inclus dans un article pourrait être un indicateur de la popularité et donc de la pertinence de la page sous-jacente. Il faut cependant prendre garde de ne pas comparer les niveaux de performance d'une collection à une autre. Dans le cas présent, on ne peut pas inférer que les systèmes de recherche pour la blogosphère se sont sensiblement améliorés en comparant directement la performance obtenue en 2006 à celle obtenue en 2007 comme l'indique Macdonald et al. (2007). En effet, toute comparaison doit être faite avec les mêmes données (collection et requêtes) et comme l'indique Buckley et Voorhees (2005), toute mesure de performance (MAP ou MRR) reste relative. " The primary consequence of the noise is the fact that evaluation scores computed from a test collection are relative scores only. The only valid use for such scores is to compare them to scores computed for other runs using the exact same collection. " (BUCKLEY, 2005, p. 73) Nous ne pouvons donc pas comparer directement les deux colonnes chiffrées du tableau 6. Par contre, nous pouvons clairement indiquer que l'élargissement des requêtes via des ressources externes (corpus similaires) tend à apporter des améliorations sensibles de la performance moyenne. Suite à l'analyse des requêtes pour lesquelles notre système de dépistage de l'information présentait des lacunes, nous avons décidé d'améliorer notre algorithme de recherche. Dans ce dessein, nous avons désiré conserver une grande rapidité dans le traitement des requêtes. De plus, nous avons également décidé de renoncer à recourir à diverses sources externes que nous ne maitrisons pas (e.g., Google) ou que nous ne possédons pas. Dans un premier temps, nous avons décidé d'étudier l'impact de la présence d'une liste de mots-outils très brève à la place de notre liste de 571 formes. En effet, pour quelques requêtes, la présence de mots inclus dans une liste trop longue peut diminuer sensiblement la performance. Ainsi, notre liste de 571 formes contenait les mots « big » et « com » dont l'importance est indéniable dans les interrogations « big love » ou « dice.com ». Comme alternative, nous avons sélectionné les neuf mots retenus par le système DIALOG (soit les mots « an », « and », « by », « for », « from », « of », « the », « to », « with ») (Harter, 1986). Comme deuxième voie d'amélioration, nous tenons à favoriser les réponses dépistées ayant deux mots (ou plus) appartenant à la requête. Notre intention consiste à améliorer le classement des pages web ayant, par exemple, les deux termes " dice " et " com " ou " big " et " love " apparaissant de manière adjacente. Pour atteindre cet objectif, notre indexation par termes isolés se complétera d'une indexation par paires de termes d'indexation adjacents. Ainsi la phrase « Big love in Paris » sera indexée par les termes « big, love, paris, big+love, love+paris ». On y retrouve les termes simples et les paires de termes adjacents après suppression des mots-outils. Dans le tableau 7, nous avons repris en deuxième ligne le modèle Okapi en utilisant uniquement les requêtes très courtes (T) et sans suppression des suffixes. Ensuite nous avons évalué la performance obtenue avec notre liste brève de motsoutils. La différence de performance s'avère faible (0,3395 vs. 0,3221, - 5,1 %) mais elle est tout de même significative. Evaluation avant et après l'emploi d'une liste de neuf mots-outils ou favorisant la présence d'au moins deux mots de la requête (modèle Okapi, requête « titre » uniquement) Requête « titre » seulement MAP MRR Modèle de reference (Okapi ) 0,3395 0,7421 avec une stop liste brève 0,3221 0,7372 avec deux mots 0,3657 0,7835 En dernière ligne, nous avons reporté la performance de notre système qui favorise la présence de deux mots adjacents de la requête dans les pages retournées. Comme plusieurs requêtes sont composées que d'un seul terme (moyenne : 1,73; médiane : 2), cet accroissement ne peut pas être extrêmement fort. Selon la précision moyenne, l'accroissement s'élève à 0,3657, soit une augmentation statistiquement significative de 7,7 %. En analysant quelques demandes, on constate que le plus souvent l'effet s'avère favorable comme pour l'interrogation n° 928 " Big Love ". Dans ce cas, la précision moyenne passe de 0,0005 avec la première bonne réponse au rang 115 à une précision moyenne de 0,182 (la première bonne réponse se place au premier rang). Le scénario est le même pour la requête n° 916 " dice.com " qui ne dépistait aucune bonne réponse (précision moyenne = 0,0). Après le traitement des couples de mots, cette demande obtient une précision moyenne de 0,1997 et le premier article dépisté s'avère pertinent. Par contre pour la demande n° 927 " oscar fashion " la première réponse pertinente passe du deuxième rang au rang 50 après notre traitement des termes adjacents. La précision moyenne se dégrade également puisqu'elle passe de 0,0261 à 0,018. Dans ce cas, les autres articles présentés entre le premier et le 50e rang contiennent bien les mots " oscar " et " fashion " côte à côte (en fait il s'agit du syntagme " oscar fashion 2003 ") mais cette conjonction appartiennent à un menu et ne s'avère pas être un descripteur pertinent de la page web considérée. Sur la base d'un corpus extrait de la blogosphère et accompagné de 100 requêtes, nous avons démontré que le modèle Okapi ou une approche dérivée du paradigme Divergence from Randomness apporte la meilleure performance. Afin d'obtenir de bonnes performances, il est recommandé de ne pas supprimer les séquences terminales, que ce soit uniquement la marque du pluriel avec un enracineur léger ou en éliminant également certains suffixes dérivationnels (voir tableau 3). Si les internautes rédigent des demandes plus longues, une augmentation moyenne de la précision d'environ 13 % est attendue (voir tableau 4, colonne « TD »). Mais après l'inclusion d'un certain nombre de termes, l'accroissement de la requête par l'usager tend à diminuer la précision moyenne (tableau 4, colonne « TDN »). Le recours à un enrichissement automatique par pseudo-rétroaction n'apporte pas toujours d'amélioration de la précision moyenne ou du rang de la première bonne réponse (voir tableau 5). De plus, il demeure délicat de fixer de manière optimale les paramètres sous-jacents à cette approche. Face à des requêtes très courtes (en moyenne 1,73 mots), l'indexation par paire de termes adjacents permet d'accroître significativement la précision moyenne (voir tableau 7). On passe ainsi d'une précision moyenne de 0,339 à 0,366 tandis que le score de l'inverse de la première page pertinente retournée passe de 0,74 à 0,78. Notre proposition améliore clairement le rang du premier document pertinent dépisté comme le confirme l'analyse de quelques requêtes difficiles. Ces premiers résultats ouvrent la porte vers de nouvelles analyses afin de répondre à l'ensemble de nos questions. Nous n'avons pas vraiment l'impression que la qualité orthographique des documents de la blogosphère était nettement inférieure à celle que l'on retrouve dans des corpus de presse (Jereczek-Lipinska, 2007). Existe -t-il donc une certaine continuité des caractéristiques linguistiques entre les quotidiens et la blogosphère, ou, au contraire, une rupture existe mais n'a pas de réel impact sur les systèmes de dépistage ? Une réponse plus complète mériterait une analyse plus approfondie. De même, l'inclusion de documents rédigés dans d'autres langues que l'anglais n'a pas perturbé de manière significative la qualité du dépistage de l'information. La présence de spam mériterait une analyse plus détaillée car ce sujet n'a pas vraiment été abordé avec l'attention qu'il mériterait lors des deux dernières campagnes d'évaluation TREC (Ounis et al., 2006; Macdonald et al., 2007). La présence des métabalises (e.g., « Keywords » et « Description ») mériterait également une analyse afin de connaître leur impact lors de la recherche d'information. Finalement, nous n'avons pas tenu compte de la date à laquelle les blogs sont apparus sur internet, une composante qui doit certainement jouer un rôle dans l'appréciation faite par l'internaute. Comme autre perspective ouverte par la blogosphère, nous pouvons signaler que la nature subjective des billets d'information mériterait un intérêt plus important de la communauté du traitement automatique de la langue naturelle. Ainsi, la réponse à une requête (e.g., « IKEA », « G. Bush », « tour Eiffel ») ne serait pas une simple liste de billets sur la thématique souhaitée mais une réponse distinguant clairement les faits des opinions. De plus, ces dernières, par nature subjective, pourraient être distinguées entre les avis positifs, ceux franchement négatifs ou des opinions plus nuancées sur le thème de la requête. L'emploi d'outil plus fin en traitement automatique de la langue pourrait même définir précisément l'auteur de l'opinion et sa délimitation à l'intérieur d'une phrase ou d'un paragraphe .
Cette communication présente les principaux problèmes liés à la recherche d'information dans la blogosphère. Recourant au modèle vectoriel tfidf, ainsi qu'à trois approches probabilistes et un modèle de langue, cet article évalue leur performance sur un corpus TREC extrait de la blogosphère et comprenant 100 requêtes. Les raisons expliquant les faibles performances sont exposées. Basés sur deux mesures de performance, nous démontrons que l'absence d'enracineur s'avère plus efficace que d'autres approches (enracineur léger ou celui de Porter). Imposer la présence côte à côte de deux mots recherchés dans la réponse fournie permet d'accroître significativement la performance obtenue.
sciencesInfo_09-0148886_tei_DN_111_0109.tei.xml