Epistémologie de la communication

Remonter La cartographie des controverses De la communication Epistémologie de la communication De l'argumentation Le déclin de la parole Internet & Présidentielles Le visage est exposé Silence Eros Culte d'Internet

précédent

PREMIER CONGRES FRANCAIS DES SCIENCES
DE L'INFORMATION ET DE LA COMMUNICATION
Exposé général introductif par Robert ESCARPIT
Compiègne - 21 avril 1978

Robert Escarpit le 23 octobre 1998 en conclusion de la journée d'hommage organisée par l'ISIC de Bordeaux (à droite Hugues Hotier, Directeur de l'ISIC).

Pour une nouvelle épistémologie de la communication

Un grand pas a été franchi lorsque, au bout d'un processus qui a duré plus de deux siècles, la connaissance humaine, renonçant aux grandes ambitions unitaires de 1a philosophie, s'est résignée à distinguer les sciences physiques, les sciences de la vie et les sciences de l'homme. Cette résignation a été féconde dans la mesure où elle a permis d'aborder les différentes manifestations de la réalité qui est en nous et hors de nous avec des méthodes appropriées, selon des hypothèses maîtrisables parce que limitées à certains ordres de phénomènes, compte tenu enfin des nombreux trous noirs qui parsèment notre univers et qui sont inaccessibles à notre raison définitivement ou provisoirement, chacun en décidera pour sa part. Cette résignation en somme a été féconde parce qu'elle a permis, comme le désirait Auguste Conte, de tenir la métaphysique a distance, mais elle n'a pas supprimé le besoin de la métaphysique. Ce n'est, après tout, qu'une résignation. L'irrésistible tentation unitaire n'a jamais cessé de s'exprimer, non sans quelque naïveté quand Hippolyte Taine prétendait, comme le dit un peu perfidement Gustave Lanson, appliquer à l'analyse du texte les méthodes de l'analyse du sucre, avec une pointe de génie quand Jacques Monod tentait de cacher Dieu dans une molécule d'acide désoxyribonucléique. Ces tentatives sont encouragées par le fait que les frontières scientifiques ne sont ni sûres, ni reconnues. Il n'est d'année qui ne nous montre les apports que la physique et la chimie peuvent faire à la biologie, la neurophysiologie à la psychologie, l'informatique, la linguistique, voire la psychanalyse à la textologie. On notera par parenthèse que les apports se font en général du physique au biologique et du biologique à l'humain, rarement en sens inverse, comme si les relations d'un domaine à l'autre étaient régies par une sorte de loi vectorielle d'inclusion. Si elle existe, cette loi est largement violée. La tentation permanente du scientifique, d'autant plus forte qu'il est plus proche du vivant et surtout de l'humain, est de raisonner par métaphores empruntant à d'autres domaines, apparemment mieux maîtrisés, leurs concepts et leur langage. Sans parler des économistes qui raisonnent en mécaniciens ou des politologues qui raisonnent en informaticiens, j'entendais l'autre jour deux biologistes qui discutaient microbes. C'était un dialogue de sourds : l'un, se prenant pour un cybernéticiens, ne parlait que codes, messages, effets, latences, l'autre, se prenant pour un sociologue, ne parlait que colonies, agressions, surpeuplement, régulation démographique. De telles transgressions sont nécessaires pour dégager le savoir de son quadrillage disciplinaire, mais elles sont dangereuses quand elles ne constituent qu'une manière commode de traverser par un langage métaphorique les boites noires où se cache le secret à découvrir. IL arrive qu'elles ne soient pas innocentes, notamment quand on applique systématiquement un langage mécaniste aux phénomènes sociaux ou quand on tente de les décrire par les mots de l'éthologie animale.

C'est pourquoi le besoin d'une transgression organisée, contrôlée, raisonnée, en un mot scientifique, se fait sentir de manière croissante depuis plus de trente ans. On donne de ce besoin les noms confus de pluridisciplinarité, d'interdisciplinarité, de transdisciplinarité selon que l'on se fait de la république des sciences une idée plus ou moins confédérale ou plus ou moins centralisée. En 1959, dans son livre The Space Beagle, l'écrivain canadien de science fiction Van Vogt, a même inventé le "nexialisme" qui est, dit il "la science de relier d'une manière ordonnée le savoir d'un champ de la connaissance à celui des autres champs." Cette science, ajoute t il t-il fournit des techniques pour accélérer l'absorption du savoir et pour rendre plus efficace l'utilisation de ce qui a été acquis".

Van Vogt ne savait sans doute pas qu'il décrivait là ce qui allait devenir l'ambition du documentaliste, et les documentalistes seront sans doute flattés de savoir que le personnage de Van Vogt, Elliott Grosvenor, unique et modeste nexialiste de l'équipe de savants embarqués à bord du Space Beagle, astronef d'exploration interstellaire, après avoir été méprisé et même persécuté par ses collègues et compagnons de voyage, devient l'homme le plus influent de l'expédition.

La conférence dans laquelle il initie l'équipage au nexialisme, commence par les mots suivants : "Les problèmes qu'affronte le nexialisme sont des problèmes globaux. L'homme a divisé la vie et la matière en compartiments séparés de connaissance et d'essence. Et, même quand il emploie parfois des mots qui montrent qu'il est conscient de la globalité de la nature, il continue à se conduire comme si l'univers un et changeant était constitué d'innombrables pièces fonctionnant séparément". A ceux qui se demandent ce qui fait l'unité des sciences de l'information et de la communication, ces propos apportent un élément important de réponse. C'est très intentionnellement que Van Vogt a baptisé sa nouvelle science le nexialisme. Nexus, dit mon vieux Gaffiot, signifie "enchaînement, entrelacement". Le nexialisme, c'est la science de la cohérence, et voilà une belle définition pour notre discipline. Je serais tenté de dire pour ma part que le désir d'étudier l'information comme donnée et la communication comme processus est né d'un besoin interne de la connaissance scientifique. En essayant de le satisfaire, nous entrons dans une nouvelle phase de la dialectique du savoir. Dans la recherche de cette lecture globale de l'univers, il fallait d'abord dissiper les illusions de la philosophie par une critique exigeante et forcément parcellaire. Ainsi s'est constituée la pensée scientifique qui découpe le donné selon le schéma positiviste en champs limités accessibles à l'expérimentation et où les hypothèses peuvent construire des cohérences provisoires mais entièrement descriptibles par un langage intelligible pour l'ensemble de la communauté scientifique. Cette phase était indispensable et elle est loin d'être terminée, mais du fait même des progrès qu'elle a permis, il est arrivé de plus en plus souvent que les champs s'accroissent au point de se recouper et même de se recouvrir, que les hypothèses aboutissent à des contradictions, que les langages se spécialisent au point de devenir ésotériques et que les cohérences, en fin de compte, ne soient plus cohérentes entre elles Et c'est alors qu'intervient la phase de reconstruction de la globalité, non plus comme une démarche philosophique sans base expérimentale, mais comme une démarche scientifique employant la méthode scientifique et se pliant à ses exigences. S'il existait une science de l'information et de la communication et j'insiste sur le singulier nous pourrions dire que c'est une science intérieure à la science, une science qui tend à constituer la science dans son unité. Malheureusement il n'y a pas, il n'y a pas encore une science de l'information et de la communication, il y a des sciences de l'information et de la communication qui recherchent leur cohérence puisque leur rôle est de l'enseigner aux autres Étant acceptée comme un fait, cette pluralité est somme toute réconfortante. Elle prouve que le besoin de se forger l'outil communicationnel et l'outil informationnel est apparu simultanément ou presque simultanément dans tous les compartiments du domaine scientifique. Ce nouveau souci est d'apparition relativement récente, puisque c'est surtout après la première guerre mondiale, et plus encore après la deuxième, qu'il s'est manifesté de façon systématique, mais ses origines sont anciennes. C'est effectivement la problématique créée par la technologie qui a suscité ce besoin, et l'on sait que la guerre est un puissant facteur de développement technologique. Elle n'est pas le seul, et avant elle sans doute il faudrait invoquer les structures de production économique, l'industrie et le commerce, qui sont en général à ses origines. Quoi qu'il en soit, la société qui s'est construite dès la fin du moyen âge est demanderesse de technologie. Or l'ingénieur est demandeur de science fondamentale. Sa pratique atteint vite ses limites si elle n'est systématisée par la théorie qui seule peut orienter sa recherche. Comme l'a très justement laissé entendre Marshall McLuhan par sa notion très particulière de media, la motivation fondamentale de la technologie de l'ère industrielle est de prolonger artificiellement les moyens dont dispose l'homme pour appréhender et contrôler son environnement. Dans mon jargon, je dirai qu'il s'agit d'augmenter le volume de son espace de communication.

Deux grandes orientations de la technologie répondent de cette motivation : la télécommunication et l'automation. Dès l'antiquité on trouve des dispositifs artisanaux comme le télégraphe optique des Romains pour la télécommunication ou la vis d'Archimède pour l'automation. La véritable machine, à laquelle sont déléguées certaines fonctions de l'esprit humain, n'apparaît que plus tard : à la fin du XVIIIè siècle, avec le télégraphe de Chappe, pour la télécommunication, dès le XIVè siècle avec le cylindre à picots, mais surtout au XVIIIè siècle avec les automates de Vaucanson et surtout de Jacquard, pour l'automation. Jusque là, le théoricien n'est guère sollicité, mais tout change lorsqu'au XIXè siècle apparaît l'énergie non animale, la machine à vapeur tout d'abord, puis surtout, à partir de 1870, l'énergie électrique. Le scientifique est alors d'autant plus stimulé par le technicien que les techniques nouvelles lui donnent un pouvoir accru d'expérimentation et lui livrent l'accès de problématiques de plus en plus fines.

Comme il est normal, le domaine privilégié de recherche est cette énergie vectrice qui sert à transporter au loin l'information ou à l'échanger à l'intérieur de l'automate. Les chercheurs suivent tout naturellement la voie tracée par la thermodynamique de Carnot, puis par la mécanique statistique de Boltzzann. C'est pourquoi les premiers outils théoriques dont on ait disposé, comme la théorie de Shannon, sont des outils mathématiques dérivés de l'observation des phénomènes physiques. L'informatique naissante a fait appel à la logique mathématique pour élaborer ses instruments de travail. Or l'inconvénient des mathématiques est qu'elles sont une science des relations, non des significations. Elles évacuent consciemment et systématiquement la signification et par là même l'humain si l'on admet que le pouvoir de produire des signes est le privilège de l'homme. Comme l'écrit Hebenstreit, chef du centre de calcul de l'École Supérieure d'Électricité, la logique mathématique vise "à ramener le raisonnement mathématique à une manipulation de symboles sans signification". Léon Brillouin avait été plus explicite encore en écrivant "Le contenu informationnel des mathématiques est nul". Or précisément, le contenu informationnel de textes, de documents, de discours, de messages, de comportements individuels ou collectifs, c'est à dire de séquences ou d'ensembles de signes ayant tous pour origine ultime des esprits humains. On comprend dés lors pourquoi une certaine Sémiotique qui se réduit à une algèbre de signes, s'est révélée stérile, alors que la sémiotique ou plus exactement la sémiologie qui prend en compte les contenus informationnels, est un instrument épistémologique efficace. Son efficacité n'est cependant pas universelle. Le signe n'est qu'une modalité du processus de communication. En un sens, on pourrait dire que le signe est un quantum d'information, mais ce ne serait qu'une métaphore : il n'y a pas de constante de Planck en matière de signification. Le signe est simplement le moyen arbitraire, approximatif et fluctuant dont nous nous servons pour rendre discrète, c'est à dire composée d'unités distinctes, dénombrables et énumérables (mais non exhaustivement, parce qu'en nombre illimité), cette entité qu'est la pensée dont nous ne connaissons que les effets et que, dans l'état actuel des connaissances, nous sommes bien forcés de considérer comme un continuum. C'est moyennant ces restrictions que, grâce aux signes, la pensée peut être perçue comme informationnelle. Et dès lors qu'on connaît les limites du procédé, il est légitime de recourir aux théories mathématiques issues de la physique dans la mesure où tout processus de communication suppose l'emploi d'une énergie vectrice.

Mais il faut se souvenir aussi que tout processus de communication informationnelle suppose l'inclusion dans le système d'un ou de plusieurs esprits humains, ne serait-ce que celui de l'observateur. Le professeur André Marchand, entre autres scientifiques, a montré que pour franchir le pas entre une théorie physique et une théorie de l'information, comme Léon Brillouin a tenté de le faire, il faut postuler la présence de l'esprit humain. Je disais tout à l'heure que ce que nous appelons la pensée ne peut être perçu que par ses effets. On pourrait dire que la pensée ne perçoit que des effets. Toute étude d'un système de communication consiste d'une manière ou d'une autre en une comparaison entre des contenus d'entrée et des contenus de sortie, des inputs et des outputs. Quand il s'agit de contenus énergétiques, comme c'est le plus souvent le cas dans les sciences physiques, on peut penser qu'une théorie mathématique de type shannonien suffit à décrire les effets. Dans le cas des sciences de la vie, où l'on a affaire à des organisations infiniment plus complexes et à des modes de transmission des messages beaucoup moins bien connus, la constatation de l'effet physique est insuffisante et il faut y ajouter celle de l'influence qui est en fait un bilan entre des effets très nombreux dont beaucoup échappent à l'observation directe. Ce bilan est un contenu qui ne peut être évalué que par des méthodes de type statistique, et cela avec une très grande marge de tolérance. Dans le cas des sciences humaines, l'influence, qui est un bilan d'output, ne suffit pas. IL faut y ajouter un bilan d'input que j'appellerai l'intention. Toute relation humaine se caractérise par un conflit de volontés supposées libres. Ce qu'on appelle l'analyse de contenu est donc une démarche qui prend inévitablement en compte non seulement le dit et l'entendu, non seulement le vouloir dire et le vouloir entendre, mais encore le vouloir faire, c'est d dire le processus entier du langage. Cela ne s'applique d'ailleurs pas seulement aux sciences humaines. Toute démarche scientifique est impliquée dans le langage : Prouver l'exactitude d'un fait, justifier les modalités d'une expérimentation, démontrer la validité d'une hypothèse, les termes même qu'on emploie indiquent qu'il s'agit d'un discours et d'un discours persuasif. S'il n'en était ainsi, les scientifiques du monde entier n'inonderaient pas les laboratoires, les académies et les congrès de tant de notes, de communications et d'articles. C'est dans cet échange que s'élabore l'information scientifique, et c'est un échange linguistique. Est ce à dire que la linguistique soit la science de l'information et de la communication ? Certainement p28. Mais, comme les mathématiques, elle est, à sa manière, une science des relations. On a jeté des ponts nombreux entre l'une et l'autre avec quelque succès tant qu'il s'est agi de codes, d'automates finis, de structures répétitives, mais les ponts se sont jusqu'ici effondrés quand il s'est agi de signification. La linguistique non plus ne peut pas tout faire. L'ingénieuse distinction introduite par Guillaume entre le sens et l'effet de sens ne rend compte ni de l'intention, ni de l'influence. Cette dernière a été abordée courageusement par Austin avec sa fameuse formule Dire c'est faire - Van Vogt, qui décidément a beaucoup tourné autour du problème, proposait dès 1945 dans son rcman de science fiction The World of Non A, une autre science imaginaire qui nous intéresserait bien si elle existait : c'est la Sémantique générale qui traite du sens des significations Prenant le contre pied de la science positive, la sémantique générale stipule entre autres choses que l'équation personnelle de chaque observateur, loin d'être un bruit qu'il faut éliminer, est au contraire le véritable contenu informationnel de l'observation.

Van Vogt a précisé cela dans une postface de 1968. L'état des connaissances à ce moment là lui permettait sans doute de se rendre compte qu'il avait mis le doigt sur le défaut fondamental des sciences humaines est d'abstraire du continuum qu'est le réel des systèmes partiels qui sont indûment généralisés. Ces abstractions (au sens propre du mot) sont l'histoire, la société, l'économie, le psychisme, le langage, la littérature, l'art, etc. Elles occultent le fait que tous les systèmes partiels se recoupent au niveau de chaque individu chaque fois d'une manière différente, et que c'est à ce niveau que, par le jeu multiforme des interactions, intentions, effets, influences, réponses, se constitue le seul contenu informationnel dont on puisse dire qu'il est vraiment généralisable. C'est génant, sans doute, et nous ne sommes pas murs pour les ambitions de la sémantique générale, mais cela doit nous rendre circonspects. Quand nous étudions par exemple le contenu d'un journal, nous devons nous souvenir que le journal ne peut se définir ni comme une personne, même s'il naît, vit et meurt, ni comme une collection de documents même s'il constitue un support physique d'une certaine capacité pour des textes d'une certaine teneur. Ce que nous appelons le journal n'est qu'une abstraction, un découpage arbitraire dans un immense jeu d'interactions où sont impliqués des centaines de milliers ou des millions d'individus à la fois comme actants des événements et comme lecteurs du journal, des centaines ou des milliers d'individus comme manipulateurs du médium, et où chacun de ces individus produit ses propres informations. Décrire l'appareil et analyser les textes sont à peu près les seuls moyens que nous ayons d'appréhender ce jeu, mais il faut que nous soyons conscients du fait que nous n'obtenons ainsi qu'une image indirecte de certains sous produits des actes de communication dont la partie visible est l'objet journal. Le souci justifié des spécialistes d'études de presse est de remonter au coeur du phénomène d partir de ces indications marginales. Ni la théorie mathématique de l'information, ni la linguistique ne leur suffiront pour y arriver.

J'en dirai autant de la statistique qui est un outil puissant, mais remarquablement dangereux. La tentation de la statistique à laquelle a cédé toute une génération de sociologues de la communication, n'est en fait que l'expression d'une angoisse idéologique devant l'hyperdimension des réseaux informationnels, qui caractérise notre siècle. La seule utilité de la statistique en matière d'information mais elle est fondamentale est d'indiquer qu'il se passe quelque chose qui n'est pas dû au hasard, qu'on est en présence d'un arrangement qui a certainement une cause et peut être une signification. En somme, la statistique signale des signes, mais en aucun cas elle ne peut servir à les interpréter. Dans une élection, par exemple, elle peut servir à affirmer que les électeurs n'ont pas voté d pile ou face, du moins dans leur ensemble, et qu'un nombre significatif d'entre eux ont exprimé une intention b travers le message qu'ils ont confié à ce canal particulièrement secret qu'est l'urne. Mais elle est parfaitement incapable d'expliciter cette intention ou plus exactement cette multitude d'intentions. Les politologues ont pour cela recours à des méthodes infiniment plus tâtonnantes où l'hypothèse, c'est à dire, en fin de compte, l'équation personnelle du chercheur joue un rôle décisif.

Dans la communication politique, ce qui est important ou ce qui devrait être important, ce n'est pas l'effet, c'est à dire l'élection de telle ou telle personne procurant telle ou telle influence par exemple la majorité dans un Parlement, c'est l'intention de chacun des électeurs. C'est cette intention qu'un chef d'État peut essayer de découvrir après les élections par le moyen très imparfait, mais plus efficace que le décompte numérique, de conversations avec les responsables d'organisations politiques syndicales ou professionnelles. Ce serait mieux encore s'il pouvait consulter tous les maires, tous les conseillers municipaux. Plus la trame à travers laquelle l'information est saisie est fine, plus cette information est riche. En appliquant brutalement la formule de Shannon (ce qui n'est pas recommandé), on peut montrer qu'en France des élections municipales ont un contenu informationnel deux fois supérieur à celui d'élections législatives et quinze fois supérieur à celui d'élections présidentielles. Pourtant ce sont les mêmes électeurs, avec les mêmes intentions, les mêmes désirs d'influence. Je ne veux pas soulever le problème des sondages d'opinion qui constituent un procédé comme un autre de saisie de l'information, mais qui échouent souvent quand il s'agit d'interpréter l'information et qui, de ce fait, ont un redoutable effet de feed-back dans la mesure où ils prétendent produire de l'information. Ce qu'ils donnent valablement, ce sont des tendances, c'est à dire des probabilités formelles, un peu comme en physique atomique la position, la vélocité, la trajectoire des particules ne sont jamais que des probabilités. Ce rappel de la physique atomique est intéressant. IL importe peu à un physicien de savoir quelle particule heurte telle autre dans une chambre à bulles, à vrai dire, la question n'a guère de sens pour lui. J'ai souvent pensé qu'elle en aurait un énorme pour moi et qu'elle m'importerait beaucoup si j'étais l'habitant d'une de ces particules. De même qu'on peut, par hypothèse, dessiner et décrire des modèles de noyaux, d'atomes, de molécules, parfois même arriver aux confins de l'hypothèse et de l'observation directe, de même on peut, par hypothèse, dessiner et décrire des modèles d'organisations dans lesquelles entrent des particules humaines. On peut appeler ces modèles Patterns, Gestalten ou structures, leur catactéristique sera d'être définis par une loi interne qui les rendra reproduisibles, et donc permettra de les identifier comme des formes, partant, de les reconnattre. En fait ils ne seront jamais vraiment reproduisibles, sinon de manière statistique, ce qui suffit aux physiciens pour le moment (et je dis bien pour le moment), mais ne saurait satisfaire qui s'attaque ans problèmes de la communication humaine.

Le mouvement structuraliste nous a certes donné un outil puissant en nous permettant de décrire de manière rigoureuse ce qui ne peut être quantifié, mais il ne nous a pas donné lui non plus la clef de la communication humaine c'est à dire, en réalité, de la communication tout court. C'est que l'attitude structuraliste, implicitement et malgré qu'on en ait, ne peut éviter de postuler l'homogénéité du donné. On retrouve le même postulat dans les notions d'opinion, de communication de masse qui sont autant de moyens d'évacuer l'hétérogénéité individuelle, particulièrement gênante dans un monde hyperdimensionnel. On notera que le marxisme a été plus prudent en distinguant les infrastructures w«~~ reproduisibles et régies par des lois scientifiques,des superstructures beaucoup plus contingentes que nous appréhendons à travers les formes de la la conscience sociale. Cela a au moins le mérite de mettre en lumière le rôle de la forme comme moyen d'appréhension du contenu informationnel et le rôle de la structure comme moyen d'organiser rationnellement ce contenu. Mais le contenu lui même, c'est dans les superstructures que nous le trouverons. C'est à dessein que j'ai qualifié les superstructures de contingentes. Ce qui est contingent, c'est ce qui a la liberté d'arriver ou de ne pas arriver. Tout le problème est de savoir si, comme l'entend Sartre, cette liberté est une liberté absolue A l'intérieur d'une certaine situation ou si c'est, comme l'entendent les physiciens, une liberté asservie aux lois de probabilité. La distinction est fondamentale pour l'avenir des sciences de l'information et de la communication. L'attitude scientifique en vigueur de nos jours, dérivée rappelons le, des sciences de la nature, consiste, depuis deux siècles, à projeter sur le donné une hypothèse implicite de contrainte rationnelle, qui traduit en fait le désir de chaque observateur de contrôler son environnement, son besoin d'élargir toujours sa zone de contrôle et, en fin de compte, consciente ou non, son ambition lointaine de rendre l'Univers entièrement prévisible et d'épuiser son entropie. Appliquée aux sciences de la vie, cette ambition de globalité conduit à la téléologie crypto théologique que Jacques Monod dissimule sous la dialectique de l'invariance et de la téléonomie. Appliquée aux sciences humaines, cette ambition s'appelle, entre autres noms, le totalitarisme.

Certes, nous ne sommes jamais libres que dans une situation, mais la situation sartrienne n'est jamais que l'implication de l'individu dans des systèmes et des sous systèmes de communication. Des informations extérieures transitent i travers nous, d'autres, comme les stéréotypes, nous sont imposées par le fonctionnement même de l'appareil social, celles que nous produisons sont brouillées par les bruits des canaux, mais nous ne cessons d'en produire, toujours avec la même liberté, toujours avec la même imprévisibilité. On peut évidemment prendre le parti d'étudier la situation et de laisser la liberté aux spéculations des philosophes, définitivement pour certains, provisoirement pour d'autres. Malheureusement, ce n'est pas si simple. Quand les espaces de communication des humains se limitaient à la zone d'action de l'outil manuel, à l'aire d'influence d'une autorité politique aisément identifiable, la dichotomie était relativement aisée. Elle est devenue exponentiellement plus difficile à mesure que, du fait même des progrès de la technologie de la communication, les espaces de communication se sont élargis et recoupés. Depuis une cinquantaine d'années, elle est devenue impossible. Les hommes étant devenus, comme dit Octavio Paz, "contemporains de tous les hommes", l'innocence de la praxis est devenue une fiction insoutenable. Même les sciences physiques, même les mathématiques ne peuvent plus prétendre à leur immunité épistémologique. Parce que partout il y a des présences humaines dans leur immense majorité insoupçonnables, aucune démarche intellectuelle ne peut plus être efficace si elle ne prend en compte le contenu informationnel humain du donné. J'ignore quels outils épistémologiques permettront cette prise en compte. Je crois les voir se dessiner. Peut être, quelque jour lointain, l'analyse de contenu (mais quelle analyse et avec quelles méthodes ?) des communication de ce premier congrès français des sciences de l'information et de la communication, montrera que ces outils étaient déjà, sans que nous le sachions, entre nos mains.

Ce qui est certain, c'est que le temps est passé où l'on pouvait faire de l'appréhension des formes et de l'appréhension des contenus deux domaines distincts de la connaissance, que l'illusion qu'on pouvait subordonner celle ci à celle ci ou celle là à celle ci, s'est dissipée, que l'artifice par lequel on a prétendu parfois nier la validité de leur distinction et les confondre en une même nébuleuse, s'est révélé improductif Reste à décrire, à comprendre, à expliquer, à dominer enfin les modalités selon lesquelles la forme et le contenu, le formel et l'informationnel, réagissent dialectiquement l'un sur l'autre pour permettre à chaque esprit humain de communiquer avec d'autres esprits humains par l'intermédiaire de machines naturelles ou artificielles. Voilà la tâche qui nous attend et je ne dissimulerai à personne qu'elle est rude.

 

Robert ESCARPIT - 1978

1. J. Hebenstreit, Article Théorie de l'Information, Encyclopaedia Universalis, vol. 8.

2. L. Brillouin, La science et la théorie de l'information, Paris, Masson, 1959.

3. A. Xarchand, Sur le contenu minimum de l'information. Comparaison du principe de Carnot et du principe de Carnot généralisé par Brillouin, Le Journal de Physique, 1976, 37, p. 297 301.

4. G. Guillaume, Langage et science du Langage, Paris, 1964

5. En fait Quand dire c'est faire est le titre de la traduction française (Paris, 1970) du livre de J.L. Austin, How to Do Things with Words, Oxford University Press, 1962.

 

Texte paru sous l'égide de La Lettre d'inforcom

 

 

 

1)