L`individu à l`âge de l`information

publicité
L’individu
à l’âge de l’information
vers une nouvelle liberté ?
Nolwenn Maudet
mémoire de philosophie
DSAA Design Produit - 2013
L’individu
à l’âge de l’information
vers une nouvelle liberté ?
Nolwenn Maudet
1
école Boulle
DSAA Design Produit - 2013
4
Avant-propos
S
e questionner sur les relations entre liberté et
information quand on est designer ? Étrange préoccupation. Pourtant, il me semble que la prise en compte
du pouvoir de l’information à travers son accès, son
partage ou sa publication est un des grands enjeux
contemporains. Car il s’agit d’un pouvoir potentiellement libérateur, qui s’exerce au travers de nouvelles
technologies de l’information et de la communication
(TIC). Concevoir ces outils de manipulation de l’information en prenant en compte les différentes réalités de
la révolution numérique est aujourd’hui une nécessité.
C’est l’objectif que je me suis fixée cette année dans
mon projet.
C’est donc dans l’optique du design que j’aborde ce
mémoire. Et pour nourrir ma réflexion, je m’appuierai
sur un corpus issu des sciences humaines et de la philosophie, sans faire l’impasse sur des essais engagés qui
éclairent les enjeux actuels.
5
6
Introduction
7
8
Liberté : possibilité d’agir, de penser par
soi-même; refus de toute sujétion aux choses, de
toute pression d’autrui.
dictionnaire du Centre National
des Ressources Textuelles et Linguistiques
Information : (du latin informare : action
de former, de façonner). Élément de connaissance susceptible d’être représenté à l’aide
de conventions pour être conservé, traité ou
communiqué.
dictionnaire du Centre National
des Ressources Textuelles et Linguistiques
9
Introduction
« 
Chaque nouveau médium transforme
la nature de la pensée humaine. Sur le long
terme, c’est l’histoire de l’information prenant
conscience d’elle-même. » 
–James Gleick, 2012
Information, a history, a theory, a flood
L’information, une notion
entre mathématiques et sciences humaines
L
a notion d’information telle qu’on la connaît
aujourd’hui a émergé il y a moins de 70 ans. Comme
d’autres mots avant : « énergie » , « masse »  ou
« force » , elle n’était qu’un terme ancien à la définition
relativement vague. C’est Newton qui, au dix-septième
siècle transforma ces trois mots en quantités manipulables par les mathématiques. Pour l’information, c’est
en 1948 que Claude Shannon, ingénieur électrique
et mathématicien, en fit une grandeur observable et
mesurable en publiant son article « une théorie mathématique de la communication » . Dans sa définition,
il évacua intégralement la question de la construction
du sens pour se concentrer sur le traitement du signal.
10
Pourtant, c’est sous cette forme qu’elle irrigua des
domaines aussi variés que l’informatique, la biologie
ou la linguistique, prenant une place centrale dans de
nombreux travaux de recherche.
Si l’on souhaite étudier le rapport des individus à
l’information, il faut faire appel à une autre définition opérationelle qui ne néglige pas la question du
sens. Pour Sylvie LELEU-MERVIEL, professeur en
sciences de l’information, l’étymologie latine du terme
information (du verbe informare : action de former,
de façonner), met en valeur ses différents usages.
L’information, pour les latins classiques, correspond
à l’acte de donner une forme à l’esprit. Pour les grecs,
en revanche, il s’agit de ce qui est perçu par les sens
et qui communique donc des connaissances. Ces deux
usages du mot sont étroitement liés, si bien qu’ils sont
même associés en couple information/connaissance par
l’économiste F. Machlup. « Information »  en tant que
ce qui est communiqué devient identique à « connaissance »  dans le sens de ce qui est connu. C’est cette dernière définition qui apparaît la plus pertinente dans le
cadre de ce mémoire car elle englobe le rapport à l’information de l’individu, lui donnant la place centrale.
L’importance croissante de l’information,
de l’économie à la vie privée des individus
F
. Machlup fut également l’un des premiers à montrer le poids économique de l’ industrie de la connais11
sance : en 1960 elle représentait déjà environ 30% du
produit intérieur brut (PIB) des Etats-Unis. En 1999,
les industries de la connaissance représentent plus de
50 % du PIB de l’ensemble de la zone OCDE1. Google,
l’entreprise la plus puissante au monde2 a bati son
empire en moins de 15 ans simplement en facilitant
l’accès à l’information sur le web. Il faut dire que la
mise en réseau des informations permise par le Web
a dépassé les espérances des pionniers : aujourd’hui
Wikipedia compte plus de 23 millions d’articles, toutes
langues confondues; et ce ne sont pas moins de 25h de
vidéo qui sont ajoutées sur Youtube chaque minute.
Pour les individus, la notion d’information s’est imposée progressivement dans l’espace privé avec le développement des nouvelles technologies de l’information et de la communication (NTIC). Or, comme l’a
montré l’anthropologue Jack Goody : « Même si l’on
ne peut pas réduire un message au moyen matériel de
sa transmission, tout changement dans le système des
communications a nécessairement d’importants effets
sur les contenus transmis » 3. Se dégage ainsi l’impact
des NTIC sur notre rapport à l’information et donc au
monde dans une certaine mesure.
1. OCDE (1999), Mesurer les économies fondées sur le savoir, Paris
2. classement 2011 de l’agence BrandFinance.
3. GOODY J. (1977), The domestication of the savage mind,
Cambridge University Press.
12
Information et liberté,
une étroite relation
E
n 1993, le psychiatre Robert Lifton affirmait :
« de nos jours, n’importe qui peut accèder à la totalité
des images et des idées véhiculées par le monde contemporain ou par n’importe quelle période culturelle de
l’histoire humaine » 4. Pour lui, ce nouveau rapport
permet à l’individu d’être plus libre, dans le sens où ces
connaissances lui offrent de nouvelles possibilités d’agir,
d’expérimenter, de penser par lui-même. En somme,
il s’agit là de la définition de la liberté qu’il faudrait
compléter par le refus de toute sujétion aux choses et de
toute pression d’autrui5. Pourtant aujourd’hui de nombreux auteurs, comme Jeremy Rifkin ou Eli Pariser
postulent paradoxalement que ces nouvelles modalités
d’accès et de partage enfermeraient plus qu’elles ne
libéreraient l’individu.
Aujourd’hui, notre rapport à l’information comme
enjeu de la liberté est au coeur de tensions vives qu’il faut
pouvoir mettre à jour et interroger. Comment ce rapport à l’information a-t-il évolué et permis de transformer les libertés  ? Comment les nouvelles technologies
de l’information et de la communication agissent-elles
sur ce rapport  ? Sommes-nous condamnés à devenir
des consommateurs passifs d’informations après avoir
cru à la force libératrice du Web ? Ce sont ces questions
qui constituent la problématique de ce mémoire.
4. LIFTON R. (1993), The prothean self, basic books, p. 17.
5. définition du CNRTL.
13
Table des matières
Avant-propos 5
Introduction 7
Chapitre 1
L’information comme source de liberté 17
I - L’accès à l’information,
composante essentielle de la démocratie moderne 18
II - « Information wants to be free »,
l’éthique hacker des années 60 26
III - Internet et le Web,
vers une vraie liberté de l’information 34
Chapitre 2
Les tensions émergentes d’un nouveau
rapport à l’information 14
43
I - Trop d’informations tuent l’information :
les tensions systémiques 44
II - La « filter bubble »
ou les algorithmes qui enferment 52
III - L’âge de l’accès,
la liberté dans la dépendance. 58
Chapitre 3
Coment repenser notre rapport
à l’information ? 67
I - L’information comme construction de soi 70
II - Quelle posture adopter ? 78
III - Vers la construction d’un rapport actif
à l’information 84
Conclusion 91
Bibliographie & Remerciements
99
15
Chapitre 1
L’information
comme source de liberté
17
I
L’ accès à l’information,
composante essentielle de la démocratie
moderne
La naissance de la notion
d’accès à l’information (1600-1900)
L’accès
à l’information est une notion qui a
commencé à se répandre chez les humanistes et les
scientifiques dès le XVII siècle. On la retrouve notamment dans les écrits du philosophe Francis Bacon1 par
exemple. Pour lui comme pour d’autres, cette idée est
tout de suite corrélée avec « la nécessité de planifier
le progrès continuel pour œuvrer ainsi au bonheur de
tous en libérant l’homme de son état. »2 L’accès à la
connaissance est ainsi dès son origine vue comme un
moyen de faire à la fois progresser chaque individu et
la société entière grâce à une « illumination générale
des esprits ».
Pour comprendre la naissance de cette idée nouvelle, il faut se pencher sur le développement de la rationalisation de la pensée. Pour le sociologue Armand
Mattelard, cette idée est directement liée à l’émergence
au XVIIe siècle d’une conception des mathématiques
1. BACON F. (1996), A Critical Edition of the Major Works,
Oxford University Press, p. 232.
2. MATTELARD A. (2001), Histoire de la société de l’information, Paris, La Découverte, coll. « Repères », p. 7.
18
comme modèle « du raisonnement et de l’action
utile »3; une discipline qui introduit la quête de perfectionnement du monde. Le progrès de la société, le bienêtre et la liberté de chacun deviennent un vrai sujet
de travail pour les hommes d’état et les intellectuels.
L’accès à l’information appuie ainsi les idées d’universalisme et d’égalité citoyenne sous-tendant la révolution
française. Elle est également au coeur du projet démocratique alors envisagé.
Parallèlement à cette utopie politique, on perçoit
à cette époque une prise de conscience de l’importance des instruments du savoir : la langue, l’écriture
et l’imprimerie. Pour que l’accès à la connaissance se
démocratise, il faut que chacun puisse parler un langage commun. La révolution et les régimes politiques
successifs mettent en place de nombreuses réformes.
La langue et l’écriture doivent être normalisées : on
supprime les patois et on définit des normes grammaticales4. L’alphabétisation des populations est quant à elle
encouragée dans tous les pays occidentaux. En France,
l’enseignement des enfants, décrété gratuit, se généralise progressivement avant de devenir obligatoire à la
fin du XIXe siècle.
C’est également au XIXe siècle que se développent
progressivement les bibliothèques publiques modernes5.
Parmi ce mouvement de diffusion des savoirs, l’oeuvre
3. Ibid., p. 5.
4. Ibid., p. 14.
5. TARDIF V. (2011), La bibliothèque et ses métamorphoses,
mémoire de philosophie en DSAA dpm, Paris, École Boulle.
19
de Paul Otlet constitue un excellent exemple. Il a mis en
pratique le prolongement des utopies encyclopédiques
en tentant de collecter l’ensemble des informations du
monde dans un Mundaneum accessible à tous. Pour lui,
l’accès de tous à la connaissance est la condition d’un
monde en paix. Dans ses écrits, il préfigure même le
Web en tant que « réseau nerveux, reliant tous les travailleurs intellectuels du monde à travers un intérêt et
un mode d’expression commun vers une unité coopérante de plus en plus consciente »6.
Les technologies de l’information et de la communication
au service de la démocratie (1794-1925)
À
cette même époque émerge également la prise
de conscience de l’importance des moyens de communication des idées. Posséder des connaissances et
parler le langage commun ne suffisent pas. Pour que
le pouvoir puisse être donné au peuple par le vote, il
faut que celui-ci puisse prendre part à la vie de la cité.
Jusqu’alors, l’idée de démocratie se heurtait à une impossible délibération publique. Platon ne définissait-il
pas l’optimum de population d’une cité par le nombre
des citoyens qui peuvent entendre la voix d’un seul orateur ?7 Mais pour le philosophe des techniques Lewis
Mumford les technologies de l’information et de communication comme le télégraphe naissant au début du
6. OTLET P. (1934), Traité de documentation.
7. MATTELARD A., op. cit., p. 28.
20
XIXe siècle sont les éléments d’une unité politique qui
se rapproche presque « de celle des plus petites cités de
l’Attique jadis »8.
En août 1794, le ministère de la Guerre inaugure
la première ligne de télégraphe optique (Paris-Lille).
On peut là remarquer le paradoxe ironique entre
l’aspiration à la démocratie que ces outils suscitent et
l’origine militaire qui prévaut dans leur mise en place.
Une double identité que l’on retrouvera également
lors de l’invention d’Internet. De même l’idée que les
technologies de l’information et de la communication
œuvrent pour la promesse de la concorde universelle
n’est pour Armand Mattelard pas nouvelle. Elle est
utilisée à chaque génération technologique. Mais cette
idée permet d’accélérer l’expansion du télégraphe sur
l’ensemble du territoire. L’économiste Michel Chevalier
explique ainsi en 1837 :
« Améliorer les communications, c’est travailler à la liberté réelle, positive et pratique ; c’est
faire participer tous les membres de la famille
humaine à la faculté de parcourir et d’exploiter
le globe qui lui a été donné en patrimoine […].
C’est faire de l’égalité et de la démocratie »9.
Pourtant la technologie ayant véritablement accompagné l’établissement de la démocratie n’est pas celle8. MUMFORD L. (1934), Technique et civilisation, Seuil, Paris,
p. 219.
9. CHEVALIER M. (1837), Lettres sur l’Amérique du Nord,
Librairie C. Gosselin, Paris.
21
là; il s’agit pour l’historienne et sociologue Delphine
Gardey de la sténographie. Elle montre que cet art
d’écrire aussi vite que l’on parle a véritablement participé à la constitution de la démocratie, en établissant
un lien direct entre les débats menés à l’assemblée et les
citoyens. A l’époque, la sténographie a tout d’abord été
utilisée par la presse naissante pour faire des comptesrendus judiciaires dès le début du XIXe siècle10. Le
sténographe et le journaliste n’étant alors qu’une seule
et même personne. Rapidement, le compte-rendu et la
« publicité » des débats de l’assemblée est également
permise grâce à la sténographie, malgré le manque de
liberté de la presse. Pour l’historienne, la liberté laissée aux sténographes de prendre en note les débats est
un indice du libéralisme d’un régime et « témoigne du
degré d’approfondissement démocratique auquel il est
parvenu »11.
L’éthique du journalisme :
informer, un enjeu politique (1900-1950)
À
cette époque, ce n’est donc pas tant la participation directe du citoyen qui est mise en place mais son
information au travers la publicité de la vie parlementaire et des débats politiques. Elle est une condition nécessaire pour l’établissement d’une démocratie représentative et d’un droit de vote progressivement étendu.
10. GARDEY D. (2008), Écrire, calculer, classer, La Découverte,
p. 42.
11. Ibid., p. 44.
22
Celle-ci se fait au travers d’un corps de métier
émergent : les journalistes. La liberté de la presse, progressivement acquise dans les pays occidentaux permet
une politisation et une plus grande liberté de ton de
ces mêmes journaux. Alors que les titres de presse se
multiplient au début du XXe siècle et façonnent le paysage médiatique de l’époque, l’influence des médias sur
l’opinion est encore peu perçue. Pourtant, en 1940 le
film Citizen Kane de Orson Wells, largement inspiré
par le magna de la presse William Randolph Hearst,
montre que l’information est une vrai source de pouvoir, dangereuse lorsqu’elle est utilisée ainsi. Hearst
fut entre autres à l’origine du « yellow journalisme »
dans les années 20 : des histoires sensationnalistes à la
véracité discutable. Il utilisa également ses journaux
pour exercer une influence politique très forte. Ces premières dérives de la presse mettent progressivement à
jour l’importance d’une éthique du journalisme pour
une information objective du public.
Dans les années 1920, la crise qui secoue les démocraties de l’ouest est aussi une crise du journalisme.
Le célèbre journaliste américain Walter Lippmann
explique en 1925 que la foule des citoyens peut être trop
aisément manipulée par la presse dont elle ne peut pas
comprendre les ressorts. Or pour lui liberté et information sont très étroitement liées :
« La liberté ne doit ne plus être vue comme
ce qui est permis ou interdit. La liberté est le
nom d’un processus, celui donné aux mesures
qui protègent et augmentent la véracité des in23
formations sur lesquelles nous nous basons pour
agir. La liberté est la construction d’un système
d’informations de plus en plus indépendant de
l’opinion. »12
John Dewey, philosophe de l’éducation et de la
démocratie, partage le même constat. Mais les deux
hommes n’ont pas le même avis quant à la manière de
résoudre ce problème. Lippmann propose de dépasser
la démocratie et de faire confiance aux experts bien informés pour diriger le pays. Dewey, au contraire, pense
que la démocratie est le bon système politique mais
qu’il faut renforcer l’implication des citoyens. Comme
les institutions lui sont fermées, la communication13 est
primordiale. Pour lui, le rôle de la presse est de rendre
transparentes les institutions afin de mobiliser les individus sur les différents enjeux de la politique de leur
pays. La formation d’une opinion publique éclairée est
pour cela essentielle.
12. LIPPMANN W. (1920), Liberty and the news.
13. PARISER E. (2011), The filter bubble, Penguin Books, p.58.
24
25
II
« Information wants to be free »,
le partage des connaissances comme
liberté individuelle
« Le partage de l’information est un bien
puissant; et il est un devoir éthique des hackers de partager leur expertise en écrivant des
logiciels libres et en facilitant autant que possible l’accès à l’information et aux ressources
informatiques »
–The Jargon file version 4.4.8,
fichier maintenu par Eric Raymond
D
ans un premier temps, l’accès à l’information
a été pensé comme une liberté citoyenne, nécessaire
au fonctionnement d’un régime démocratique. Mais
jusqu’au milieu du XXe siècle, l’accès à ces connaissances se fait toujours à sens unique, à travers un
intermédiaire filtrant : les médias. De même, le type
d’informations est restreint à celui développé par la
presse (géopolitique, judiciaire, sportive...). A l’inverse,
les connaissances dans le domaine des idées, des techniques et de la science sont soumises à un très strict
contrôle grâce au très large développement législatif de
la propriété intellectuelle et industrielle.
26
L’invention et le développement rapide de l’informatique dans les années 40 et 50 bouleversent ce
paradigme.
Le code source, entre partage communautaire
et propriété intellectuelle
L
’informatique, quant à elle, se développe parallèlement au sein des universités américaines et dans
les grandes firmes comme IBM ou Sun microsystems.
C’est aussi à cette époque que se crée un véritable écosystème hacker, notamment au MIT. Au sens premier
du terme, les hackers sont des passionnés, la programmation est pour eux un véritable jeu, ils y consacrent
toutes leurs nuits. Un « hack » désigne « une combinaison ingénieuse, une invention à laquelle personne
n’avait encore songé, que personne ne croyait possible
avec les moyens du bord, un raccourci qui permettrait
de faire plus rapidement, plus élégamment. »14
Pour eux, la communauté et le partage des informations à l’intérieur de cette communauté sont primordiaux. Les programmes sont encore très peu nombreux et sont échangés de main à main, constamment
corrigés, enrichis et partagés par d’autres hackers, sans
véritable préoccupation quant à la propriété de ces
« textes ». C’est ce libre échange des informations et
des connaissances qui fonde le lien de la communauté
et permet une profusion des avancées technologiques.
14. TRICLOT M. (2011), Philosophie des jeux vidéos, p. 104.
27
Dans les années 70, il existe ainsi un immense fossé
entre la machine (le hardware) extrêmement chère
et le logiciel (software) à la fois libre et gratuit. Les
fabricants fournissant le matériel tandis que le développement des programmes reste à la charge de l’utilisateur. Mais pour le fondateur de Microsoft, le jeune
Bill Gates, cette différence est inconcevable. En 1976,
dans une célèbre lettre ouverte aux membres amateurs
du Hembrew Computer Club, il argumente en faveur
d’un modèle propriétaire du logiciel15 afin que les développeurs puissent être rémunérés pour leur travail. Il
adosse pour la première fois à la propriété intellectuelle
le code source des programmes. Progressivement, avec
le développement du marché du logiciel, les codes
sources sont fermés; et même cachés, tandis que l’interdiction de partager les programmes se répand. Pour
les hackers du MIT la fermeture par les entreprises de
leurs logiciels est un véritable non-sens contre-productif
qui détruit les communautés et l’intelligence collective
permises par le libre partage des informations. Avec la
confiscation de l’information, il devient impossible de
modifier et d’améliorer un programme, même si cela se
fait au bénéfice de tous.
15. GATES B. (1976), Open letter to the obbyists of the homebrew computer club.
28
« Information wants to be free »16 ,
la naissance du mouvement du logiciel libre
« La Californie est l’endroit où il faut être
pour se battre en première ligne pour la plus
politiquement incorrecte des idées : la liberté
individuelle »
–documentaire Révolution OS (00 :01 :32)
P
armi ces hackers révoltés, Richard Stallman est
particulièrement écœuré par l’installation nouvelle
de mots de passe pour accéder aux ordinateurs. Il
considère qu’il s’agit là d’une atteinte à la liberté individuelle et un moyen de contrôle des hackers par les
administrateurs du système. Suite à cette expérience, il
décide de fonder la Free Software Foundation. Le mot
« free » étant utilisé dans le sens de liberté d’expression
ou d’action plus que de gratuité. Stallman considère
que l’information, c’est à dire à la fois le code source et
toutes les connaissances permettant de l’améliorer sont
la véritable source de pouvoir pour les hackers. C’est
pour cela qu’elle doit être libre. A l’inverse, les systèmes
propriétaires essayent de restreindre la liberté, de dominer et de contrôler les utilisateurs de leurs programmes.
Les idéaux du mouvement du logiciel libre ne sont pas
16. BRAND S. (1984), Whole Earth Review, p. 49.
29
éloignés du mouvement libertaire des hippies qui souhaitent transformer la société par le bas en se changeant
eux-mêmes, plutôt que la société dans son ensemble.17
Pourtant, l’idée que les connaissances doivent être
partageables et non pas soumises à la propriété industrielle n’est pas nouvelle, elle n’est pas née avec l’informatique. L’auteur de la déclaration d’indépendance des
Etats-Unis, Thomas Jefferson explique déjà en 1813
que :
« La propriété stable est le don des lois sociales et est arrivée tard dans la progression des
sociétés. Il serait alors curieux qu’une idée, la
fugitive fermentation d’un cerveau individuel,
puisse être réclamée d’une stable et exclusive
propriété de droit naturel. [...] Cette idée devrait
se répandre d’une personne à l’autre tout autour
du globe, pour la morale et mutuelle instruction
de l’homme et l’amélioration de sa condition »18
–Thomas Jefferson (1813)
Mais la remise en cause de la propriété exclusive des
informations est enfin réalisée de manière radicale par
le développement des logiciels libres. Comme le suggère le chercheur en sciences de l’information et de la
17. CARDON D., op. cit., p. 177.
18. JEFFERSON T. (1905), From The Writings of Thomas
Jefferson, Thomas Jefferson Memorial Association.
30
communication Serge Proulx, avec l’informatique, c’est
une nouvelle liberté paradigmatique qui voit le jour.
Car pour lui, les actions des pionniers du logiciel libre
vont bien au delà de la simple libération de l’information; elles réinterrogent la place des citoyens par rapport
aux deux grandes institutions qui régulent sa liberté :
le marché et le parlement19. Trois principes fondateurs
le permettent : « (a) les usagers du système sont considérés compétents pour le transformer à leur guise ;
(b) leurs contributions, comme celles des designers
patentés, doivent être transparentes et modulaires ; (c)
il existe un système de régulation de ce développement
souvent considéré à tort comme anarchique »20.
L’éthique hacker, expérimentation
d’une nouvelle liberté paradigmatique
C
es trois piliers fondent ce que le philosophe
finnois Pekka Himanen a nommé l’éthique Hacker.
Largement inspirée par ces pionniers du logiciel libre,
cette éthique n’a pris le temps de se formuler elle-même
qu’au début des années 2000, avec le recul des années.
Il s’agit avant tout d’une conception philosophique des
principes des hackers et de leur manière de s’auto-organiser pour concevoir des programmes extrêmement
complexes. Elle met en lumière la nouvelle liberté
pensée par Proulx sous plusieurs aspects. La première
19. PROULX S. (2002), La culture du hack en ligne, Les cahiers
du numérique n°3, éd. Lavoisier.
20. Ibid.
31
est l’établissement d’un système méritocratique : un
hacker doit être jugé sur sa production et non sur de
faux critères comme son âge, son sexe ou sa situation
sociale. Himanen fait le rapprochement avec la revue
par les pairs du monde académique. C’est cette organisation, sans hiérarchie autoritaire qui a été largement
décrite comme particulièrement efficace dans la production de nouveaux programmes ou services par le
théoricien des médias Clay Shirky 21. C’est également
la vision développée par Raymond dans son ouvrage
The cathedral and the bazar en 1997 qui décrit comment
une organisation décentralisée, un bazar, peut-être plus
efficace qu’une structure hiérarchique et autoritaire.
C’est la reconnaissance a priori du potentiel de chacun.
D’un point de vue théorique, on peut progressivement observer, grâce à l’activisme des hackers, le glissement d’une liberté très théorique à une « capacitation » des individus. L’accès à l’information est alors la
condition nécessaire à cette liberté effective, en permettant une indépendance par rapport au marché. Pour
Proulx, les hackers revendiquent un idéal de liberté
révolutionnaire, dans les termes mêmes de l’époque :
« La liberté ne doit pas être dans un livre, elle doit être
dans le peuple, et réduite en pratique. » (Saint-Just). »
Cependant, cette éthique et l’application concrète
de ses principes restent très localisées dans un premier
temps. Il faut également souligner que le monde des
21. SHIRKY C. (2012), « Comment Internet transformera un
jour le gouvernement », conférence prononcée à TED en juin
2012.
32
hackers est très uniforme, il s’agit majoritairement
d’hommes blancs, américains et issus de milieux sociaux favorisés.
Dans le même temps, le développement de l’informatique démocratique ne revêt pas la même aspiration libertaire. Malgré un discours publicitaire très
construit sur la démocratisation, Proulx montre que
c’est une liberté très limitée qui est proposée au grand
public. Comme il faut permettre un apprentissage
facile, l’attention des concepteurs se porte sur l’interface. C’est la naissance de la métaphore du bureau. Une
grande avancée pour l’accès de chacun à l’outil informatique grâce à la convivialité. Mais c’est une « convivialité qui rend simples un apprentissage et un usage
complexes »22. Pour le sociologue le sociologue Thierry
Bardini, il faut voir en effet la construction d’un usager
moyen par « la réduction systématique de l’apprentissage jusqu’à un plus petit commun dénominateur :
cliquer avec un doigt sur sa souris, taper sur un clavier
QWERTY, visualiser en deux dimensions sur un écran
de télé. »23. Un nivellement par le bas qui place l’utilisateur en position de simple exécuteur et non pas de
concepteur.
22. PROULX S., op. cit.
23. BARDINI T. (2000), « Les promesses de la révolution
virtuelle : genèse de l’informatique personnelle, 1968-1973 »,
Sociologie et Sociétés, XXXII.
33
III
Internet et le Web,
vers une vraie liberté de l’information
« Dans notre monde, tout ce que l’esprit
humain est capable de créer peut être reproduit
et diffusé à l’infini sans que cela ne coûte rien.
La transmission globale de la pensée n’a plus
besoin de vos usines pour s’accomplir. »
–John Perry Barlow (1996),
Déclaration d’indépendance du Cyberespace
L’internet,
le pouvoir de bout en bout
L
e développement du logiciel libre et la remise en
cause de la propriété intellectuelle grâce à l’ouverture
du code source ont marqué une nouvelle étape dans la
conception de l’information comme un bien commun.
Mais on l’a vu, cette épopée et ses principes ne touchent
alors qu’un très petit nombre de spécialistes tandis que
la micro-informatique personnelle ne permet pas au
grand public de s’approprier cette nouvelle liberté. Il
faut attendre le développement d’Internet pour vraiment voir ces idées toucher un plus large public et
s’affirmer d’avantage.
Sans s’étendre longuement sur la création d’Inter34
net, il faut tout de même rappeler qu’il s’agit d’un ensemble d’inventions à la fois militaires et universitaires
visant à permettre une communication décentralisée.
Les réseaux reliant plusieurs ordinateurs existaient déjà
et étaient largement utilisés dans les universités américaines par exemple24, mais ils restaient locaux, donc
très restreints. Internet, réseau des réseaux, permis la
connexion de ces différents nœuds et pris rapidement
son essor avec son ouverture au civil en 198325. Ce qui
fait la particularité technique d’Internet c’est son protocole. En effet, il repousse l’intelligence dans les deux
bouts de la communication : qu’ils soient serveur ou
simple ordinateur26. C’est une logique décentralisée qui
place sur un pied d’égalité tous les acteurs de ce réseau.
Personne ne peut se l’approprier ou même le contrôler,
a priori. C’est le principe de la neutralité du réseau. Il
est à l’opposé d’un système technique comme le minitel
par exemple. Chacun peut y diffuser ce qu’il veut et
c’est le succès auprès du public qui arbitre cette chaîne
de l’innovation.
On passe progressivement d’une conception de la
communication des connaissances à sens unique, des
médias aux individus, à un système où l’information
s’échange directement entre les individus. C’est la fin
de l’hégémonie des mass média décrit par Mc Luhan
en 1950. Pour Esther Dyson, pionnière d’Internet,
24. CERUZZI P. (2012), « Aux origines américaine de l’internet », Le Temps des Médias, nouveau monde édition, p.17.
25. Ibid., p. 19. 26. WOLTON D. (2011), La neutralité de l’internet, CNRS
éditions, p. 40.
35
« Internet prend le pouvoir au centre et le déplace
à la périphérie, il provoque l’érosion du pouvoir que
détiennent les institutions sur les individus et donne à
ces mêmes individus le pouvoir de gérer leurs propres
vies »27. Une liberté nouvelle qui touche de très nombreux domaines, que ce soit la liberté d’expression, la
capacité de diffusion ou bien la capacité d’entreprendre.
C’est également grâce à ce modèle technique très égalitaire que de simples étudiants comme Larry Page
et Mark Zukerberg ont pu créer des empires comme
Google et Facebook.
Comme le protocole TCP/IP, au fondement d’Internet, ne fonctionnait qu’avec un système d’exploitation Unix, les tenants du logiciel libre et les hackers
contribuèrent, avec des forums tels qu’Usenet à diffuser
leur éthique. Le succès d’Usenet tient notamment à sa
capacité de relier la sphère du travail et des loisirs avec
une très grande liberté d’expression.28 C’est le déploiement de l’éthique hacker à un plus large public. Ainsi,
« les réseaux de pair à pair, les premiers usages du wi-fi,
le développement des outils d’écriture coopérative sur
les blogs et les wikis n’ont pas été construits par des
équipes de recherche industrielle ou universitaire mais
par des usagers curieux et entreprenants »29. Depuis,
malgré un développement toujours plus important de
27. DYSON E. (2008), « does google violate its don’t be evil
moto ? », conférence prononcée à Intelligence Squared.
28. PALOQUE-BERGES P. (2012), « La mémoire culturelle
d’internet : le folklore de Usenet », Le Temps des Médias, nouveau monde édition, p. 113.
29. CARDON D., op. cit., p. 17.
36
la sphère marchande en ligne, l’une des grandes particularité d’Internet reste ses espaces non-marchands de
communication et de diffusion des connaissances entre
individus.
Le Web et l’hypertexte,
une redéfinition de la parole publique
L
’arrivée du Web et le développement de l’accès à
Internet comme produit de masse, au début des années
90, marquent une autre étape dans la fondation d’une
liberté étendue passant par l’information. Il s’agit pour
Cardon d’un élargissement considérable de l’espace
public et une démocratisation de la diffusion des idées
et des connaissances. En effet, comme l’ont montré de
nombreux critiques, l’espace public, à travers les médias
de masse, est particulièrement sélectif d’un point de
vue social, sexuel ou racial30.
Le World Wide Web, en revanche, est un système
horizontal de pages connectées entre elles par des hypertextes et accessibles via Internet. Ce système a été
conçu par Tim Berners Lee en 1989 au CERN. Pensé
d’abord comme un outil de communication interpersonnel et non comme un média, le Web est dès l’origine
utilisé comme un outil de publication personnel autant
que comme un outil de diffusion.
Internet et le Web ont comme mythe fondateur une
30. Ibid., p.25.
37
promesse d’exil et de dépaysement radical, grâce à la
multiplicité des publications accessibles en ligne. Le
cyberespace est un autre monde, déconnecté de la vie
réelle et qui mérite donc son indépendance. L’activiste
John Perry Barlow écrit alors une déclaration d’indépendance du cyberespace en 1996 : « Nous créons un
monde où chacun, où qu’il se trouve, peut exprimer
ses idées, aussi singulières qu’elles puissent être, sans
craindre d’être réduit au silence ou à une norme. »31.
Tous les centres d’intérêts ont leur place sur la toile.
Dans un premier temps, ce sont les pages Web et les
forums de discussion qui permettent ce foisonnement
d’idées. Cardon souligne également qu’on observe
« un détachement entre les personnes et leurs publications pour permettre une meilleur circulation de ces
connaissances »32. On se soucie moins de la surveillance
de ses écrits que de leur large diffusion. Mais ce qui est
accessible sur le Web, n’est pas forcément dans l’espace
public. C’est la conséquence directe de la dissolution
du monopole de la parole publique des médias traditionnels. Ils étaient les intermédiaires incontournables
dont le rôle était de rendre visible ce qu’ils considéraient
comme public. Or ce sont désormais les internautes
qui définissent eux-mêmes la frontière, souple et mouvante, du privé et du public. C’est le déplacement d’un
contrôle éditorial a priori vers un contrôle a postériori
qui constitue la nouvelle règle d’or. Sur internet une
31. BARLOW J.(1996), « Déclaration d’indépendance du cyberespace », [en ligne] URL. http ://editions-hache.com/essais/
barlow/barlow2.html
32. CARDON. D., op. cit., p.45.
38
très grande liberté d’expression est permise. Elle fait à
la fois la grandeur et la misère du Web mais offre à
chacun, pour la première fois, la possibilité de s’exprimer dans l’espace publique.
Le Web 2.0,
émergence de la figure de l’amateur
I
l ne faut cependant pas oublier qu’en France, en
2000, seul 14,4% de la population possède un accès à
Internet chez soi. 10 ans après, ce sont plus de 68% qui
en sont équipés33. C’est donc seulement à ce moment
que s’effectue véritablement la démocratisation de l’accès à Internet. Avec l’arrivée de nouveaux usagers issus
de milieux sociaux moins favorisés, internet change
progressivement de visage. Les usages se modifient et
s’emmêlent avec la vraie vie, les technologies évoluent
vers plus d’interactivité. C’est une nouvelle ère, celle
des réseaux sociaux, tendance souvent décrite comme
le Web 2.034.
À l’utopie du village global succède la vision des
réseaux sociaux comme « territoires plutôt que comme
bibliothèques »35. Le Web social propose une autre
forme d’organisation de l’information. Au lieu de
33. chiffres de l’Union Internationale des Télécommunications.
34. GUILLAUD H.(2005), « Qu’est ce que le web 2.0 ? »,
[en ligne] URL. http://www.internetactu.net/2005/09/29/
quest-ce-que-le-web-20/
35. CARDON D., op. cit., p.70.
39
n’avoir qu’une fenêtre de départ, le moteur de recherche,
l’écosystème informationnel se constitue en partie via le
réseau social de l’individu. Ces outils autorisent de plus
nombreux niveaux de participation, ce qui permet à de
nouveaux types d’utilisateurs d’intervenir. Le retweet
est l’emblème de cet engagement minimal permis par
les réseaux sociaux. Les rôles traditionnels de producteur et de consommateur, de concepteur et d’usager
s’estompent encore d’avantage et se confondent dans
des nuances diverses et assumées par les individus.
C’est la réapparition de la figure de l’amateur.
Longtemps dénigré, n’ayant pas accès à l’espace public,
il retrouve de nouvelles lettres de noblesse grâce à
Internet. L’exemple de Wikipédia est particulièrement
parlant de ce point de vue. Entièrement autogéré et
nourri par des contributeurs anonymes, il s’agit aujourd’hui de l’outil de diffusion des connaissances le
plus largement consulté36. Pour le philosophe Bernard
Stiegler, c’est le désir de création et de construction
des individus qui est enfin rendu possible. Les amateurs participent à la transformation de la société par
elle-même37.
L’impact politique d’internet peut aussi participer à
la vie démocratique en tant que plate-forme de communication et espace d’expression. L’actualité récente des
36. Il est le 7ème site internet le plus consulté en France selon
Alexa Internet.
37. STIEGLER B. (2012), « Figure de l’amateur et innovation
ascendante », conférence prononcée dans le cadre du colloque
organisé par Vivagora le 18 mars 2008.
40
révolutions arabes est couramment citée en exemple.
Après la suppression des réseaux de téléphonie mobile
et la surveillance généralisée des moyens de communication, Internet s’est révélé un moyen efficace de
mobilisation sociale, de communication entre les protagonistes; et un facteur de diffusion de l’information à
l’international38. Si on ne peut réduire ces soulèvements
à la question d’Internet, cet exemple met néanmoins en
évidence l’importance de la neutralité des réseaux et de
l’égalité de tous dans la diffusion des informations.
En résumé, l’évolution des technologies de l’information et de la communication ont permis et accompagné un développement exponentiel du partage et de
l’accès à l’information. Historiquement, les pratiques se
sont progressivement étoffées, de la publicité des débats
parlementaires au XIX e siècle à l’émergence de la
figure de l’amateur-contributeur aujourd’hui. De part
leur structure, les nouvelles technologies de l’information et de la communication ont le potentiel de favoriser, étendre et soutenir des libertés individuelles et
collectives nouvelles. Il se dégage alors un espace public
élargi dans lequel la figure de l’amateur joue le rôle
d’un citoyen plus autonome et dont les libertés d’agir,
de penser et d’expérimenter ont été étendues. On l’a vu,
de nombreux exemples attestent déjà de cette capacité.
Aujourd’hui, cependant, les obstacles à une réalisation
universelle de ces nouvelles libertés restent nombreux et
de natures très diverses.
38. GONZALES-QUIJANO Y. (2011), Les «origines culturelles numériques» des révolutions arabes, [en ligne] URL. http://
halshs.archives-ouvertes.fr/halshs-00615005
41
42
Chapitre 2
Les tensions émergentes
d’un nouveau rapport
à l’information
43
I
Trop d’informations tuent l’information :
les tensions systémiques
S
i le potentiel libérateur des technologies est réel,
leur application concrète est loin d’être assurée. Ces
technologies et les effets qui leur sont liés possèdent
également des limites intrinsèques qui tendent à modifier les comportements vis à vis des différentes informations. La première de ses limites, la plus évidente,
est le nombre des informations accessibles en ligne. Un
nombre tel qu’on parle aujourd’hui de flux d’informations continu, renforcant l’image d’un ensemble
toujours en mouvement. Quelques chiffres mettent en
lumière l’incroyable profusion des contenus disponibles
sur le Web. Aujourd’hui par exemple, Youtube affirme
que ce ne sont pas moins de 48h de vidéo qui sont ajoutés chaque minute sur sa plate-forme1, soit presque huit
ans de contenu ajouté chaque jour. A l’autre bout de la
chaine aussi les chiffres sont impressionnants. En 2008,
les Américains ont englouti, tous médias confondus,
quelques 3,6 milliards de teraoctets d’informations en
2008, soit 11,8 heures d’informations par jour et par
personne (contre 7,4 heures en 1980)2.
1. cf. http ://www.youtube.com/t/faq
2. BOHN R. (2009), « How Much Information ? 2009 »,
[en ligne] URL. http://hmi.ucsd.edu/pdf/HMI_2009_
ConsumerReport_Dec9_2009.pdf
44
Une surcharge informationelle
qui paralyse
I
l est facile de postuler l’idée d’une causalité directe
entre l’augmentation exponentielle du nombre des ressources disponibles en ligne et une maximisation de la
liberté individuelle. Le psychologue Barry Schwartz3
montre en effet qu’il existe un dogme profondément
ancré dans les sociétés occidentales : celui du choix.
Pour améliorer le bien-être des individus il faut maximiser leur liberté individuelle. Et la meilleure façon de
le faire serait de maximiser les choix. Cependant, pour
le psychologue les choses sont loin d’être aussi simples.
Plus nous avons de possibilités, plus celles-ci nous paralysent, au lieu de nous libérer. C’est le paradoxe du
choix. En effet, faire un choix, aussi insignifiant soit-il,
représente un grand coût cognitif pour un individu.
Or notre attention est limitée et le nombre des informations accessibles croît chaque jour. Ce trop-plein de
possibilités tend paradoxalement à nous immobiliser.
Et, pire que cela, elles tendent à provoquer de l’insatisfaction une fois que l’on a finalement fait un choix.
Difficile de ne pas imaginer que l’article que l’on a
délaissé était finalement bien plus intéressant que celui
qu’on vient de parcourir...
D’ailleurs, en matière d’informations les chiffres
3. SCHWARTZ B. (2005), « Le paradoxe du choix », conférence prononcée à TED en juillet 2005.
45
sont éloquents : une étude menée en 2010 par Infolab4
révèle que « 76% des français se sentent submergés par
l’information ». Celle-ci est pourtant perçue comme
un besoin immédiat et permanent. Le paradoxe de
cette instantanéité à la fois désirée et subie provoque
un sentiment d’accélération sans fin du flux d’informations et donne l’impression d’un manque de contrôle
très angoissant. L’idée d’un flux toujours plus important participe d’une impression d’accélération que le
sociologue Hartmut Rosa esquisse comme particulièrement frustrante et éprouvante pour les individus5.
Il semble ainsi que rendre accessible une très grande
masse d’informations ne soit pas automatiquement
libérateur pour l’individu, au contraire.
La surcharge informationelle ambiante
comme cercle vicieux
Pourtant, il semble que cette masse d’informations
du Web, sans commune mesure avec les siècles précédents, ne puisse pas être si facilement incriminée. En
fait, « La surcharge informationnelle ne date pas d’au-
4. étude de l’express réalisée en 2011, [en ligne] URL. http ://
fr.slideshare.net/ers/etude-sur-les-tendances-de-consommation-des-franais-par-lexpress-infolab
5. ROSA H. (2010), Accélération, une critique sociale du temps,
La Découverte.
46
jourd’hui », rappelle la chercheuse Anaïs Saint-Jude6.
Ce sentiment de dépassement, de surcharge se retrouve
à toutes les époques de l’humanité, de la Grèce Antique
à aujourd’hui. Chaque époque la ressent comme
quelque chose de nouveau, les exemples ne manquent
pas : « Pour Sénèque, l’abondance de livres est une distraction. Descartes, dans Recherche de la vérité par la
lumière naturelle, explique qu’on passe plus de temps à
choisir les livres qu’à les trouver... »7.
Il semblerait qu’il existe en fait plusieurs surcharges
informationelles. Le blogueur Nicholas Carr explique
ainsi qu’il y en a deux types distincts : une « surcharge
conjoncturelle » et une « surcharge ambiante »8. Pour
lui, les raisons de la surcharge conjoncturelle ont trait
à un trop plein de bruit : multiplication des accès à
l’information non pertinente, informations contradictoires, flots continus de messages. Mais le problème
n’est pas le bruit excessif, les filtres naturels de notre
attention nous en préservent. Pour lui, le vrai sujet
concerne la « surcharge ambiante », c’est à dire le fait
d’être entouré d’informations qui sont d’un intérêt immédiat pour nous. Dans cette « ambiance », sous couvert de pertinence, nous serions rentrés dans un cercle
6. GUILLAUD H. (2012), « Notre surcharge informationnelle
en perspective »,
[en ligne] URL. http://www.internetactu.net/2012/02/29/
lift12-notre-surcharge-informationnelle-en-perspective/
7. Ibid.
8. CARR N. (2011), « Situational overload and ambient overload », blog de Nicholas CARR, [en ligne] URL. http://www.
roughtype.com/ ?p=1464
47
vicieux : ouverture de nouveaux onglets finalement
jamais explorés, lecture en biais de tous les hypertextes
des articles que nous apprécions au lieu de n’en choisir
qu’un, etc. En fait, au lieu de construire notre rapport
à l’information et au monde, nous courons sans cesse
après le flux continu des informations sans pouvoir en
retenir.
La hiérarchisation de l’information,
une organisation qui reproduit les inégalités
L
’une des raisons de cette surcharge est le manque
apparent de hiérarchisation de l’information sur le
Web. L’hyperlien, véritable moteur du Web a contribué
à véhiculer l’image d’un réseau parfaitement horizontal dans lequel chacun pourrait librement avoir accès
à tous les nœuds de la toile. Si l’on vient de voir que
cette utopie est loin d’être réalisable à cause de nos biais
psychologiques, d’autres facteurs entrent également en
jeu. Comme le souligne le sociologue Domique Cardon
la hiérarchisation des informations n’est plus faite avant
la publication mais après. « D’ailleurs, ce n’est pas parce
que la hiérarchisation préalable de l’information s’est
déplacée qu’on a fait disparaître toute hiérarchie »9.
Elle n’est plus réalisée par une autorité spécialisée
mais collectivement par les internautes et les algorithmes. Ce nouvel agencement est bien évidemment
9. CARDON D. (2012), « Pourquoi l’internet n’a t-il pas
changé la politique ? », interview avec InternetActu.
48
potentiellement libérateur; mais le chercheur souligne
que les inégalités sociales et culturelles se distribuent
désormais à l’intérieur des pratiques en ligne. Si l’on ne
prête attention qu’au sommet de la hiérarchisation de
l’information sur internet, on remarque que l’agenda
d’internet ne présente que des différences mineures
avec les médias traditionnels. L’Internet participatif ne
fait alors que reproduire les critères de légitimité des
médias10. La fracture n’est plus entre ceux qui ont un
accès et ceux qui ne l’ont pas, mais dans les usages que
les gens font d’internet… Le chercheur en sciences
de l’information et de la communication Dominique
Wolton souligne cet effet lui aussi :
« La complexité des rapports entre information, culture, représentation, idéologie réapparaît dès lors que les informations sont nombreuses. Le volume d’informations et la liberté
d’accès ne créent pas forcément plus de rationalité dans le comportement du récepteur »11.
Le progrès technique, le potentiel d’une technologie
n’entraînent pas mécaniquement un accès plus facile
au savoir, comme le soulignaient déjà en 1985 Michel
Grumbach et Jean-Claude Passeron, « Aucune innovation technologique n’a jamais eu raison, par la seule
grâce du médium, des inégalités culturelles produites
et reproduites par le jeu bien rodé des structures et des
10. CARDON D., op. cit., p. 96.
11. WOLTON D.(2004), « Information et Communication,
dix chantiers scientifiques, culturels et politique », Hermes.
49
hiérarchies sociales »12.
C’est ce qui pousse le journaliste et philosophe
japonais Tatsuru Uchida13 à poser la problématique
de ceux qu’il appelle les réfugiés de l’information. Un
problème qui vient de la capacité à savoir sélectionner
les sources. Pour lui, « sur Internet, les informations de
bonne qualité ont tendance à être concentrées sur les
sites fréquentés par les "internautes qui émettent ces
informations" et les "individus capables d’en estimer la
valeur" »14 En revanche, « l’information de caniveau »
a tendance à être concentrée sur les sites fréquentés par
les internautes qui ne peuvent pas juger de la qualité de
l’information. Ces derniers, les réfugiés de l’information,
se caractérisent par une tendance à souscrire à des analyses simplistes comme, par exemple, des théories du
complot : interprétations du monde qui nécessitent peu
de réflexion.
Ainsi ce sont de nouvelles tensions qui apparaissent
à l’ère du Web et de l’information « accessible ». Malgré
son potentiel libérateur, cette masse de contenus disponibles tend à devenir aliénante plus qu’émancipatrice.
De même, avoir l’accès à l’information ne signifie pas
pour autant que chacun puisse en profiter, car les inégalités se répercutent à l’intérieur des pratiques en ligne.
12. GRUMBACH D., PASSERON J-C. (1985), L’Œil à la
page : enquête sur les images et les bibliothèques, Bibliothèque
Publique d’Information.
13. UCHIDA T. (2011), « Sauvons les réfugiés de l’information ! », Courrier International, n°1092, 6 Octobre 2011.
14. Ibid.
50
51
II
La “filter bubble”
ou les algorithmes qui enferment
« Alors que le pouvoir se déplace vers les
individus, au sens où nous avons infiniment
plus de choix dans les médias que nous consommons, le pouvoir n’est toujours pas au mains des
individus. »
–Eli PARISER, 2011
The Filter Bubble, p.61
La révolution de la personnalisation,
ou comment les algorithmes nous façonnent
A
ux biais « humains » que l’on vient d’évoquer il
faut rajouter ceux des technologies que nous utilisons
tous les jours. L’avènement d’internet a vu naître le
mythe, relayé notamment par le critique du N-Y Times
Jon Parel15, d’une suppression des intermédiaires entre
les connaissances et les individus. L’entrepreneur philanthrope du Web Eli Pariser prend le contre-pied de
ce qu’il considère comme une illusion. Il montre ainsi
15. PAREL J. (2009), « a world of megabeats and megabytes »,
New york Times, 30 décembre 2009, [en ligne] URL. www.
nytimes/2010/01/03/arts/music/03tech.html
52
que les intermédiaires sont toujours bien présents; et
d’autant plus puissants qu’ils deviennent invisibles16.
C’est ce qui a conduit le juriste Lawrence Lessig à
écrire « code is law »17. D’après lui le choix des infrastructures sont plus contraignants pour les utilisateurs
que les lois elles-mêmes. De la conception même de nos
outils dépend en grande partie notre liberté. Et cela se
traduit évidemment dans notre accès à l’information
car ce ne sont plus seulement les journalistes, les éditeurs ou même les amis qui sélectionnent ce que nous
verrons ou lirons mais les applications (Facebook...) ou
les algorithmes (Google) que nous utilisons...
Eli Pariser montre ainsi comment les algorithmes
de personnalisation ont pris le pouvoir dans notre
rapport à la connaissance. Ils sont devenus les intermédiaires entre l’immense base de données qu’est le Web
et nous. Pour Google, cela s’est produit en décembre
2009. Peu s’en sont alors rendus compte mais le moteur
de recherche a commencé à personnaliser ses résultats. Depuis cette date, pour une même requête, deux
personnes peuvent obtenir des résultats complètement
différents. Ces résultats étant sélectionnés par Google
comme les plus pertinent pour vous; et vous uniquement. Or cette personnalisation pose de nombreuses
questions sur la façon dont elle joue avec la liberté individuelle. Peut-on parler de choix lorsque les choix sont
faits pour nous ?
16. PARISER E., op. cit., p. 60.
17. LESSIG L. (2006), Code : Version 2.0, [en ligne] URL.
http ://codev2.cc/
53
Pendant des siècles, explique l’essayiste Frank
Shirrmacher18, ce qui était important pour nous était
décidé par notre cerveau : désormais, il sera décidé
ailleurs : « par nos objets, par le réseau, par le nuage
d’informations dont nous dépendons. ». Nous sommes
alors forcés de faire confiance aux entreprises qui prétendent exprimer et synthétiser correctement ce que
nous voulons vraiment. Les algorithmes de personnalisation fonctionnent en trois étapes : ils supposent
qui nous sommes et ce que nous aimons à partir des
données récoltées. Ensuite, ils proposent les contenus
et services dont ils estiment qu’ils nous conviennent.
Enfin, ils ajustent en fonction de nos actions pour obtenir ce qui nous convient le mieux. Ainsi, notre identité
présumée façonne nos médias. Mais il y a un défaut
dans cette assertion. L’inverse est aussi vrai : les médias
façonnent également notre identité. En fait, ces algorithmes finissent par nous transformer.
Ce que vous voulez,
que vous le vouliez ou non
P
our tester cette hypothèse, de nombreux chercheurs ont mené des études sur la façon dont les informations auxquelles nous avons accès façonnent notre
perception du monde. Shanto Iyengar, chercheur en
18. SCHIRRMACHER F. (2009), « The age of informavore »,
[en ligne] URL.http ://www.edge.org/3rd_culture/schirrmacher09/schirrmacher09_index.html
54
sciences politiques a montré en 198219 que les informations auxquelles nous sommes le plus exposés prennent
plus d’importance que celles qui ne sont pas évoquées.
Dans le cadre de la bulle filtrante, cela revient à enfermer encore plus l’individu dans ses propres centres
d’intérêt en l’empêchant d’accéder facilement à d’autres
sujets qui lui sont moins familiers.
Ce principe renforce également un autre biais
cognitif connu, le biais du présent. Il s’agit de la différence qui existe entre les aspirations du moi futur et
celles du moi présent. Le sociologue Niklas Luhmann
a montré20 dès 1968 que nous donnons plus de valeur à
certaines activités ou informations mais qu’en pratique,
nous consacrons beaucoup plus de temps à des activités ou informations qu’on considère comme ayant peu
de valeur et dont on retire peu de satisfaction. Un des
exemples les plus simples étant celui d’un film, un classique du genre, qu’on repousse toujours au lendemain
au profit d’un simple film d’action sans envergure. Et
cette différence se retrouve alors dans les informations
que nous choisissons à travers nos clics et nos recherches.
Or ce sont ces actions qui alimentent en données les
algorithmes de personnalisation. En retour ceux-ci
tendent alors à renforcer encore plus ce biais naturel
en favorisant les contenus préférés par le moi présent et
donc en orientant toujours plus nos choix futurs.
19. IYENGAR S. (1982), « 
Experimental demonstrations
of the ‘not-so-minimal’ conséquences of television news »,
American Political review 76, n°4.
20. LUHMANN N. (1968), La rareté du temps, p.148.
55
Ainsi se crée un cercle vicieux qui n’incite pas l’individu à se rapprocher de ses aspirations. La chercheuse
Danah Boyd fait l’analogie entre l’information et la
nourriture. « si nous n’y prêtons pas attention, nous
risquons de développer l’équivalent psychologique de
l’obésité. Nous pourrions nous retrouver à consommer
les contenus qui sont les moins bénéfiques pour nous
ou pour la société dans son ensemble. »21
La fin de la sérendipité
I
l faut le reconnaître, ce processus existait déjà
avec les journaux et la télévision par les mécanismes
de l’audimat. Cependant, explique Eli Pariser, nous
pouvions être conscients de ces biais. En général, on
connaît la ligne éditoriale du quotidien que l’on achète
et l’on sait qu’il existe une ligne autre dans un quotidien concurrent. Le problème aujourd’hui, c’est que
la bulle filtrante est invisible et qu’on ne peut déjà plus
y échapper. Quand toutes nos requêtes sont filtrées à
travers le prisme de ce que nous connaissons déjà, il
devient alors facile d’oublier d’élargir ses perpectives.
Et c’est l’un des principaux problèmes soulevés par
ces algorithmes : le déclin de la sérendipité. La sérendipité est le fait de réaliser une découverte inattendue
21. BOYD D. (2009), conférence donnée en 2009 au Web 2.0
expo.
56
grâce au hasard22. C’est une notion très liée à l’activité
scientifique et déjà évoquée par Voltaire dans Zadig23.
Le Web et l’hypertexte ont démocratisé à la fois le
mot et le phénomène lui-même. L’hypertexte amène à
divaguer, à découvrir sans cesse de nouveaux horizons.
C’est l’un des apports du Web sur la liberté individuelle. En effet, dans son ouvrage Of sirens and amish
children, le théoricien de l’information Yochai Benkler
décrit comment des sources d’informations diversifiées
nous rendent plus libre. Pour être libre il ne faut pas
seulement pouvoir faire ce que l’on veut, il faut d’abord
savoir ce qu’il est possible de faire. En cela, l’état permanent d’exploration permis par l’hypertexte est un
excellent outil de la liberté.
Mais cet horizon des possibles est pourtant considérablement amaigri par la bulle filtrante qui s’en tient
–c’est sa raison d’être–, aux contenus déjà appréciés par
l’individu. Le théoricien des médias Steven Johnson
renchérit même en affirmant que la créativité naît de
la sérendipité, la rencontre impromptue avec de nouvelles idées ou points de vue. Il cite ainsi le Web comme
un terrain particulièrement fertile aux découvertes et
à la créativité qui en découle. Mais le fonctionnement
des algorithmes de personnalisation va à l’encontre de
l’idéal des pionniers du Web sur l’utilité de l’hypertexte. En sélectionnant ce qui se rapporte de près à ce
que l’on connaît et apprécie déjà, ils créent pour chaque
individu une belle cage dorée.
22. GINZBURG C. (1980), « Signes, traces, pistes – Racines
d’un paradigme de l’indice », Le Débat, n° 6.
23. définition de Wikipédia.fr.
57
III
L’âge de l’accès,
la liberté dans la dépendance.
Une redéfinition de la liberté
L
es algorithmes de personnalisation ne sont
pas les seuls à altérer notre liberté d’action en faisant
les choix à notre place. La présence d’intermédiaires
nouveaux ayant un impact direct sur la liberté individuelle est un phénomène également décortiqué par
l’économiste Jeremy Rifkin. Dans son ouvrage L’âge de
l’accès, il applique cette conception à la société entière.
Il postule l’avènement actuel d’un nouvel âge économique qui ne repose plus sur la propriété mais sur
l’accès. Aujourd’hui, on peut déjà en voir de nombreux
exemples. On ne possède plus sa bibliothèque Itunes©
ou ses livres sur Kindle©, on a seulement le droit d’y
accéder24.
Cette nouvelle conception économique va à l’encontre des idéaux de partage et libre accès à Internet
qui permettraient une démocratisation de l’espace publique. Cette nouvelle liberté tant vantée est aujourd’hui
largement remise en cause par la sphère marchande.
L’impitoyable guerre à la visibilité qui règne sur internet
24. UNTERSINGER M. (2012), « 
MP3, ebooks... on a
vérifié, ils ne vous appartiennent pas », [en ligne] URL.
ht t p : // w w w. r u e 8 9. c o m /r u e 8 9 - c u lt u r e / 2 01 2 / 0 9 / 2 6 /
mp3-ebooks-verifie-ils-ne-vous-appartiennent-pas-235508
58
favorise en effet les gros acteurs qui ont les moyens de
développer des stratégies de la visibilité25. L’idée même
de la propriété comme fondement du capitalisme est en
train de s’effacer au profit de l’accès. Avec la disparition
de l’idée de propriété, c’est aussi l’idée du copier-coller –je partage sans être dépossédée de mon contenu–
qui est aujourd’hui mise en danger. Car la logique de
l’accès renforce l’individualisation des connaissances
(je ne peux plus partager puisque je ne possède pas).
Elle suppose également des intermédiaires qui ne disparaissent pas une fois le contenu acquis. Amazon peut
et a déjà supprimé des livres dans ses « Kindles » même
après leur achat. L’entreprise reste ainsi propriétaire des
contenus auxquels elle donne accès, restreignant d’autant plus les libertés jusqu’alors acquises par l’acheteur.
Le droit de partager ou bien de revendre un bien ne lui
est plus acquis. Il s’agit là d’une restriction directe de
sa liberté.
Rifkin démontre en outre que la logique de l’accès
et l’enchaînement des expériences culturelles dispensées par les grands fournisseurs de contenu est symptomatique d’une marchandisation grandissante de la
vie des individus. Dans cette optique, l’information
n’est plus le moteur de la construction de soi mais une
suite de divertissements. Il y a une vraie tension entre
la fin de l’idée de propriété porteuse potentiellement de
liberté et la naissance d’une culture de l’accès qui marchandise l’existence en transformant la nature même
de la liberté. Il explique ainsi :
25. CARDON D., op. cit., p. 95.
59
« Dans une économie de prestataires et
d’usagers fonctionnant en réseau et où l’interdépendance est le principe structurant de toute
activité, la notion de liberté prend une toute
autre signification. Ce sont les droits d’accès et
d’inclusion plus que l’autonomie et la possession,
qui définissent fondamentalement la liberté. »26
On voit ainsi bien comment les nouveaux tenant
de l’économie de la connaissance et les outils qu’ils
mettent en place pourraient transformer de manière
importante notre liberté individuelle
Vers une nouvelle passivité
A
vec la logique de l’accès revient celle de la passivité. Bien loin de l’idéal libérateur d’un Web qui saurait
libérer et partager les informations, cette conception
naissante de la liberté renvoie l’individu au simple
statut de consommateur. Là où l’individu partait explorer et découvrir le Web; aujourd’hui, on recherche
des contenus déjà ciblés27. Il faut dire que les moteurs
de recherche sont devenus les portes d’entrée presque
automatiques du Web. C’est un changement de paradigme profond d’Internet. Cela permet de trouver plus
26. RIFKIN J. (2000), L’âge de l’accès, Paris, La Découverte,
p. 255.
27. BATTELLE J. (2005), The Search : how google and its rivals
rewrote the rules of business and transformed our culture, penguin
books.
60
efficacement ce que l’on cherche et c’est une bonne
chose. Mais cela place également les intermédiaires en
position de force et renvoie l’individu en position passive de simple « zappeur ».
Dominique Cardon pointe également un changement dans les critères de hiérarchisation de l’information. Les indicateurs d’audience sont devenus
omniprésents sur internet. Ils imposent le nombre de
« pages vues « comme critère principal du classement.
Or cette métrique ne suppose aucun acte de participation de l’internaute, elle enregistre simplement son
comportement. Pour le sociologue, « les pages vues ont
importé dans l’univers du Web la logique des audiences
de masse de la télévision.28 ». Sur les sites de partage
de vidéo comme Youtube ou Dailymotion, ce sont les
pages vues qui organisent et structurent la hiérarchie
des contenus, empêchant de diversifier les critères d’appréciation sur la qualité des contenus.
On peut également citer l’exemple du bouton facebook, particulièrement significatif de ce point de vue.
Au moment de sa création la question de son appellation s’est posée. Il aurait pu être nommé « ça m’intéresse » par exemple. Mais le fait que le « j’aime » ait
finalement été choisi est révélateur. En effet, on ne
donnera pas un « j’aime » aux mêmes contenus que
ceux auxquels on donne un « ça m’intéresse ». Dans
le premier cas, on favorise les informations simples,
heureuses et consensuelles quand dans le deuxième cas
on incite à une vraie prise de position et d’affirmation
28. CARDON D., op. cit., p. 96.
61
de soi-même. Encore une fois, c’est un autre niveau de
participation, bien moins exigeant qui est demandé à
l’individu.
Des outils qui renforcent nos biais
I
l existe un dernier type d’intermédiaires qui renforce notre dépendance : nos outils de gestion de l’information. En effet, au lieu de nous aider à limiter les
effets pervers du flux d’informations que nous devons
gérer chaque jour, les programmes que nous utilisons
renforcent nos biais cognitifs. Pour Danah Boyd, ethnologue à Microsoft : « La plupart de nos outils sont
conçus pour nous faire nous sentir coupables quand
nous avons laissé des choses “non lues” ».29 Il faut dire
que nos outils de base de traitement de l’information
sont restés les mêmes, ou presque, depuis qu’on les a inventés. En fait, on demande à nos pratiques de s’adapter
aux technologies et non l’inverse. Or cela renforce la
sensation de toujours courir après l’information. Le
journaliste Hubert Guillaud prend l’exemple du mail
pour illustrer à quel point nos outils renforcent l’aliéna-
29. BOYD D. (2012), « The Power of Fear in Networked
Publics », conférene prononcée au SXSW à Austin, Texas, en
mars 2010.
62
tion que le flux peut avoir30. En ne nous permettant pas
de reprendre conscience du mail auquel nous n’avons
pas répondu et qui sombre avec son étiquette colorée
au fond de la boite de réception, nos outils renforcent
notre sentiment de perte de contrôle.
Pour le pionnier d’ Internet, Douglas Rushkoff, la
situation actuelle peut être résumée par la maxime :
« programmer ou être programmé ». Au lieu d’enseigner la programmation, on enseigne des programmes
tous faits, ce qui place dès le début l’individu en position
de consommateur. Ainsi l’élève devient la partie mobile,
celle qui s’adapte tandis que le programme est la partie
immuable. Rushkoff affirme que cette dépendance est
au coeur des tensions du monde numérique. Il pointe
l’émergence d’une nouvelle classe de « scribes » : les
développeurs31. En effet, aujourd’hui, ce sont eux qui
possèdent la connaissance des outils et se placent ainsi
à l’interface entre le savoir et l’individu. Or « ce sont
des interfaces au travers duquel nous exprimons ce que
nous sommes et ce en quoi nous croyons »32. La responsabilité de ceux qui conçoivent nos outils est importante
mais peu en sont conscients.
En résumé, les tensions émergentes du nouveau
30. GUILLAUD H. (2012), « La capacité prédictive de nos
systèmes socio-techniques va-t-elle tuer notre libre arbitre ? »,
[en ligne] URL. http ://www.internetactu.net/2009/11/18/lacapacite-predictive-de-nos-systemes-socio-techniques-va-t-elletuer-notre-libre-arbitre/
31. RUSHKOFF D. (2011), Les 10 commandements de l’ère
numérique FYP éditions, p. 85.
32. Ibid.
63
rapport à l’information permis par Internet sont de
trois ordres. Le premier réside dans les biais humains
qui empêchent une véritable appropriation généralisée
des informations disponibles. Que ce soit par le développement d’une surcharge informationnelle ou bien
par la reproduction des inégalités dans les usages en
ligne. Le second biais se trouve du côté des algorithmes
conçus justement pour nous aider à contrer ces premiers biais : les algorithmes. On l’a vu, ceux-ci tendent
à créer une bulle filtrante qui enferme l’individu dans
son propre écosystème informationnel, déconnecté des
contenus qui lui sont moins familiers. Le troisième des
biais est celui qui naît dans les nouvelles pratiques économiques, une dépendance réaffirmée vis à vis des producteurs de contenus comme des outils utilisés pour les
gérer. Aujourd’hui, pour Pariser comme pour Rifkin,
deux voies très différentes s’offrent aujourd’hui à nous.
La première : l’information par et pour le peuple,
utopie d’une forme plus démocratique et participative de la connaissance qui a longtemps été acclamée
avec le développement du Web. Mais un autre futur
se dessine également : « la création d’un nouveau type
de troupeau grâce au profiling du marketing »33. Un
avenir dirigé par les programmes et algorithmes que
nous utilisons, un avenir qui renvoie au simple statut
de consommateur des individus soumis au flux des
informations.
33. STIEGLER B., op. cit.
64
65
66
Chapitre 3
Comment repenser
notre approche de l’information ?
67
I
nternet et le Web peuvent potentiellement élargir
la liberté d’agir et de penser. Celle-ci peut prendre plusieurs formes mais est généralement basée sur l’accès, le
partage ou la publication de la connaissance. Comment
faire de l’accès et du partage de l’information le véritable catalyseur de la liberté aujourd’hui ?
Les conditions nécessaires
pour le déploiement d’une nouvelle liberté
Avant même d’envisager notre rapport à l’infor-
mation comme facteur de liberté, encore faut-il pouvoir
en conserver le potentiel technique. En effet, Internet,
de part la très grande liberté d’expression et de diffusion des informations qu’il permet, voit son principe
de neutralité régulièrement remis en cause par les
fournisseurs d’accès et les législateurs. Issu de l’architecture d’internet, ce principe garantit l’égalité de traitement et la confidentialité de tous les flux de données ;
qu’il s’agisse de la simple page Web d’un amateur de
peinture ou de sites extrêmement puissants comme
Youtube. Comme le souligne D. Wolton, c’est bien
avant tout dans cette neutralité que réside le potentiel
libérateur d’Internet. Pour lui, il s’agit de « la prise en
compte de la société civile et des usagers, non seulement
comme des consommateurs des produits et services de
industrie de la connaissance et de la communication,
mais aussi comme producteur d’intelligence collective,
utilisant le réseau d’informations pour leurs activités
68
sociales, communicationnelles ou culturelles »1.
On peut voir dans le caractère partageable des
connaissances une seconde condition. En effet, la
connaissance est souvent considérée par les économistes
comme un bien public, c’est-à-dire « non-excluable (il
est difficile d’empêcher le savoir de circuler) et non-rival (ce que je sais ne prive personne du même savoir) »2.
Or, pour la théoricienne des biens communs et prix
nobel d’économie Elinor Ostrom, l’informatique crée
de nouvelles conditions d’appropriabilité privée. La
connaissance inscrite dans des documents numériques
peut ainsi se trouver empêchée de circuler; par l’installation de DRM3 sur les fichiers par exemple ou par
des systèmes d’accès exclusifs décrits par Rifkin. A
l’inverse de ces pratiques restrictives de la diffusion des
connaissances, on peut souligner des initiatives comme
le mouvement l’open access dans l’édition scientifique.
Il rend consultable par tous des très nombreuses publications scientifiques.
La préservation d’un réseau neutre et la libre circulation des connaissances sont donc deux conditions sine
qua non du développement des écosystèmes amateurs
au fondement de la liberté élargie que l’on a définie.
1. WOLTON D., op. cit., p. 145.
2. LE CROSNIER H. (2012), « Elinor Ostrom ou la réinvention des biens communs », [en ligne] URL. http://blog.mondediplo.net/2012-06-15-Elinor-Ostrom-ou-la-reinvention-desbiens-communs#nb15
3. Ces outils de Digital Rights Management (« gestion des
droits numériques ») interdisent par exemple de recopier ou de
partager un livre ou un film.
69
I
L’information
comme construction de soi
L’information comme matériau
de la création de sens
« La consommation [d’informations] ferait
figure d’activité moutonnière, progressivement
immobilisée et traitée grâce à la mobilité croissante des conquérants de l’espace que sont les
médias. Aux foules il resterait seulement la
liberté de brouter la ration de simulacres que le
système distribue à chacun. Voilà précisément
l’idée contre laquelle je m’élève [...]. »
−Michel de Certeau, 1980,
L’invention du quotidien : 1. arts de faire
C
es conditions ne sont cependant qu’un premier
pas. Quelles démarches peut-on entreprendre pour
profiter d’un rapport libérateur à l’information ?
Comment éviter les écueils qui aliènent, qu’ils soient
humains ou technologiques. Pour esquisser une réponse, il faut tenir compte du rapport ontologique, au
sens de Heidegger, que chacun entretient avec l’infor70
mation et la façon dont celle-ci nous façonne. Comment
les outils, prismes à travers lesquels les individus perçoivent l’information, influencent-ils leur façon de la
consommer ?
Du point de vue des industries médiatiques, l’information est traditionnellement un ensemble de données
distribuées unilatéralement à un public passif. Michel
de Certeau désigne cette vision d’un individu inactif
face au flux de l’information comme étant erronée. En
regard de l’analyse du philosophe Michel Foucault qui
décrit une société surveillée et contrôlée par le haut;
Michel de Certeau, lui, met l’accent sur les « ruses »
mises en place par les individus face aux industries
culturelles. Les pratiques actuelles, comme les innombrables détournements circulant sur le Web montrent
le rapport extrêmement actif et productif des individus
face aux contenus auxquels ils sont exposés. Chacun
construit son propre écosystème informationnel, produisant une activité d’interprétation des informations à
partir d’autres connaissances déjà emmagasinées et par
le biais de ses outils.
Pour comprendre ce processus, il faut approfondir l’analyse des termes information et connaissance.
L’étymologie d’information est « ce qui forme, ce
qui façonne l’esprit ». De l’information à la connaissance, il n’y a qu’un pas, un changement d’angle de
vue. L’information est le matériau de la création de
sens, c’est un élément indépendant. La connaissance
en revanche est construite, elle fait sens. De l’information en tant qu’ensemble des données véhiculées, on
71
aboutit à la connaissance comme création de sens par
l’individu. Dans tous les cas, c’est une démarche active
de la part de l’individu. Et il y a autant de nuances de
compréhension d’une information qu’il y a d’individus
récepteurs. Ainsi, la chercheuse en TIC Sylvie Leuleu
Merviel s’interroge : « A quelle condition cette information favorise-t-elle la construction du sens ? »4. A
cette question, le linguiste François Rastier répond que
le sens est un « phénomène contextuel »5, c’est à dire
qu’il ne peut pas être construit sans le contexte. Au sein
de ce dernier, on peut distinguer trois dimensions. La
première concerne la réception par l’individu des informations qu’il transforme en connaissances. La seconde
est relative à la production de ces informations et donc
liée à la pensée de leur émetteur. La troisième, quant à
elle, est inhérente au support de l’information lors de sa
transmission.
L’influence des extensions de la mémoire
sur le développement de la pensée
O
r l’influence du moyen matériel sur le contenu
transmis est particulièrement prégnant, c’est ce qu’éta-
4. LELEU-MERVIEL S. (2008), Quelques révisions du
concept d’information, éd. Hermes.
5. RASTIER F. (2003), « De la signification au sens. Pour une
sémiotique sans ontologie », [en ligne] URL. http://www.revuetexto.net/Inedits/Rastier/Rastier_Semiotique-ontologie.html
72
blissait en 1977 l’anthropologue Goody6. Le moyen
matériel servant à la transmission de cette information
étant à la fois un support de l’information et une extension de la mémoire. Pour l’anthropologue et paléontologue spécialiste des techniques Leroi-Gourhan, ces
outils sont au coeur même de l’évolution des processus de pensée. Il explique ainsi qu’il se produit une
différenciation biologique entre l’australopithèque et
le néandertalien au niveau du cortex cérébral : ce que
l’on appelle l’ouverture de l’éventail cortical7. Mais, à
partir du néandertalien, dit Leroi-Gourhan, le système
cortical n’évolue pratiquement plus. C’est à dire que
l’équipement neuronal du néandertalien, 200 000 ans
avant notre ère, est assez semblable au nôtre. Or, depuis
l’époque du néandertalien jusqu’à nous, la technique
a énormément évolué. Cela signifie que l’évolution
technique ne dépend plus de l’évolution biologique. Le
concept technique n’est pas inscrit d’avance dans une
organisation biologique du cerveau. « C’est en ce sens
que l’on peut dire que l’hominisation est un processus
d’extériorisation : l’espace de différenciation se produit
hors de l’espace strictement biologique. »8
Cette théorie d’un apprentissage de la pensée prenant racine dans les techniques est corroborée dès le
début du XXème siècle par le psychologue constructiviste
russe Lev Vigotski. Ayant toute sa vie travaillé sur le
6. GOODY J. (1977), The domestication of the savage mind,
Cambridge University Press.
7. LEROI-GOURHAN (1965), Le Geste et la Parole, Technique
et Langage, Albin Michel.
8. Ibid.
73
développement de la pensée humaine notamment dans
l’enfance, il postule que la construction du sens ne peut
se faire sans les outils d’extériorisation des savoirs que
sont le langage ou l’écrit. « Ce sont ces moyens d’extériorisation de la mémoire qui décuplent les potentialités
de la pensée naturelle de l’individu »9.
D’ailleurs, le philosophe Heidegger affirme qu’initialement la mémoire ne se réfère pas du tout à la « faculté de se souvenir »10. Le mot désigne « l’âme entière
au sens du rassemblement intérieur ». La mémoire est
dans son origine l’équivalent du recueillement auprès
d’une entité. Heidegger a notamment travaillé sur la
mémoire comprise comme le lieu du « devenir soi », du
« retour sur soi ». Pour lui, la mémoire est le lieu de
la pensée, certaines facultés en sont directement issues.
L’imagination par exemple, est pour lui un processus
de remémoration. De même, la liberté n’est pas possible
sans cette mémoire qui construit l’individu. Le philosophe Husserl, expliquait quant à lui qu’il existe deux
types de mémoires distinctes en chaque individu. Il y
a la mémoire de l’espèce, le génome; et il y la mémoire
du cerveau individuel. Pour comprendre la différence
entre les deux, il utilise l’exemple de la mélodie. Ce
qu’il nomme les rétentions primaires, c’est la mémoire
qui permet de comprendre une mélodie de manière
continue et non comme une successions de notes sans
rapport entre elles. Les rétentions secondaires peuvent
9. BULLE N. (2012), « Vygotski dans le contexte des digital
studies », conférence prononcée au ENMI, décembre 2012.
10. HEIDEGGER M. (1952), Qu’appelle-t-on penser ?, PUF
(Quadrige), p. 146.
74
être imagées par l’effet produit par une mélodie après
plusieurs écoutes. A chaque nouvelle écoute on l’apprécie d’avantage et toujours différemment. Cette rétention est celle qui fait qu’il y a autant de compréhensions
de ce mémoire qu’il y a de lecteurs.
Prolongeant la pensée d’Husserl, Stiegler postule
chez l’homme une troisième mémoire dont les animaux ne disposent pas. Cette troisième mémoire est la
mémoire technique ou épiphylogénétique. Pour Stiegler,
« un silex taillé, c’est une forme de matière organisée
par la taille, une organisation qui se transmet, et donc
la possibilité de transmission d’un savoir par une voie
qui n’est plus biologique. »11. Ce sont aujourd’hui tous
les supports numériques de la pensée que peuvent être
les pages Web, les blogs ou même les réseaux sociaux.
Il s’agit pour lui d’une mémoire collective, c’est à dire
le support de la transmission des connaissances. Cette
mémoire a une importance telle dans l’évolution de
l’être humain qu’il affirme que « la mémoire humaine
est indissociable de la technique »12.
On peut alors percevoir l’importance de la mémoire
technique dans le rapport à l’information. Sans elle,
pas de transmission des connaissances ni de construction de sens possible sur le long terme. Elle apparait
alors comme un moyen privilégié de l’émancipation de
la pensée, le lieu privilégié de la réalisation de la liberté
grâce à l’information.
11. STIEGLER B. (2002), « La technique comme mémoire »,
A voix nue, France Culture, décembre 2oo2.
12. Ibid.
75
De nouvelles technologies
qui modifient notre façon de penser
O
r aujourd’hui, ces technologies évoluent profondément, du manuscrit au numérique ; et ce changement de technologie modifient notre mémoire et, a
fortiori notre façon de penser. Ce qui a fondamentalement changé, c’est la facilité d’accès à des informations
multiples. Mais un nombre important d’informations
consommées suppose que l’attention qu’elles reçoivent
est à la fois courte et peu qualitative. C’est ce que démontre la neurobiologiste Marianne Wolf au sujet de
la lecture. Son analyse des modifications des pratiques
de lecture en fonction des médias montre que nous ne
développons pas les mêmes stratégies de lecture, sur
papier ou sur le Web13. Une lecture de surface est souvent favorisée numériquement alors que la lecture profonde est beaucoup plus facile sur papier. Pour elle, cela
se traduit par une difficulté à internaliser les connaissances. Si l’on connaît vite, on oublie aussi vite.
Pour Wolf, il ne faut pas jeter la pierre sur les nouvelles technologies. Bien au contraire, celles-ci nous
offrent de nouvelles capacités de penser tout à fait intéressantes14. Néanmoins, elle estime qu’il est important
de conserver les qualités de la lecture profonde. Car
13. WOLF M. (2012), « L’évolution du Reading Brain au XXIè
siècle », conférence prononcée aux ENMI, décembre 2012.
14. MOURAT (de) R. (2010), @ttention, la transformation de
l’attention à l’ère d’internet, mémoire de philosophie en DSAA
dpm, École Boulle, p.52.
76
pour la création de sens, la question d’une maturation
de l’information est importante. Il faut donc concevoir
des outils qui puissent pallier à des défauts inhérents à
leur nature numérique. Cela pose la question de l’attitude et des mesures à adopter face à ces technologies
de la pensée. Comment peut-on adopter un nouveau
rapport aux connaissances disponibles sur le Web, ce
que nous percevons comme le flux des informations ?
77
II
Quelle posture adopter ?
Une vision techno-déterministe
L
es réponses à cette question sont multiples et chacune d’entre elles implique une vision différente du rôle
de la technologie ou de la cognition humaine. Du côté
des grands acteurs de notre rapport à l’information
comme Google ou Facebook, la conduite à tenir est très
clairement énoncée. Eli Pariser relève que les géants du
Web tendent à entretenir une vision de la technologie
désengageante de toute considération éthique ou sociale15. Pour utiliser une analogie commune, ils considèrent que dans un crime, ce n’est pas le pistolet qui est
à blâmer, mais uniquement l’homme ou la femme qui
l’utilise. Ainsi, ils se dégagent de toute responsabilité
quant à l’utilisation de leurs outils en tant que mémoire
technique. Pour Sean Parker le premier président de
Facebook, c’est « la technologie, et non la finance ou
les gouvernements qui est la force motrice derrière les
grands changements sociétaux »16. Cette vision technodéterministe, développée également par Kevin Kelly, le
cofondateur du très influent magazine Wired, va même
jusqu’à prêter à la technologie une volonté propre dans
son ouvrage « what technology wants ». Cette idéolo-
15. PARISER E., op. cit., p.178.
16. Ibid.
78
gie, apparentée au transhumanisme17 pose pourtant
question car elle tend à déresponsabiliser les concepteurs dans le développement d’outils qui façonneront
pourtant les relations et le rapport à l’information de
plus d’un milliard de personnes.
À l’intérieur du flux
O
n trouve cependant des approches alternatives
à cette vision purement technocentrée. A la question :
comment peut-on adopter le flux des informations, la
réponse pourrait être avant tout une question de posture. Pour la chercheuse Danah Boyd, il en existe une
qui permet de profiter de l’information. Il faut simplement accepter de se laisser transporter par le flux des
connaissances. Il faut accepter la masse des informations, ne pas chercher à nager à contre-courant pour
n’en retenir qu’une mais accepter un état de cueillette
perpétuel. Il s’agit en sorte d’ un état passif mais ouvert
sur le monde. Mais pour que cette posture puisse être
concrètement réalisée, elle propose de concevoir de nouveaux outils technologiques. Ces derniers nous permettraient de sélectionner les contenus les plus pertinents,
17. Le transhumanisme est un mouvement culturel et intellectuel international prônant l’usage des sciences et des techniques
afin d’améliorer les caractéristiques physiques et mentales des
êtres humains.
79
quel que soit le lieu où ils se trouvent18. Pas des outils
qui agrègent les contenus et les fixent, mais des outils
qui nous permettent de distinguer le contenu pertinent
et donc de rester dans le rythme du flux sans se laisser
déborder. C’est la question du filtrage également mise
en avant par Russel Neuman, professeur de technologie à l’université du Michigan. Pour lui, le filtrage et
ses outils technologiques sont bien le grand enjeu pour
bénéficier de la masse des connaissances disponibles.
L’attitude mise en avant par Boyd a le mérite de remettre l’humain face à l’envie irrépressible de tout lire/
voir/expérimenter. En revanche, du point de vue des
technologies, il semble que se concentrer sur la notion
de filtrage de l’information ne soit pas suffisant. La
question de l’accès est bien évidemment d’une question
importante mais la conception de nouveaux outils de
filtrage de l’information ne peut résoudre à elle seule
les biais humains. D’autant plus que les algorithmes de
la personnalisation, sensés justement aider à filtrer l’information, tendent à exclure l’individu du flux réel de
l’information. En oubliant que la construction de sens
n’est pas réductible à un simple accès à l’information,
une telle vision surestime probablement les capacités
des technologies de filtrage si elles sont utilisées comme
uniques prothèses.
18. BOYD D. (2009), « Streams of Content, Limited Attention:
The Flow of Information through Social Media », conférence
donnée au Web2.0 Expo de New York en November2009.
80
La technologie est un Pharmakon
L
e très critique pionnier d’Internet Douglas
Rushkoff souligne, lui, que les technologies qui permettent l’accès à l’information ne sont pas omniscientes
et ne doivent pas faire oublier qu’elles ne sont que des
outils dans les mains de ceux qui les utilisent. Dans son
ouvrage critique, les dix commandements de l’ère numérique, il explique que sans un moteur de recherche,
nous sommes désormais perdus. Bien loin de libérer les
gens et leurs idées des hiérarchies, les outils d’accès à
l’information jouent un rôle plus aliénant qu’émancipateur. Il affirme également que « tout ne se résume
pas à une simple donnée [...]. Oui, nous pouvons retrouver n’importe quelle information nous-mêmes, mais le
risque est de le faire en ayant perdu son contexte.19 ».
Utiliser uniquement des algorithmes au gré du flux
d’informations ne permet pas de construire avec cellesci un rapport enrichissant. De même, il ajoute que pour
exploiter toute la puissance des nouveaux agencements
de données permis par Internet, nous devons apprendre
à les considérer tels qu’ils sont, c’est à dire des modèles
non testés, dont la pertinence est assujettie au contexte
et souvent personnelle. « L’accès à l’information n’est
pas un substitut à la connaissance dans un domaine.
C’est juste un nouveau point d’entrée. »20. C’est ce qui
nous oblige à réenvisager nos extensions de la mémoire
sous un nouvel angle, à la fois comme des outils nécessaires mais surtout comme des prothèses non neutres.
19. RUSHKOFF D., op. cit., p. 75.
20. Ibid.
81
Car les technologies qui permettent l’accès et la
mémorisation ne sont rien en elles-mêmes. Elle sont ce
que Stiegler appelle un Pharmakon. Issue de la philosophie grecque, cette notion est explicitée par Platon à
propos de l’écriture comme extension de la mémoire.
Car l’écriture est un appendice ambivalent : simultanément remède et poison. En effet, elle peut-être à la
fois un instrument d’émancipation lorsqu’elle est ce
qui « remédie aux failles de la mémoire »21 et aliénante
lorsqu’elle se substitue à la mémoire, au travail de l’intelligence humaine. Pour Stiegler, les technologies numériques possèdent aussi cette même ambiguïté intrinsèque. Les outils d’accès, de publication et de partage
que nous utilisons sont loin d’être neutres. C’est également ce que souligne l’historien des techniques Melvin
Kranzberg22 lorsqu’il explique que « la technologie
n’est ni bonne, ni mauvaise, ni neutre… L’interaction
entre la technologie et l’écosystème social est telle que
les développements techniques ont des conséquences
environnementales, sociales, et humaines qui dépassent
de loin les objectifs des appareils techniques et des pratiques elles-mêmes. »
Il me semble que cette façon de penser la technique
met d’avantage l’accent sur l’usage, sur l’interaction qui
existe entre un individu et l’outil qu’il utilise. Comment
peut-on alors repenser nos outils technologiques pour
qu’ils puissent être des remèdes à nos nouveaux maux
informationnels ?
21. STIEGLER B. (2008), Prendre soin, Flammarion, p. 19.
22. KRANZBERG M. (1986), « Technology and History:
Kranzberg’s Laws », Technology and Culture, vol. 27, n° 3, p. 545.
82
83
III
Vers la construction
d’un rapport actif à l’information
« La mémoire du passé n’est pas faite pour
se souvenir du passé, elle est faite pour prévenir le futur. La mémoire est un instrument de
prédiction. »
– Alain Berthoz
N
otre rapport à la connaissance est construit.
Ainsi nous ne pouvons favoriser pleinement la liberté
permise par Internet et le Web que si nous parvenons à
repenser les outils de mémoire externe qui encouragent
la construction de ces connaissances. Pour ce faire, il
faut encourager un rapport actif des individus à l’information plutôt que de laisser les algorithmes les gérer à
eux seuls.
Les hypomnemata, supports de la mémoire
L
a nécessité d’un travail actif de mise en mémoire des connaissances est déjà très présent chez les
grecs. Elle prend la forme d’hypomnemata, supports
84
de la mémoire. C’est Foucault qui dans son ouvrage
L’écriture de soi a apporté à ces techniques un éclairage
contemporain. Les hypomnémata, au sens général,
sont les objets engendrés par l’artificialisation et l’extériorisation technique de la mémoire. A l’origine, elles
pouvaient être des livres de compte, des registres publics, des carnets individuels servant d’aide-mémoire.
Sénèque explique qu’on y consignait des citations, des
fragments d’ouvrages, des actions dont on avait été
témoin, des réflexions ou des raisonnements qu’on avait
entendus ou qui étaient venus à l’esprit. Ils constituaient
une mémoire matérielle des choses lues, entendues ou
pensées. Ils s’offraient ainsi comme un trésor accumulé
à la relecture et à la méditation ultérieures.
Ces hypomnemata permettent de créer du sens en
s’opposant à l’éparpillement des idées. « Abondance
de livres, tiraillements de l’esprit »23 dit Sénèque. En
fixant des éléments acquis elle constituent en quelque
sorte un passé stable. Mais si elle fixe les idées, l’écriture
des hypomnemata est aussi; et elle doit le rester, une
pratique réglée et volontairement envisagée à partir
d’informations disparates. Elle est un choix d’éléments
hétérogènes.24 En cela, cette technique de soi apparaît
comme un parfait écho aux pratiques actuelles de
navigation hypertextuelle dans les contenus du Web.
L’information, ne peut donc être libératrice que dans
le cas où elle est assimilée, digérée, si elle peut-être inscrite dynamiquement dans les hypomnemata, support
23. SÉNÈQUE, Lettres à Lucilius, p. 6.
24. ÉPICTÈTE, De la nécessité de la logique, p. 65.
85
de mémoire permettant une construction de soi. Et aujourd’hui, Internet et le Web, en tant que technologies
de la mémoire collective appellent de nouvelles formes
d’hypomnémata individuelles.
Vers de nouveaux outils de la pensée
C
omment envisager des outils de la mémoire face
à l’évolution des technologies et des pratiques d’accès à
l’information ? Comment réaliser aujourd’hui ces nouvelles hypomnemata ? En d’autre termes, pour paraphraser Marianne Wolf, il nous faut aujourd’hui nous
interroger sur la façon dont nos médias numériques
pourraient être conçus afin de réparer leurs propres
lacunes. Il faut dire qu’il s’est installé ces dix dernières
années une discontinuité entre les outils d’accès et de
partage (réseaux sociaux, curation, moteurs de recherche...) et ceux du traitement de l’information (traitement de texte, mail, marques-pages...). Les premiers
ont subi des transformations très fortes. A l’inverse,
les outils basiques du traitement de l’information, nos
hypomnemata, n’évoluent pas à l’aune de nos pratiques.
Comme le souligne le journaliste Hubert Guillaud,
« nous tentons de temps à autre de développer des stratégies d’évitement ou de défense, mais globalement,
nous subissons autant – voire davantage – les outils que
nous en tirons parti. »25.
25. GUILLAUD H. (2008), « 
Pour une écologie informationnelle 
», [en ligne] URL. http://www.internetactu.
net/2008/04/24/pour-une-ecologie-informationnelle/
86
Une analyse partagée par le théoricien des nouveaux médias Lev Manovitch26. Dans son ouvrage Le
langage des nouveaux médias publié en 2001 il a analysé
à la fois les médias numériques et les programmes dont
ils sont issus. Pour lui, les différentes formes que l’on
peut trouver sont nées des médias pré-numériques.
Leur développement a toujours conservé un lien avec
les outils analogiques que sont la page et le cinéma27.
Dans un article récent consacré à l’étude des très grands
ensembles d’informations, il constate que nos outils
n’ont pas changé dans leur langage. « Étant donné la
taille de bien des collections de documents numériques,
vouloir simplement voir ce qu’elles contiennent est impossible. Bien qu’il puisse sembler que les raisons soient
les limitations de la vision et du traitement humain
de l’information, je pense que c’est en fait la faute du
design actuel de nos interfaces. »28 Pour lui, il nous
faut davantage prendre en compte l’évolution de notre
environnement informationnel quotidien pour pouvoir
concevoir des outils qui permettent de traiter ces flux
d’informations de manière optimale.
En résumé, construire les conditions d’un rapport
actif à l’information c’est favoriser l’expression de la
liberté potentiellement permise par Internet et le Web.
C’est ce travail actif des individus qui transforme
l’information en connaissance. Les grecs ont mis en
26. MANOVITCH L. (2011), « Media Visualization », [en
ligne] URL. http://manovich.net/DOCS/media_visualization.2011.pdf
27. Ibid., p.174.
28. Ibid.
87
avant la capacité des hypomnemata comme support de
la mémoire à construire du sens et favoriser la pensée
sur le long-terme. Et dans un univers aussi saturé
d’informations, ces outils apparaissent d’autant plus
indispensables pour favoriser une pensée réflexive. Ils
peuvent aider à établir un lien direct entre information
et liberté.
Cependant, on l’a vu, nos outils actuels n’ont pas
su s’adapter au nouvel écosystème informationnel.
Comment alors les outils de la pensée peuvent-ils favoriser une attitude active des individus face à l’information ? Ces outils peuvent-ils préserver et accompagner
des modalités d’accès à l’information non linéaires
mais basées sur la sérendipité inhérente au Web ?
Comment penser des outils aussi intimes à l’ère du tout
social ? Une technologie de la pensée peut-elle nourrir
la création de sens ? C’est à ces interrogations que devra
répondre mon mémoire de projet.
88
89
90
Conclusion
91
Conclusion
L
’ ambition première de ce mémoire était d’étudier et de comprendre la relation qui existe entre deux
notions a priori peu liées: l’information et la liberté.
On a ainsi mis en évidence d’importants enjeux qui
impliquent et questionnent aujourd’hui la place et la
responsabilité des différents acteurs de la chaine de
l’information.
Dans un premier temps, on s’est attaché à étudier
historiquement la façon dont l’information a pu devenir une source majeure de la liberté. Cela nous a amené
à étudier les technologies qui permettent la diffusion de
cette information. En effet, l’idée naissante de la démocratie moderne s’est nourrie des possibilités concrètes
d’accès aux informations politiques de l’ensemble de
la population. Mais la naissance de l’informatique a
bouleversé le paradigme d’une diffusion unidirectionnelle de l’information par les médias. Le mouvement
des logiciels libres a lutté pour la liberté de toutes les
connaissances. Il envisageait le partage et la libre circulation de l’information comme socle des communautés et du pouvoir des individus sur leurs propres vies.
Internet de part sa stucture a permis de démocratiser
cette utopie, d’abord réservée à une élite, en permettant
à chacun de publier et de partager des informations.
Ces pratiques font aujourd’hui ressurgir la figure de
l’amateur comme contributeur et comme acteur de sa
92
propre liberté. Une liberté de penser et d’agir considérablement élargie, du moins potentiellement.
Mais de tels changements dans le système technique
ne peuvent être uniquement bénéfiques. On a ainsi,
dans un second temps, mis à jour plusieurs tensions
qui menacent fortement cette nouvelle liberté. Les biais
humains comme la surcharge informationnelle et le
maintient des inégalités sociales dans les pratiques en
ligne en sont des exemples édifiants. Les biais technologiques entrent également en jeu. L’utilisation de plus
en plus courante des algorithmes de personnalisation
par exemple pose la question de la liberté de choix.
Lorsque ces choix sont effectués par un système technologique, il est difficile de parler de liberté de l’individu. De même, une économie de l’accès se développe
aujourd’hui sous l’impulsion des industries culturelles.
Celle-ci va à l’encontre des idéaux de libre circulation
des contenus et maintien les individus dans une position passive de simples consommateurs d’informations.
Enfin, pour tenter de comprendre comment
éviter ces différents biais, on a mis à jour la façon
dont l’information participe à la construction de soi.
L’intériorisation des savoirs est un travail d’élaboration
du sens et se fait par le biais d’une mémoire technique,
fondement de la pensée et donc de la liberté. Face aux
modifications actuelles de cette mémoire technologique, plusieurs attitudes sont prônées, technocentrées
ou au contraire suggérant une acceptation du flux.
Mais la technologie n’est pas neutre et il importe de
considérer avec soin la façon dont elle nourrit ou au
93
contraire aliène les individus. Les grecs avaient déjà
développé des supports de la mémoire favorisant une
pensée réflexive en fixant des informations éparpillées
non linéaires. Ces hypomnemata font aujourd’hui écho
aux pratiques d’accès à l’information développées sur
Internet. Une réactualisation de ces outils pourrait permettre un rapport plus actif à l’information.
Cette conclusion questionne néanmoins la place des
concepteurs et donc du design dans le développement
des outils médiateurs entre l’individu et l’information.
Concevoir un outil c’est éliminer des possibilités et
en privilégier d’autres, c’est à la fois aliéner et libérer,
c’est donc prendre une responsabilité dans la capacité
d’action et de pensée de ceux qui les utiliseront. Une
responsabilité qui implique alors une très grande humilité de la part des concepteurs et invite à une diversification des outils de la pensée. Une ouverture des
possibles qui pourrait nourrir de nouvelles pratiques et
permettre à chacun de se construire son propre rapport
à l’information.
94
95
96
« A l’inverse d’Internet, nous avons constaté à
quel point la télévision était contingente dans nos vies,
combien elle était dispensable. Ça peut paraître une
évidence à beaucoup. Dans mon cas, c’est un changement de paradigme. Depuis, j’ai l’impression d’avoir
basculé dans une autre ère. Je suis entré dans l’ère où
tout contenu que je visionne est un contenu choisi. Je
ne tombe plus au hasard du zapping, sur un film qu’un
directeur des programmes a décidé de diffuser dans
un créneau horaire, mais je fais l’acte de télécharger
un film et de le regarder quand je veux. On pourrait
croire que ce minuscule empowerment nous préserve de
la bêtise. Pas du tout. J’ai par exemple choisi de regarder Traque sur Internet, et non pas un Fellini. Le gain
n’est donc pas qualitatif, il est psychologique. Je ne peux
plus m’en prendre à personne d’autre qu’à moi-même.
Quelques jours de déconnexion [télévisuelle] m’ont fait
entrer par incidence dans l’ère de la responsabilité. J’ai
mis fin aux délices de la passivité et suis devenu adulte.
Ce n’est pas rien. »
–Xavier de la Porte (2013),
« envoyé spécial dans mon ordi »,
Le Tigre, n°26, février 2013
97
98
Bibliographie
&
Remerciements
99
Bibliographie
Ouvrages
CARDON D. (2010), La démocratie Internet, Paris,
Seuil.
CERTEAU (de) M. (1980), L’invention du quotidien : 1.
arts de faire, Paris, éd. Folio Essais.
DERRIDA J. (1995), Mal d’archive, Galillée.
FOUCAULT M. (1983), « L’écriture de soi », dans
Dits et écrits, t2, éd Gallimard.
GARDEY D. (2008), Écrire, calculer, classer, Paris, La
Découverte, coll. « textes à l’appui ».
GLEICK J. (2011), The Information, a history, a theory, a
flood, New-York, éd. Pantheon Books.
HIMANEN P. (2001), The Hacker Ethic and the Spirit
of Information Age, éd. Random House.
LEROI-GOURHAN A. (1965), Le geste et la parole,
La mémoire et les rythmes, éd. Albin Michel Sciences.
LEVIE F. (2008), L’homme qui voulait classer le monde:
Paul Otlet et le mundaneum, Paris, éd. Les impressions
nouvelles
100
MANOVITCH L. (2010), Le langage des nouveaux
médias, Les presses du réel, coll. « Perceptions ».
MATTELARD A. (2001), Histoire de la société de
l’information, Paris, La Découverte, coll. « Repères ».
PARISER E. (2011), The filter bubble, how the new
personalized web is changing what we read and how we
think, Londre, Penguin Books.
RIFKIN J. (2000), L’âge de l’accès, Paris, La Découverte,
coll « Essais ».
RUSHKOFF D. (2011), Les 10 commandements de l’ère
numérique ,Paris, FYP éditions
WOLTON D. (2011), La neutralité de l’Internet, un
enjeu de communication, Paris, CNRS édition, coll.
« les essentiels d’Hermès ».
Mémoires
MOURAT (de) R. (2010), @ttention, la transformation
de l’attention à l’ère d’Internet, mémoire de philosophie
en DSAA dpm, Paris, École Boulle.
TARDIF V. (2010), La bibliothèque et ses métamorphoses, mémoire de philosophie en DSAA dpm, Paris,
École Boulle.
101
Articles
BARDINI T. (2000), « Les promesses de la révolution
virtuelle : genèse de l’informatique personnelle, 19681973 » Sociologie et sociétés, vol. 32, n° 2, 2000, p. 57-72.
[en ligne] URL. http://www.erudit.org/revue/
socsoc/2000/v32/n2/001020ar.pdf
BOURDON J. , SCHAFER V. (2012), Histoire de l’internet, Internet dans l’histoire, Le temps des médias,
Paris, éd. nouveau monde, n°18, printemps 2012
BUSH V. (1945), « As We May Think », in Atlantic
Magazine
[en ligne] URL. http://www.theatlantic.com/
magazine/archive/1945/07/as-we-may-think/303881/
CARR N. (2011), « 
Situational overload and
ambient overload 
», blog de Nicholas CARR,
[en ligne] URL. http://www.roughtype.com/ ?p=1464
GUILLAUD H. (2012), « Notre surcharge informationnelle en perspective »,
[en ligne] URL. http://www.internetactu.net/2012/
02/29/lift12-notre-surcharge-informationnelle-enperspective/
LELEU-MERVIEL S. (2008), Quelques révisions
du concept d’information, Problématiques émergentes dans les sciences de l’information, éd. Hermes
[en ligne] URL. http://hal.archives-ouvertes.fr/
docs/0 0/69/57/77/ PDF/Chapitre_ RA _visions_
Information.pdf
102
MANOVITCH L. (2011), « Media Visualization »,
[en ligne] URL. http://manovich.net/DOCS/media_visualization.2011.pdf
PROULX S. (2002), « La culture du hack en
ligne, une rupture avec les normes de la modernité », Les cahiers du numérique n°3, éd. Lavoisier,
[en ligne] URL. http://www.cairn.info/revue-les-cahiers-du-numerique-2002-2-page-35.htm
SERRES A. (2008), « Bernard Stiegler : pensée des
techniques et culture informationnelle », Séminaire du
Groupe de Recherche sur la Culture et la Didactique
de l’Information, septembre 2008
SCHIRRMACHER F. (2009), « 
The age of
informavore »,
[en ligne] URL. http://www.edge.org/3rd_culture/
schirrmacher09/schirrmacher09_index.html
THIERRY B. (2012), “Utilisateurs et communautés
d’utilisateurs aux premiers âges de l’informatique personnelle et des réseaux grand publique”, Le Temps des
Médias, printemps 2012, n°18, p. 54-64, éd. nouveau
monde
WOLTON D. (2004), “Information et communication : dix chantiers scientifiques, culturels et politiques”, HERMÈS, 2004, n°38
103
Ressources en ligne
Ars Industrialis, site d’Ars Industrialis,
[en ligne] URL . http://www.arsindustrialis.org/
FAURE C. blog de Christian FAURE
[en ligne] URL . http://www.christian-faure.net
InternetActu, média de la FING,
[en ligne] URL . http://www.internetactu.net/
Conférences
STIEGLER B. (2012), « Figure de l’amateur et
innovation ascendante », conférence prononcée dans
le cadre du colloque organisé par Vivagora le 18
mars 2008
SHIRKY C. (2012), « Comment Internet transformera un jour le gouvernement », conférence prononcée
à TED en juin 2012,
[en ligne] URL. http://www.ted.com/talks/
clay_shirky_how_the_internet_will_one_day_transform_government.html
104
105
106
Remerciements
J’ai pris un profond plaisir à l’écriture de ce mémoire. J’ai plongé dans la masse des informations. Je les
ai collectées patiemment et je me suis pliée à l’exercice
d’en retirer des connaissances, de leur donner sens. J’y
ai appris beaucoup et j’espère que vous y trouverez également de quoi vous intriguer.
Écrire un mémoire est loin d’être une aventure solitaire. Je veux remercier tous ceux qui, d’une façon ou
d’une autre ont contribué à son écriture :
Jacques-François Marchandise d’abord pour
m’avoir aiguillée au début de ce mémoire et pour avoir
ouvert mes horizons de lecture ; Mes professeurs de
DSAA pour leur ouverture et leur perspicacité ; Mes
chers amis de promo pour l’enthousiasme qui nous
a accompagné dans les projets et les voyages de ces
deux magnifiques années; ma famille pour tout; enfin
Matthieu, pour son exigence sur le fond et son attention plus que précieuse à la forme de ce mémoire.
Merci.
107
Ce mémoire est publié sous licence
Creative Commons BY/NC/SA
http://creativecommons. org/licenses/by-nc-sa/3.0/
108
109
Téléchargement