Ordres de grandeur de la capacité de mémoire binaire

La capacité des ordinateurs est passée en 30 ans de quelques millions d’octets (1 octet regroupe 8 bits) à plusieurs téraoctets (1 000 milliards d’octets). On estime que la production mondiale de données mémorisées double chaque année : proche de l’exaoctet (1018 ou un milliard de milliards d’octets) il y a 10 ans, elle devrait atteindre le zettaoctet (mille fois plus) à la fin de cette décennie !

Ordres de grandeur de la capacité de mémoire binaire

DOSSIER
Flous de mémoire

Informatique

Mémoires en bits

L’informatique peut-elle offrir davantage qu’un puissant mais rigide auxiliaire de la mémoire humaine ?
par Fabrice Guillet(1) et Jean-Pierre Guédon(2), enseignants-chercheurs à l’école polytechnique de l’Université de Nantes et membres de la fédération CNR S-Atlanstic (1) Maître de conférences au Lina, Laboratoire d’informatique Nantes-Atlantique (Université de Nantes/CNRS/école des mines de Nantes) (2) Professeur à l’Irccyn, Institut de recherche en communication et cybernétique de Nantes (école centrale/CNRS/Université de Nantes/école des mines de Nantes)

Mille milliards de milliards d’octets

La mémoire informatique conserve des textes, des images et des sons codés via des traces nommées bits (contraction de binary digits : chiffres binaires) qui ont deux états possibles, 0 et 1, et qui sont inscrites et lues par des moyens magnétiques ou optiques. La capacité des ordinateurs est passée en 30 ans de quelques millions d’octets (1 octet regroupe 8 bits) à plusieurs téraoctets (1 000 milliards d’octets). On estime que la production mondiale de données mémorisées double chaque année : proche de l’exaoctet (1018 ou un milliard de milliards d’octets) il y a 10 ans, elle devrait atteindre le zettaoctet (mille fois plus) à la fin de cette décennie ! Cette augmentation de capacité a permis de supplanter les archives papier et la mémoire humaine dans la structuration, le stockage et la restitution des informations relatives aux activités des entreprises. Il a fallu alors développer des logiciels capables de gérer des volumes gigantesques de données et permettant d’accéder à ces dernières rapidement, selon divers critères : valeur, origine, date, etc. Il s’agit des SGBD (systèmes de gestion de bases de données) et des GED (gestion électronique de documents).

Les systèmes de stockage les plus évolués, nommés datawarehouses (entrepôts de données) intègrent à présent des outils de datamining (fouille de données), dits aussi décisionnels, qui repèrent et exploitent automatiquement des données particulières à des fins de calcul, d’analyse et de prévision, ou des outils de knowledge management (gestion des connaissances) qui précisent l’usage des informations et optimisent leur circulation.

Ces moyens ont considérablement accru l’accessibilité et le partage des informations dans le temps et dans l’espace, en les dégageant d’aléas humains (erreurs, absences), et offrent des capacités de stockage et d’exploitation (la valeur ajoutée) dont les êtres humains sont incapables. Ils ne sont pas pour autant dépourvus de problèmes. Les pannes de matériel sont responsables de plus de 40 % des « pertes de mémoire » devant les fautes humaines, les incidents liés au renouvellement fréquent des matériels et des formats de données et les attaques de virus. Moins de la moitié des entreprises victimes d’incidents majeurs survit. Une levée de telles difficultés ne rendrait pas idéalement efficace la mémoire informatisée de l’entreprise, parce que de nombreux savoirfaire et connaissances demeurent encore difficiles à formaliser de façon appropriée par des moyens informatiques.

La Toile en quête de sens

Le développement des systèmes informatiques s’est récemment focalisé sur le partage des ressources. Ce partage s’effectue en bonne partie au travers d’Internet, un réseau qui relie aujourd’hui plus de 100 millions de serveurs (ordinateurs relais, hébergeurs de sites, fournisseurs de services) et bientôt deux milliards d’utilisateurs dans le monde. Système de communication et d’archivage, Internet est aussi un terreau de mémoire collective : de natures diverses, les informations qu’il contient sont accessibles rapidement, largement et en permanence et sont souvent mises à jour ; on y puise un grand nombre de savoirs sur le monde et sur la société, notamment via les wikis et les newsletters ; il transmet des connaissances et des pratiques identitaires au sein de communautés d’internautes via des systèmes d’échanges en temps réel (forums publics ou privés, communication « pair à pair », etc.).

La sollicitation de cette mémoire nécessite des moteurs de recherche tels que Google®, qui analysent et répertorient sans cesse les mots présents dans les sites afin de pouvoir répondre aux requêtes rapidement et diversement. Hélas, la quantité d’informations disponibles sur le Web (la Toile) est devenue si grande que, quelles que soient les qualités de ces moteurs et notamment la façon dont ils ordonnent les réponses, il est souvent difficile d’obtenir une information pertinente et fiable. Aujourd’hui, le Web est « syntaxique » : la recherche y est limitée à des mots (voire à des images, grâce à l’émergence d’outils capables de prendre en compte des critères graphiques) ; les connaissances (le sens associé aux informations) ne sont pas accessibles aux moteurs. Demain, un Web « sémantique » devrait offrir une évolution majeure : grâce à l’inclusion de métadonnées dans les pages web, c’est-à-dire d’informations qui décrivent leurs contenus, les ordinateurs pourront mener des raisonnements. Il restera alors à cerner les faiblesses de ce nouveau type de mémoire !

La mise au point du Web sémantique est l’objet de nombreuses recherches actuelles. Il faut en effet concevoir et fixer des langages et des normes permettant de gérer les métadonnées efficacement. Or s’accorder sur de telles normes constitue une difficulté majeure qui est classique lorsque les enjeux économiques sont importants.

© Fotolia.com / Franck Follet

Têtes chercheuses ©2007 | mentions légales | contactez nous | page d'accueil | Réalisation : Intelliance 2007