système analogique à un système numérique implique une phase
d’échantillonnage où seules certaines valeurs seront conservées. La densité et la
précision des échantillons établissent la qualité des données, elles influencent,
mais sans être l’unique facteur, la qualité des résultats obtenus. Le passage
inverse, du numérique à l’analogique est possible, l’approximation du système
analogique l’est d’autant plus que la précision et la densité des valeurs
numériques sont grandes (théorème de Shannon ou Nyquist). L’évolution de
l’utilisation des ordinateurs, pour les applications de gestion et scientifiques, s’est
accomplie en préservant la précision des données, des entiers pour les
inventaires et les comptes, des nombres à virgule flottante ou fixe pour des
valeurs décimales.
On attribue généralement à John von Neumann l’invention de l’ordinateur
numérique. Cette consécration est maintenant considérée comme surfaite. Il n’en
demeure pas moins un acteur, et témoin privilégié, des balbutiements des
ordinateurs de la première génération (1938-1953). Ces ordinateurs utilisaient
des lampes à vide et des relais électromécaniques. Les premières machines ne
stockaient pas de programmes en mémoire, elles devaient être programmées à
l’aide de séries d’interrupteurs. L’ENIAC (1946), le EDVAC (1950), le
EDSAC(1951) ainsi que la série des Mark I et Mark II effectuaient des calculs bit
à bit et étaient bâtis de milliers de composantes. La vitesse se mesurait en
microsecondes et la chaleur dissipée par chaque composante se mesurait en
watts plutôt qu’en milliwatts comme pour celles d’aujourd’hui. Le premier
ordinateur commercial, le UNIVAC fut introduit en 1951.
L’invention du transistor en 1948 permit une première miniaturisation des
ordinateurs, bien que cette transition ne fut complétée qu’au début des années
60. Les transistors remplacent avantageusement les lampes à vide, et relais
électromécanique, puisqu’ils occupent un espace restreint, consomment et
dissipent peu d’énergie tout en étant plus résilients. Cette seconde génération
(1952-1963) voit également l’émergence de nouveaux outils, l’assembleur
inventé par Wilkes (1951) permit de développer plus aisément les programmes,
le FORTRAN (1956) par IBM, le COBOL (1959) par l’armée américaine ainsi que
Algol en 1960, établirent les fondements de l’informatique et rendirent plus
accessible l’utilisation des ordinateurs. Les mémoires étaient bâties autour de
pièces magnétisées, les tores, dont l’orientation est modifiée par le passage d’un
courant électrique. Ces mémoires, complexes à construire, avaient un temps
d’accès (1 s), un mégaoctet valait 1 million de dollars. Les coûts d’opération des
ordinateurs étant prohibitifs, la rentabilité des systèmes passait par le
développement de techniques qui alliaient le travail du processeur et les
entrées/sorties. L’objectif de diminuer le temps pris par un programme pour
s’exécuter, se réalisa dans le cadre des systèmes d’exploitation, il demanda de
nouveaux supports par le matériel. L’introduction des disques à accès non-
séquentiels, en 1963 par IBM, révolutionna à son tour le monde de
l’informatique.