Complexité, Puissance et Variabilité
INTRODUCTION
·Complexité d'une chose qui a un nombre de composants ou d'états tels que l'on ne peut pas
l'appréhender clairement dans sa totalité ou dans tous ses aspects.
Complexe : "Qui contient, qui réunit plusieurs éléments différents. Couramment: difficile à
cause de sa complication" (Littré).
·Puissance d'un appareil, capable de fournir un travail.
Puissance : "Caract₩re de ce qui peut beaucoup, de ce qui produit de grands effets. Virtualité,
possibilité" (Littré).
·Variabilité d'un phénoméne ou d'une situation qui présente simultanément des aspects
distincts à des observateurs différemment placés ou, en for₤ant le trait, autant d'aspects que de
lieux d'observation.
Variabilité : "Caract₩re de ce qui est variable" (Littré).
Variable : "Qui est susceptible de se modifier, de changer souvent au cours d'une durée. Qui
prend, peut prendre plusieurs valeurs distinctes. Qui prend plusieurs valeurs, plusieurs aspects,
selon les cas individuels, ou selon les circonstances" (Littré).
Ce chapitre contient :
Un aper₤u sur la complexité d'un syst₩me informatique.
Un examen de ce que l'on peut nommer puissance d'un syst₩me informatique et les évaluations que
l'on fait des unités centrales.
Quelques techniques d'évaluation des performances.
Un aperéu de l'influence du logiciel sur les performances.
LA COMPLEXITE D'UN SYSTEME INFORMATIQUE
Cette complexité tient autant au nombre de composants qu'à la difficulté induite par leur organisation
et par leur fonctionnement en l'absence de lois générales et de r₩gles de construction ou
d'agrégation.
Cette complexité a pour origine le nombre de composants et le nombre d'états distincts que le tout
peut avoir.
· Le nombre de composants est grand : de quelques dizaines à des milliers de circuits intégrés et
chacun d'entre eux contient de mille à quelques millions de composants dans des structures
microscopiques.
·Le nombre d'états distincts est considérablement plus important puisqu'il proc₩de de la
combinatoire.
Un banc de mémoire de 1 Mo a 223 points de mémoire ou bits (220 octets x 23bits/octet). A
raison de 2 états pour chacun, il a 2^(223) états distincts, soit exactement 2 8*1000*1024 ou encore plus
de 108000000 d'états.
Ces nombres sont à comparer au nombre d'atomes de l'univers inférieur à 1080 en l'état de nos
connaissances; au temps écoulé depuis le "Big Bang" est d'environ 14 ou 15 milliards d'années.
A raison de 365 jours par an, et 24 heures de 3600 secondes par jour, le nombre de secondes
est de moins de 15*10^9*(1/3)*24*3600 ou encore moins de 1020 microsecondes ou encore 1023
nanosecondes.
Nous n'avons que quelques 109neurones dans notre cerveau.
De telles possibilités ne sont pas directement maîtrisables en raison de nos limites perceptives
et intellectuelles et de l'absence déjà citée d'une ou de quelques lois qui en régiraient l'organisation
La complexité des algorithmes fait l'objet de trés nombreuses études.
La complexité d'un programme est abordée trés briévement plus loin.
LA PUISSANCE D'UN SYSTEME INFORMATIQUE
Puissance intrins₩que et puissance effective
Cette puissance n'a aucun rapport avec la puissance définie en mécanique, en électricité et dans les
autres domaines de la physique l'on dispose de lois de conservation sous la forme d'équations de
bilan avec leurs dimensions, leurs r₩gles de composition et de calcul.
Alors qu'il existe en mécanique des seuils minimaux pour vaincre un frottement ou la composante
due à la pesanteur pour mouvoir une charge, il n'y a pas de tels seuils en informatique (sauf à avoir
une alimentation électrique insuffisante).
Tout ordinateur, pourvu qu'il poss₩de des caractéristiques minimales (n'importe quelle machine
existante les a en surabondance) peut résoudre tout probl₩me relevant de la classe des fonctions
calculables.
Mais la théorie, non seulement ne dit pas le temps nécessaire à leur exécution, mais n'aborde aucune
considération de temps hors le fait de distinguer s'il est fini ou infini.
La PUISSANCE INTRINSEQUE, c'est-à-dire la capacitéé à exécuter un algorithme. Elle est infinie
au sens où tout algorithme bien conéu résolvant un probléme calculable et bien exprimé dans un
langage adéquat, sera exécuté sur n'importe quel ordinateur en un temps fini.
Les PUISSANCES EFFECTIVES, que l'on doit nommer PERFORMANCES relévent des :
·temps de réponse(latency), ou temps d'exécution ou encore temps de latence. C'est le temps qui
s'écoule entre le début et la fin d'un travail. Les deux premiers sont utilisés pour l'exécution d'un
programme ou d'une tâche. Le temps de latence est appliqué à la mémoire et aux entrées et sorties.
·débit (throughput) ou bande passante (bandwith). C'est la quantité de travail faite par unité de
temps. Le débit est appliqué à l'exécution des programmes ou des tâches. La bande passante
s'applique à la mémoire et parfois aux entrées et sorties.
·utilisation ou plutôt temps d'utilisation ou temps d'occupation ou taux d'occupation. C'est le
temps ou la fraction de temps pendant lequel un composant ou un systéme est occupé. Il n'intéresse
plus grand monde.
·volume disponible que l'on oublie le plus souvent, c'est la capacité à enregistrer le volume des
données.
1 / 24 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !