Définition - Que signifie Decimal?
Dans le contexte de l'informatique, la décimale fait référence au système de numérotation de base 10. C'est la façon dont les humains lisent les nombres. En général, décimal peut être tout ce qui est basé sur le nombre 10. Comprendre comment le décimal se rapporte au binaire, octal et hexadécimal est essentiel pour ceux qui travaillent dans l'industrie informatique.
Les autres termes pour décimal sont la base 10 et le denaire.
Definir Tech explique Decimal
En mathématiques, la décimale peut faire référence au système de numérotation décimale, à la notation décimale ou à tout nombre écrit en notation décimale. Les nombres décimaux sont écrits en fonction de leur valeur de position. L'entier est écrit à gauche de la virgule décimale et tout nombre fractionnaire est écrit à droite (par exemple, 1.023).
L'utilisation du décimal est aussi ancienne que l'histoire humaine. L'utilisation courante du décimal peut être due aux dix doigts des humains (qui pourraient également être appelés bi-quinaires, car il y a cinq doigts sur chaque main). La décimale était utilisée dans les anciennes calculatrices telles que le calcul chinois de la tige et l'abaque. Le mathématicien grec Archimède a utilisé des puissances de 108 (10,000 10,000 × XNUMX XNUMX, ou «une myriade de myriades») pour estimer la taille de l'univers.
Base-10 utilise les chiffres 0-1-2-3-4-5-6-7-8-9, par opposition à 0-1 utilisé en binaire. Les ordinateurs modernes comptent en binaire, mais il existe également des ordinateurs décimaux. Le moteur analytique de Charles Babbage a été conçu en utilisant la décimale. D'autres premiers ordinateurs comme l'ENIAC et l'IBM 650 utilisaient la base-10 en interne.