Entropie

Voir aussi Claude Shannon .

L'entropie a des significations en physique et en théorie des communications. Plus généralement, l'entropie désigne un processus dans lequel l'ordre se détériore au fil du temps. Elle a plusieurs significations particulières dans les communications de données. Les scientifiques pensent que l'univers évolue naturellement vers une entropie maximale. Parmi les exemples courants, citons la possibilité de disparition des variations thermiques. La théorie de l'entropie stipule que tout finira par atteindre une température uniforme. Il n'y aura plus de sources ou d'absorbeurs d'énergie. Les étoiles et les galaxies que nous connaissons n'existeront plus. Il n'y aura plus de vie. Dans les communications de données, le terme entropie fait référence au degré relatif d'aléa. Les erreurs de signalisation sont d'autant plus fréquentes que l'entropie est élevée. La vitesse maximale des données, en bits par seconde (bps), est la mesure directe de l'entropie. La bande passante et le bruit sont également des facteurs qui affectent directement l'entropie. Inversement, l'entropie est proportionnelle à la compressibilité. Plus l'entropie du signal est grande, plus le facteur de compression est faible. L'entropie fait également référence au désordre délibérément ajouté aux données dans certains processus de cryptage.

Vous pouvez également être intéressé
  1. Entropie des mots de passe La mesure de l'entropie des mots de passe fait référence au degré d'imprévisibilité d'un mot de passe. L'entropie du mot de passe dépend à la fois de la longueur du mot de passe et de son jeu de caractères (qui peut être étendu par l'utilisation de symboles, de chiffres en...