Définition - Que signifie la loi de Shannon?
La loi de Shannon est une théorie mathématique pour encoder des informations en lui appliquant une valeur (0 ou 1). Cette formulation est considérée comme le fondement des communications numériques. La loi de Shannon a été conçue par le mathématicien Claude Shannon, qui a démontré que les mathématiques pouvaient être utilisées pour calculer la plus grande quantité théorique d'informations transmises par un système de communication basé sur les lois physiques de la thermodynamique. La loi de Shannon stipule que la vitesse maximale des données sans erreur pouvant être atteinte, en bits par seconde (bps), est fonction du rapport signal sur bruit et de la bande passante.
Definir Tech explique la loi de Shannon
La loi de Shannon est énoncée comme indiqué ci-dessous: C = B log2 <(1 + S / N) où: C est la vitesse de données sans erreur la plus élevée possible en bps pouvant être gérée par un canal de communication. B est la bande passante du canal en hertz. S est la puissance moyenne du signal reçu sur la bande passante calculée en watts (ou volts au carré). N est la puissance d'interférence moyenne ou le bruit sur la bande passante calculée en watts (ou volts au carré) S / N est le rapport signal sur bruit (SNR) du signal de communication sur l'interférence de bruit gaussien représentée comme le rapport de puissance linéaire. La fonction log2 signifie le logarithme en base 2. Tous les logarithmes sont des exposants. En supposant que x et y sont deux nombres, le logarithme en base 2 de x est y, à condition que 2y = x. L'explication de Shannon sur l'information pour les réseaux de communication aide à identifier les relations importantes entre plusieurs éléments du réseau. Les équations de Shannon aident les ingénieurs à déterminer la quantité d'informations qui pourraient être transportées sur les canaux associés à un système idéal. Shannon est toujours la base des ingénieurs et des scientifiques de la communication dans leur quête incessante de systèmes de communication plus rapides, plus robustes et plus écoénergétiques. Il a montré mathématiquement les principes de compression des données et a également montré comment les taux d'erreur contrôlés peuvent être utilisés pour assurer l'intégrité lorsque l'information est transportée sur des canaux bruyants. Les systèmes de communication pratiques qui peuvent être exploités près de la limite de vitesse théorique décrite par la loi de Shannon n'ont pas encore été conçus. Certains systèmes qui utilisent un codage et un décodage avancés peuvent atteindre 50% de la limite spécifiée par le Shannon pour un canal avec un rapport signal sur bruit et une bande passante fixes.