Définition - Que signifie la loi de Murphy?
La loi de Murphy est un aphorisme qui déclare que tout ce qui peut mal tourner le fera - à tout moment indéfini. Communément appliquée à l'informatique, la loi de Murphy est très pertinente pour les tests logiciels / matériels et d'autres types d'ingénierie. Il repose également sur une vision scientifique des systèmes naturels ou créés.
Definir Tech explique la loi de Murphy
En termes scientifiques, la loi de Murphy repose sur le concept d'entropie, également connu sous le nom de deuxième loi de la thermodynamique. L'entropie, qui postule la tendance éventuelle d'un système ordonné vers le désordre, a été un pilier d'un certain nombre de théories corrélées. L'entropie et la loi de Murphy, par exemple, suggèrent que lors d'un test effectué des centaines de fois, l'équipement de test manifestera des défauts, des testeurs qui ne suivront pas les procédures exactes ou d'autres types d'erreurs et de problèmes inattendus, en fonction de leur probabilité globale.
Depuis son origine conceptuelle au milieu du XIXe siècle, la loi de Murphy a été utilisée dans les tests et la sphère générale de l'informatique. Les humains qui interagissent avec la technologie sont souvent confus ou frustrés par une myriade de problèmes différents, certains liés au fonctionnement de l'équipement et d'autres à l'erreur humaine. La loi de Murphy est une méthode permettant d'anticiper et de parler de divers types de problèmes technologiques potentiels à mesure qu'ils surviennent au fil du temps.