Entropía

El segundo principio de la termodinámica establece el crecimiento de la entropía, es decir, la máxima probabilidad de los sistemas es su progresiva desorganización y, finalmente, su homogeneización con el ambiente. Los sistemas cerrados están irremediablemente condenados a la desorganización. No obstante hay sistemas que, al menos temporalmente, revierten esta tendencia al aumentar sus estados de organización (negentropía, información).

Entropy

Entropy is a fairly easy concept to define, the measure of disorder in a closed system, and a rather difficult concept to grasp, but one that furnishes us with wonderful insights into the way the world around us operates. The amount of entropy in the Universe is ever-increasing, the energy concentrated in our sun is constantly radiating away in light and heat, dissipating into an unusable state, absolute undifferentiation.

tomado de: https://ideonexus.com/2010/08/30/entropy-for-information-systems/ Año 2015

Entropía

Yo entiendo por entropia que es la que se encarga de medir la inseguridad que se encuentran dentro de un sistemas de informacion.
 
Fuente de elaboracion propia.
 
Tomado de:https://www.monografias.com/trabajos65/entropia-obesidad-sistemas-estocasticos/entropia-obesidad-sistemas-estocasticos2.shtml
 
Haz tu web gratis Webnode