top of page
  • White Facebook Icon
  • White Twitter Icon
  • White Instagram Icon

ENTROPÍA Y NEGENTROPIA

0a485ec1-57a9-4d47-959b-4a2b06107b6d.jpg

Entropía en Sistemas Cerrados. No intercambia energía con su medio.

La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información.

Ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como «corren», «niño», «perro» aportan más información.

 

Si de un texto dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

La neguentropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el método de neguentropía.

 

Ejemplo:

 

Si tomamos la administración de una empresa como un sistema, según la teoría nos dice que se estará permanentemente tendiendo al desorden, eso sería el factor entrópico de la escuela, y la presión que ejerza su dirección para mantener el orden, es el aspecto neguentrópico de este sistema escuela.

images (10).jpg
bottom of page