Entropy

Материал из Encyclopedia Electronica

[ˈentrəpɪ]
(от греч. entropia «поворот, превращение»)
энтропия
а)  Мера внутренней неупорядоченности ИС (Information System), например, Интернета (Internet). Энтропия увеличивается при хаотическом распределении информационных ресурсов в сетевом пространстве и уменьшается при упорядочении. Интересно, что сама информация (без учёта распределения в пространстве) обладает отрицательной энтропией и может быть определена как мера упорядоченности материальных систем (по Л. Бриллюэну).
б)  Среднее количество информации, приходящееся на один символ.

Игорь Мостицкий (обсуждение) 13:52, 9 января 2026 (MSK)