Entropy
Материал из Encyclopedia Electronica
[ˈentrəpɪ]
(от греч. entropia «поворот, превращение»)
энтропия
а) Мера внутренней неупорядоченности ИС (Information System), например, Интернета (Internet). Энтропия увеличивается при хаотическом распределении информационных ресурсов в сетевом пространстве и уменьшается при упорядочении. Интересно, что сама информация (без учёта распределения в пространстве) обладает отрицательной энтропией и может быть определена как мера упорядоченности материальных систем (по Л. Бриллюэну).
б) Среднее количество информации, приходящееся на один символ.
— Игорь Мостицкий (обсуждение) 13:52, 9 января 2026 (MSK)
