حد آنتروپی (Limit of Entropy)، در ریاضیات (Mathematics)
انواع حد (Limit) را در آموزش زیر شرح دادیم :
حد آنتروپی (Limit of Entropy) :
حد آنتروپی (Limit of Entropy) در نظریه اطلاعات و ترمودینامیک بررسی می شود. در نظریه اطلاعات، آنتروپی یک متغیر تصادفی گسسته
\[ H(X) = -\sum p(x) \log p(x) \]است. حد آنتروپی وقتی تعداد حالات به بی نهایت می رود، می تواند به بی نهایت میل کند، مگر اینکه توزیع احتمال به درستی مقیاس دهی شود.
نرخ آنتروپی (entropy rate) یک فرآیند تصادفی پایا به صورت زیر تعریف می شود:
\[ H(\mathcal{X}) = \lim_{n \to \infty} \frac{1}{n} H(X_1, X_2, \dots, X_n) \]برای مثال، نرخ آنتروپی یک زنجیر مارکف پایا به آنتروپی شرطی توزیع مانا همگراست.
در ترمودینامیک، آنتروپی یک سیستم ماکروسکوپی در حد ترمودینامیکی رفتاری همگن دارد. آنتروپی بر ذره
\[ S/N \]در این حد به یک مقدار ثابت همگراست.
حد آنتروپی در نظریه ی کدگذاری منبع (Source Coding Theorem) مشخص می کند که حداقل نرخ بیت برای فشرده سازی بدون اتلاف یک منبع، همان نرخ آنتروپی است.