Entropy is computed from character frequency and shown in bit/char
Enter text to see the result
香农熵计算器是一款实用的在线工具,旨在帮助用户快速计算任意文本或数据序列的信息熵。信息熵是衡量信息源不确定性或随机性的一个关键指标,值越高表明信息内容越不可预测,包含的信息量也越大。本工具通过分析输入数据中各个符号(如字符、字节)的出现频率,依据香农熵公式精确计算出其熵值,为数据分析、压缩算法评估、密码强度分析等提供有价值的参考。
香农熵(Shannon Entropy)的数学公式表示为:
H(X) = - Σ [ P(x_i) * log₂(P(x_i)) ]
H(X):表示信息源 X 的熵值。Σ:求和符号,对所有可能的符号进行求和。x_i:信息源中第 i 个可能的符号。P(x_i):符号 x_i 出现的概率。log₂:以 2 为底的对数,表示信息量以“比特”(bit)为单位。该公式计算的是每个符号信息量的期望值,即平均信息量。
以下是一些不同输入数据的香农熵计算示例:
AAAAA
0.00 比特/符号ABCDE
2.32 比特/符号 (近似值)Hello World!
2.72 比特/符号 (近似值)0101010101010101
1.00 比特/符号No comments yet
Be the first to leave a comment!
No changelog yet