信息熵原理与Python实现
admin
2024-04-03 15:59:43
0

信息熵理论

熵原理

  • 是个物理名词,最初是从平衡态热力学中总结出来的,它表述为热量与绝对温度变化的商。它标志着热量转化为功的程度,泛指某些物质系统状态的一种量度。
    • 熵是物质系统混乱度的度量,在统计物理中,有如下关系式:S=Kln⁡ΩS = K\ln{\Omega }S=KlnΩ
    • 这就是著名的玻尔兹曼关系式,KKK是玻尔兹曼常数,Ω\OmegaΩ是系统的微观状态数,在宏观条件不变的情况下,由大量粒子(原子、分子)构成的系统中,熵就表示粒子之间无规则的排列程度,或者说,表示系统的紊乱程度,当系统处于平衡时,微观状态数越多,系统越“混乱”,熵就越大,否则,熵就越小。
    • 从微观意义上讲,熵是物质系统无序性混乱度的量度。玻尔兹曼关系式被称为只有牛顿运动定律和爱因斯坦质能关系式才能与之媲美的公式,这就是统计力学熵
  • 信息是表示事物存在状态及运动体系的确定程度。它只有在相互作用的时候才能表现出来,通过它的运动状态,人们可以对它的状态进行表示。人们通过各种探测工具来提取信息,然后运用这些信息来对事物的存在状态进行度量也就是通过熵的形式对信息进行量化和度量。
    • 1929年,甸牙利科学家斯依兰德(L Szilard)提出了熵与信息不确定性的关系,进一步拓宽了熵的内涵。
    • 1948年,贝尔实验室的香农(C Shannon) 对前人的成果予以总结,强调了“信息量”这个概念。阐述了许多重要定理,把信息熵与统计力学熵概念相联系,把信息定理看作热力学第二定律在通信理论中的特殊形式,使信息熵成为信息论的一个正统的分支。

信息熵

  1. 信息熵:Shannon把信息量作为信息论的中心概念,信息中排除了冗余后的平均信息量称为“信息熵”,即香农熵。

  2. 单个离散随机变量XXX的熵H(X)H(X)H(X)的是对其平均不确定度的度量

    • 信息熵1的计算公式:H(X)=−∑xi∈Θp(xi)log⁡p(xi)=−E[log⁡p(xi)]H(X)=-\sum_{x_{i} \in \Theta} p\left(x_{i}\right) \log p\left(x_{i}\right)=-E\left[\log p\left(x_{i}\right)\right]H(X)=−∑xi​∈Θ​p(xi​)logp(xi​)=−E[logp(xi​)]
    • XXX代表取值于Θ\ThetaΘ的随机变量
    • 概率质量函数p(xi)=Pr{X=xi},xi∈Θp(x_{i})=P_{r}\left\{X=x_{i}\right\},x_{i}\in \Thetap(xi​)=Pr​{X=xi​},xi​∈Θ
    • EEE代表期望算子
    • 显然当p=0p=0p=0时,这里有plog⁡p=0p\log{p}=0plogp=0
  3. 对于随机事件XXX,其信息熵的计算公式为:H(X)=−∑i=1npilog⁡piH(X)=-\sum_{i=1}^{n} p_{i} \log{p_{i}}H(X)=−∑i=1n​pi​logpi​

    • 用nnn代表XXX的不同种离散取值,i=1,2,3,…,ni=1,2,3,\dots,ni=1,2,3,…,n
    • pip_{i}pi​代表事件xix_{i}xi​发生的概率
    • logloglog代表以222或eee为底的对数
  4. 三个性质

    • 单调性,发生概率越高的事件,其携带的信息量越低;
    • 非负性,信息熵可以看作为一种广度量,非负性是一种合理的必然;
    • 累加性,即多随机事件同时发生存在的总不确定性的量度是可以表示为各事件不确定性的量度的和,这也是广度量的一种体现。

Python实现

import math
import numpy as np
from collections import Counterdef Entropy(X):"""计算离散型变量的信息熵/香农熵, 信息熵越大, 数据的不确定性越大Parameters----------X : {ndarray} of (n_samples,)DataReturns-------entropy : floatEntropy of X"""counts = len(data) # 总数据量counter = Counter(data) # 每个离散变量出现的次数prob = [i[1]/counts for i in counter.items()] #计算每个随机变量发生的概率的pshannon = - sum([i*math.log(i) for i in prob]) # 计算信息熵return shannon
data = np.array([2,3,4,1,1,3,4,5,6,2,1,3,4,5,5,6,7,3,2,4,4,2])
shannon_entropy = Entropy(data)
print("信息熵为:", shannon_entropy)
>>> 信息熵为: 1.8585191558920355

  1. Shannon C E, A mathematical theory of communication, The Bell System Technical Journal, 1948, 27(3): 397–423. ↩︎

相关内容

热门资讯

【MySQL】锁 锁 文章目录锁全局锁表级锁表锁元数据锁(MDL)意向锁AUTO-INC锁...
【内网安全】 隧道搭建穿透上线... 文章目录内网穿透-Ngrok-入门-上线1、服务端配置:2、客户端连接服务端ÿ...
GCN的几种模型复现笔记 引言 本篇笔记紧接上文,主要是上一篇看写了快2w字,再去接入代码感觉有点...
数据分页展示逻辑 import java.util.Arrays;import java.util.List;impo...
Redis为什么选择单线程?R... 目录专栏导读一、Redis版本迭代二、Redis4.0之前为什么一直采用单线程?三、R...
【已解决】ERROR: Cou... 正确指令: pip install pyyaml
关于测试,我发现了哪些新大陆 关于测试 平常也只是听说过一些关于测试的术语,但并没有使用过测试工具。偶然看到编程老师...
Lock 接口解读 前置知识点Synchronized synchronized 是 Java 中的关键字,...
Win7 专业版安装中文包、汉... 参考资料:http://www.metsky.com/archives/350.htm...
3 ROS1通讯编程提高(1) 3 ROS1通讯编程提高3.1 使用VS Code编译ROS13.1.1 VS Code的安装和配置...
大模型未来趋势 大模型是人工智能领域的重要发展趋势之一,未来有着广阔的应用前景和发展空间。以下是大模型未来的趋势和展...
python实战应用讲解-【n... 目录 如何在Python中计算残余的平方和 方法1:使用其Base公式 方法2:使用statsmod...
学习u-boot 需要了解的m... 一、常用函数 1. origin 函数 origin 函数的返回值就是变量来源。使用格式如下...
常用python爬虫库介绍与简... 通用 urllib -网络库(stdlib)。 requests -网络库。 grab – 网络库&...
药品批准文号查询|药融云-中国... 药品批文是国家食品药品监督管理局(NMPA)对药品的审评和批准的证明文件...
【2023-03-22】SRS... 【2023-03-22】SRS推流搭配FFmpeg实现目标检测 说明: 外侧测试使用SRS播放器测...
有限元三角形单元的等效节点力 文章目录前言一、重新复习一下有限元三角形单元的理论1、三角形单元的形函数(Nÿ...
初级算法-哈希表 主要记录算法和数据结构学习笔记,新的一年更上一层楼! 初级算法-哈希表...
进程间通信【Linux】 1. 进程间通信 1.1 什么是进程间通信 在 Linux 系统中,进程间通信...
【Docker】P3 Dock... Docker数据卷、宿主机与挂载数据卷的概念及作用挂载宿主机配置数据卷挂载操作示例一个容器挂载多个目...