信息论中关于信息量概念的问题假设信源X发出的消息符号集合为{1,2,3},且是随机的.信源y的消息符号集合也是{1,2,3},但是是如下有规律的排列:1,2,3,1,2,3,1,2,3……,信源y比信源x有规律,按照

来源:学生作业帮助网 编辑:作业帮 时间:2024/04/30 13:28:38
信息论中关于信息量概念的问题假设信源X发出的消息符号集合为{1,2,3},且是随机的.信源y的消息符号集合也是{1,2,3},但是是如下有规律的排列:1,2,3,1,2,3,1,2,3……,信源y比信源x有规律,按照

信息论中关于信息量概念的问题假设信源X发出的消息符号集合为{1,2,3},且是随机的.信源y的消息符号集合也是{1,2,3},但是是如下有规律的排列:1,2,3,1,2,3,1,2,3……,信源y比信源x有规律,按照
信息论中关于信息量概念的问题
假设信源X发出的消息符号集合为{1,2,3},且是随机的.信源y的消息符号集合也是{1,2,3},但是是如下有规律的排列:1,2,3,1,2,3,1,2,3……,信源y比信源x有规律,按照道理说每个消息符号的信息量比x要小,但是根据公式 I(a)=-log p(a),信源x的消息每一个消息符号所含的消息量和信源y的每个消息符号所含的信息量是一样的.
请问是怎么回事?

信息论中关于信息量概念的问题假设信源X发出的消息符号集合为{1,2,3},且是随机的.信源y的消息符号集合也是{1,2,3},但是是如下有规律的排列:1,2,3,1,2,3,1,2,3……,信源y比信源x有规律,按照
这是一个概念性的问题.信息量也就是熵是一个建立在随机型性基础上的概念.信息量是随机性大小的度量.信源X是随机,可以认为信源X发出符号1,2 ,3的概率都是1/3,即可以按公式I(a)=-log p(a)来计算.但是 信源y是一个确定的信源,t=0时刻发1,t=1时刻发2,t=2时刻发3等等,这是有规律可循的,随机性为0,即信源y是确定的,它的信源熵为0,不能提供任何信息,信息量为0!所以信源x的消息每一个消息符号所含的消息量大于信源y的每个消息符号所含的信息量(信源y的每个消息符号所含的信息量为0)

信息论中关于信息量概念的问题假设信源X发出的消息符号集合为{1,2,3},且是随机的.信源y的消息符号集合也是{1,2,3},但是是如下有规律的排列:1,2,3,1,2,3,1,2,3……,信源y比信源x有规律,按照 关于信息论的问题 通信原理问题具有怎样概率密度函数的连续信源能产生最大平均信息量 信息论有关哈夫曼编码的问题字符集合s={s1,s2,s3,s4,s5,s6,s7};p={0.20,0.19,0.18,0.17,0.15,0.10,0.01}(其中,p 为s中各信源出现的频率).用上述信源概率分布构造二元的Huffman编码.用matlab 求教:信息论中关于疑义度H(XlY)与噪声熵H(YlX)该如何理解H(X/Y)是已表示收到变量Y后,对随机变量X仍然存在的不确定度.那为什么说他是损失的信息量,如果这样的话,那么I(X;Y)表示了什么(老师 信源编码的目的是什么?与信道编码的区别与联系是什么?为什么信源编码可以减少信源的剩余度?信息论 信息论中,为什么熵越大信息量越小?据说:在信息论中,熵可用作某事件不确定度的量度.信息量越大,体系结构越规则,功能越完善,熵就越小.但是:一个东西越混乱,描述它所需的信息量不是越大 这个信息论观点?一张清明上河图的信息量不如一张纯净天空含的信息量多是怎么回事? 信息论 信息量 信息熵信息论是否先验的认为信息量、信息熵等可以表明事物的信息的“多少”,并通过一系列的极值等方式来得到定理? 信息论基础...二元信源 信息熵 计算公式.不是联合熵。最好有图片形式的公式。写log时不必写底。 信息论 关于熵的单位问题哪些直接后面是 比特 单位的 哪些后面要带 比特/符号 单位?比如I(x)和H(x)有的后面是比特单位,有的是比特/符号单位 电力企业管理学:X理论关于人性问题的假设. 关于大学物理中加速度概念的两个问题 关于信息一词的解释这个是初中信息书上的问题额,我想问一下在《辞海》、《中国大百科全书》里对信息的解释是什么?还有信息论奠基人之一香农、控制论奠基人维纳、我国信息论专家钟 35. 等概率随机事件的信源信息的熵如何计算?如信源X中有8个随机事件,即n=8.每一个随机事件的概率都相 关于元素概念的问题 信息论的创始人是谁? 香农信息论的发展趋势