图像的隐写程序。用MD5序列产生无碰撞的随机选择位来嵌入信息。
2021-11-28 21:42:44 392B 母小波
1
#define NUM 2 #define ZERO 0.000001 #define A 1000 int length; typedef struct { double px; //px概率值 double Fx; //fx函数值 double Fbax; //Fba(X)的值 int lx; //编码的长度 int code[A]; //存储二进制比特 }SFE;
2021-11-19 14:55:53 206KB SFE编码
1
AWGN信道中的码率与Shannon限 *
2021-11-15 02:39:36 329KB 信息论与编码
1
.zip 文件包含两个函数,分别命名为 JSDiv.m 和 KLDiv.m JSDiv.m 使用 KLDiv.m 计算 KL 散度。 有关分歧的更多信息,您可以查看以下内容:
2021-10-26 09:59:55 1KB matlab
1
香农代码的matlab 香农二进制编码matlab 使用MATLAB的Shannon编码过程查找二进制源代码的效率和冗余
2021-10-25 10:55:36 291KB 系统开源
1
香农代码的matlab Huffman code and Shannon code(哈夫曼码、香农码) matlab仿真。测试文本Steve_Jobs_Speech.txt 程序 主程序 main 为可执行脚本,直接运行即可得到原文对应的哈夫曼编码、香农编码,并得到全文的编码,进行编码译码验证 哈夫曼编码: Huffman : Huffman 函数用来对于给定数据进行哈夫曼编码 输入: list -- cell数组,第一列为不同的字符,第二列为对应出现在文本中的概率 输出: codeword -- cell数组,第一列为不同的字符,第二列为对应的概率,第三列为该字符的哈夫曼编码 Update : 函数 Update 为函数Huffman的子函数,用于更新数据 输入: codeword -- 各个不同字符对应的有待更新的码字 Pr -- 子节点还未合并的概率 group -- 需要更新的下标类 index -- 输入两个需要更改的group下标 输出: codeword -- 更新完后的码字 group -- 更新完后的下标分类 Pr -- 更新完后的概率 香农编码: Shannon
2021-10-21 21:56:39 12KB 系统开源
1
从CSDN上面学习的Shannon算法,原算法输入的是频数,无输出二叉树功能。 我在此基础上改正如下: 1.只需在MATLAB里面直接调用‘main()’函数,在括号里加上字母即可。 2.由于个人水平有限,自己编了一个稍微能看的函数,draw。通过定点延伸来显示二叉树。 另:新人第一次发。不足之处请各位多多包涵并提出。谢谢。
2021-09-24 08:57:12 646B MATLAB Shannon
1
A look at the Samsung Shannon Baseband——Marco Grassi.pdf
2021-08-21 19:00:38 9.4MB 安全
香农经典论文:通信的数学原理(A Mathematical Theory of Communication)
2021-07-30 16:24:49 401KB Shannon 通信
1
In this paper we propose a new image randomness measure using Shannon entropy over local image blocks. The proposed local Shannon entropy measure overcomes several weaknesses of the conventional global Shannon entropy measure, including unfair randomness comparisons between images of different sizes, failure to discern image randomness before and after image shuffling, and possible inaccurate scores for synthesized images. Statistical tests pertinent to this new measure are also derived. This new measure is therefore both quantitative and qualitative. The parameters in the local Shannon entropy measure are further optimized for a better capture of local image randomness. The estimated statistics and observed distribution from 50,000 experiments match the theoretical ones. Finally, two examples are given, applying the proposed measure to image randomness among shuffled images and encrypted images. Both examples show that the proposed method is more effective and more accurate than the global Shannon entropy measure
2021-07-17 17:54:16 3.81MB local Shannon entropy measure
1