本课件是对论文 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 的导读与NLP领域经典训练模型 Bert 的详解,通过介绍NLP领域对通用语言模型的需求,引入 Bert 模型,并对其架构进行宏观微观的解读,然后详细介绍 Bert 每训练阶段采用的两个任务,以及常见的微调下游任务场景。最后通过可视化的方式,给出 Bert 在向量表征上的优势所在。
2024-05-01 14:14:23 3.03MB 自然语言处理 bert transformer 预训练模型
1
solaris10上已经编译完成的gcc8.5.0以及cmake等工具
2024-04-25 12:34:21 573.67MB gcc solaris10 cmake
1
该文件是训练CR-GAN项目所需的训练模型,该模型如果不下载则不能跑项目!
2024-04-13 20:48:53 55.08MB pytorch 预训练模型
1
采用窄相关技术和双△相关技术,对BPSK(1)信号和BOC(1,1)信号在不同相关带宽和不同相关器间隔时的平均加权多径误差包络进行了仿真,提取了多径误差典型值。结果表明,随着相关器间隔的减小,多径误差逐渐减小,但当相关器间隔为0.1个码片时,多径误差的减小已不明显;多径误差并不是随着相关带宽的增大一直减小,而是有一个最小值。
2024-04-11 14:33:37 264KB 工程技术 论文
1
Wav2lip训练模型,包含人脸检测模型、wav2lip生成模型、wav2lip_gan生成模型、wav2lip判别模型等,使用此模型通过音频驱动视频,生成最终的嘴型与语音的匹配
2024-04-08 13:17:50 973.73MB 视频生成
1
在发射器和接收器处采用多个天线将探索额外的空间资源,以利用空分多址(SDMA)技术在系统吞吐量中提供可观的收益。 最佳多用户MIMO线性编码被认为是多用户MIMO研究领域的关键问题。 在这种多用户系统中的挑战是设计编码向量以最大化系统容量。 提出了一种基于粒子群算法的带LMMSE检测的最优多用户MIMO线性编码方案。 所提出的方案旨在通过线性编码和线性检测来最大化多用户MIMO系统的系统容量。 本文探讨了一种简化的函数来解决最优问题。 采用粒子群优化算法,可以根据简化函数容易地找到最优线性编码向量。 与基于信道块对角化方法的多用户MIMO线性编码方案相比,该方案提供了显着的性能改进。
2024-04-08 09:43:31 786KB Block
1
glove.6B.100d.zip 是一个常见的数据集,其中包含训练的GloVe词向量模型。该数据集提供了包含100维向量的大型单词向量集合,这些向量是在大规模文本语料库上使用GloVe算法训练得到的。
2024-04-07 23:24:06 128.08MB 数据集
1
通信知识之加重与去加重.加重(Pre-emphasis):发送端对输入信号高频分量的提升。 去加重(De-emphasis) :解调后对高频分量的压低。
2024-03-22 09:54:15 28KB
1
xilin dpd 资料,是学习和使用失真非常宝贵的资料,值得收藏
2024-03-19 17:17:20 2.12MB
1
1、修改模型路径(下载到你电脑上的路径) 2、文件 data 路径下,支持 Excel(需要测的列名为 “sent”)。 3、运行 sentiment.py,生成结果在 result 文件夹。
2024-03-11 22:16:33 16KB 自然语言处理 文本情感分析
1