BERT和RoBERTa在文本语义相似度等句子对的回归任务上,已经达到了SOTA的结果。但是,它们都需要把两个句子同时喂到网络中,这样会导致巨大的计算开销。这种结构使得BERT不适合语义相似度搜索,同样也不适合无监督任务(例如:聚类)。Sentence-BERT(SBERT)网络利用孪生网络和三胞胎网络结构生成具有语义意义的句子embedding向量,语义相近的句子其embedding向量距离就比较近,从而可以用来进行相似度计算(余弦相似度、曼哈顿距离、欧式距离)。这样SBERT可以完成某些新的特定任务,例如相似度对比、聚类、基于语义的信息检索。
2025-04-27 16:39:58 30.17MB bert 文本相似度 embedding
1
tencent-ailab-embedding-zh-d200-v0.2.0 原始40G的数据二进制转换文件,使用需要大量内存.
2025-04-08 16:27:38 391.85MB
1
基于PyTorch的Embedding和LSTM的自动写诗实验LSTM (Long Short-Term Memory) 是一种特殊的循环神经网络(RNN)架构,用于处理具有长期依赖关系的序列数据。传统的RNN在处理长序列时往往会遇到梯度消失或梯度爆炸的问题,导致无法有效地捕捉长期依赖。LSTM通过引入门控机制(Gating Mechanism)和记忆单元(Memory Cell)来克服这些问题。 以下是LSTM的基本结构和主要组件: 记忆单元(Memory Cell):记忆单元是LSTM的核心,用于存储长期信息。它像一个传送带一样,在整个链上运行,只有一些小的线性交互。信息很容易地在其上保持不变。 输入门(Input Gate):输入门决定了哪些新的信息会被加入到记忆单元中。它由当前时刻的输入和上一时刻的隐藏状态共同决定。 遗忘门(Forget Gate):遗忘门决定了哪些信息会从记忆单元中被丢弃或遗忘。它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 输出门(Output Gate):输出门决定了哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。同样地,它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 LSTM的计算过程可以大致描述为: 通过遗忘门决定从记忆单元中丢弃哪些信息。 通过输入门决定哪些新的信息会被加入到记忆单元中。 更新记忆单元的状态。 通过输出门决定哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。 由于LSTM能够有效地处理长期依赖关系,它在许多序列建模任务中都取得了很好的效果,如语音识别、文本生成、机器翻译、时序预测等。
2025-04-06 18:44:18 5.68MB
1
tencent-ailab-embedding-zh-d200-v0.2.0-s.txt 对应的二进制文件,在win11上编译,体积小且可以正常运行的
2024-11-13 19:37:14 61.1MB
1
深入PHP内核及扩展开发英文chm Extending.and.Embedding.PHP
2023-12-13 09:04:46 864KB Extending.and.Embedding.PHP
1
通往php之路的web高手必看之书,本人在研究了,如果你有兴趣就下来看看吧! 《advance php programming》 这本书是指导php开发的,注重实践,要有点C基础, 《extending and embedding php》 这本书是分析php源码,教你写扩展的,比较低层。 两本都是sams出版的极品,已转成PDF方便打印, 是英文版的,看清楚,原计原味噢 - -!
2023-10-11 09:01:29 6.67MB advance php programming extending
1
TriDNR 三方深度网络表示形式,发布于IJCAI 2016:1895-1901。 这些代码实现了TriDNR算法,该算法学习网络中每个节点的连续表示。 TriDNR从三个角度使用信息,包括节点结构,节点内容和节点标签(如果有),以共同学习最佳节点表示形式 该代码是使用gensim和DeepWalk软件包在Python中开发的。 所有必需的软件包都在requirements.txt中定义。 要安装所有要求,只需使用以下命令: pip install -r requirements.txt “ demo.py”中提供了一个演示,该演示运行并比较了几种算法 关于数据集:本文中有两个网络数据集,即DBLP和Citeseer-M10。 每个数据集包含3个文件: 1. docs.txt : title information of each node in a network, each
2023-02-25 14:46:19 2.52MB graph network-embedding graph-embedding Python
1
De-embedding Techniques in Advanced Design System, Keysight关于射频参数提取去嵌入技术非常好的介绍资料。
2023-02-03 09:11:01 2.96MB 去嵌入
1
Representation Learning on Networks 1) Node embeddings:Map nodes to low dimensional embeddings 2) Graph neural networks:Deep learning architectures for graph structured data 3) Applications
2023-01-01 15:26:42 1.69MB 图学习 人工智能 机器学习 深度学习
1
基于知识图嵌入的推荐系统 基于知识图嵌入的推荐系统 本系统是一个基于知识图嵌入的商品推荐系统,以下是该系统的详细介绍,基本代码都是自己所写,TransE和Rescal方法实现部分是照着论文与相关代码自己进行的复现,并且相关代码中都有我写的一些注释。 1.generate_data.py是用于生成模拟数据,在进行真实使用时可以参照所生成的模拟数据的格式进行数据录入 2.data文件夹下需要有entities.txt以及relations.txt两个数据,他们分别是实体(people和items)的名称以及索引号,以及关联的名称以及索引号,关联也可以有多种,然后该文件夹下还应该有train.txt,valid.txt和test.txt,作为模型训练的依托,其中的neg.txt可要可不要,这个文件并不参与模型的训练过程 3.dataset.py文件主要是模型训练中处理数据的代码,model.p
2022-11-21 21:20:29 1.77MB 系统开源
1