贝特维兹 BertViz是用于可视化Transformer模型中注意力的工具,支持库中的所有模型(BERT,GPT-2,XLNet,RoBERTa,XLM,CTRL等)。 它扩展了的以及的库。 资源资源 :joystick_selector: :writing_hand_selector: :open_book: 总览 正面图 头部视图可视化给定转换器层中一个或多个注意头产生的注意模式。 它基于出色的。 尝试此 其中已预加载了头部视图。 头部视图支持Transformers库中的所有模型,包括: BERT: GPT-2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 模型视图 模型视图提供了对模型所有层和头部的关注的鸟瞰图。 试用此 其中已预加载了模型视图。 模型视图支持Transformers库中的所有模型,包括: BERT: GPT2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 神经元视图 神经元视图将查询和键向量中的单个神经元可视化,并
1
PyTextRank PyTextRank是一个Python实现TextRank作为,用于: 从文本文档中提取排名靠前的短语 对文本文档进行低成本的提取摘要 帮助推断从非结构化文本到结构化数据的链接 背景 与的更普遍用法相比, PyTextRank的目标之一是(最终)为提供支持。 这些方法可以互补的方式一起使用,以改善总体结果。 图算法的引入-特别是-为集成其他技术以增强执行的自然语言工作提供了更加灵活和强大的基础。 此处的实体链接方面仍然是计划中的后续版本,正在进行中。 在内部PyTextRank构造一个引理图以表示候选短语(例如,无法识别的实体)及其支持语言之间的链接。 一般而言,在短语排名之前丰富该图的任何方法都将倾向于改善结果。 丰富引理图的可能方法包括共和,以及在一般情况下利用知识图。 例如, 和都提供了推断实体之间链接的方法,并且可以将特定目的的知识图应用于特定的用例。 即使在文本中链接不是明确的情况下,这些也可以帮助丰富引理图。 考虑一段用不同的句子提到cats和kittens的段落:这两个名词之间存在隐含的语义关系,因为外kitten是外cat -因此可以在它
1
C程序设计语言(第2版·新版) 原书+答案 The_C_Programming_Language 书为pdf格式非扫描版 高清 答案为pdf格式高清扫描版
1
氖 霓虹灯是一种实验性编程语言。它具有类似C的语法,并且可以轻松地与C / C ++互操作。 特征 变数 声明新变量: int i = 0 写变量: i = 5 读取变量: i = i + 5 可变范围 范围内定义的变量无法从该范围外访问 范围内被覆盖的变量在该范围之后再次可用 功能 声明函数: fun hello(float f) int { … } 调用函数: hello(3.14) 资料类型 整数(64位): int i = 0 浮点数(64位): float f = 0.0 布尔值(1位): bool b = true 大批支持以下原始数据类型的一维数组: int[5] a float[5] a bool[5] a 字符串string s = "Hello World!"字符串类型是托管的,这意味着字符串的长度与数据一起保存 链接外部目标文件 可以将目标文件与用Neon编写的
2021-06-01 21:56:25 120KB programming-language parser llvm lexer
1
随便语言编译器 使用python和ply库的休闲语言编译器 常用语言说明 -“休闲”中的注释以井号(#)开头,并在该行的末尾结束。 -休闲对空格不敏感 -一个程序由几个声明或定义组成 -声明包括函数名称,其参数和返回类型:decl max(a:Int,b:Int):Int -一个定义具有相同的内容,但也有一个对应于函数主体的块:def max(a:Int,b:Int):Int {如果a> b {返回a; } return b; } -一个块始终以大括号括起来,并以零个或多个语句为特征:-> return语句可以有或没有表达式(对于Void函数):return; 或返回1 +1; ->表达式是语句:1; 或f(3); -> if语句(至少)具有条件和(然后)块。 可选地,它们可以具有一个else块,由else关键字分隔。 -> while块具有与条件和块相似的结构。 ->变量声明需要一
2021-06-01 17:49:12 1KB
1
黄学东博士著作,介绍了到DNN出现之前的主流语音识别技术,增进对语音处理了解,实属居家旅行必备之良品
2021-06-01 14:30:07 9.64MB 语音处
1
凯拉斯·伯特 [| ] 实现。 可以加载官方的预训练模型以进行特征提取和预测。 安装 pip install keras-bert 用法 使用热身 下载预先训练的检查点 提取功能 外部链接 Kashgari是可用于文本标签和文本分类的生产就绪NLP转移学习框架 凯拉斯·阿尔伯特 加载官方预训练模型 在特征提取演示中,您应该能够获得与官方模型chinese_L-12_H-768_A-12相同的提取结果。 并且在预测演示中,可以预测句子中丢失的单词。 在TPU上运行 提取演示演示了如何转换为在TPU上运行的模型。 分类演示显示了如何将模型应用于简单的分类任务。 分词器 Tokenizer类用于拆分文本并生成索引: from keras_bert import Tokenizer token_dict = { '[CLS]' : 0 , '[SEP]' : 1
2021-05-31 20:20:47 1.22MB keras language-model bert Python
1
安装犀牛英文版的同志们需要的中文包,将其解压后把所有的xml文件复制粘贴到犀牛安装文件Syster/Language里面,在犀牛Tool/Option里面改成中文
2021-05-30 17:48:28 3.29MB 犀牛Language Packages
1
句子 这个存储库包含一个 R 包,它是一个围绕句子 C++ 库的 Rcpp 包装器 句子是一个无监督的分词器,它允许使用字节对编码和 Unigrams 执行文本分词 它基于论文SentencePiece: A simple and languagedependent subword tokenizer and detokenizer for Neural Text Processing [ ] 句子 C++ 代码可从。 这个包目前包含版本 v0.1.84 这个 R 包具有与 R 包类似的功能 特征 R 包允许您 构建字节对编码 (BPE)、Unigram、Char 或 Word 模型 应用模型对文本进行编码 应用模型将 id 解码回文本 下载基于维基百科的预训练句子模型 安装 对于普通用户,从本地 CRAN 镜像install.packages("sentencepiece")安装包
1
BERT的最好的朋友。 安装 Ernie需要Python 3.6或更高版本。 pip install ernie 微调 句子分类 from ernie import SentenceClassifier , Models import pandas as pd tuples = [( "This is a positive example. I'm very happy today." , 1 ), ( "This is a negative sentence. Everything was wrong today at work." , 0 )] df = pd . D
2021-05-28 15:48:32 201KB nlp natural-language-processing tensorflow keras
1