官方 wiki 提供了多种编辑器代码色彩/高亮方案codeblock
2021-06-07 13:25:16 115KB c++ c language
1
Twitter爬虫 描述 Twitter的API限制您查询用户的最新3200条推文。 这是一个痛苦的屁股。 但是,我们可以使用Selenium并进行一些网络抓取来规避此限制。 我们可以在Twitter上查询用户的整个时间,找到他们每个推文的ID。 从那里,我们可以使用tweepy API查询与每个tweet相关的完整元数据。 您可以通过更改scrape.py顶部的变量METADATA_LIST来调整收集哪些元数据。 就我个人而言,我只是收集文本来训练模型,因此,我只关心full_text字段,除了该推文是否为转推文。 我在scrape.py顶部列出了所有可用的tweet属性,以便您可以随意
1
问题描述】编写一个程序,输入N个用户的姓名和电话号码,按照用户姓名的词典顺序排列输出用户的姓名和电话号码。 【输入形式】用户首先在第一行输入一个正整数,该正整数表示待排序的用户数目,然后在下面多行输入多个用户的信息,每行的输入格式为:姓名 电话。以回车结束每个用户的输入。 【输出形式】程序输出排序后的结果。每行的输出结果格式也是: 姓名 电话。姓名和电话字段中间没有空格,要求用户姓名不能超过10个字符,超出10个字符时候只取前10个字符作为姓名。电话号码不能超过10位,超过10位时只按10位处理。输出姓名、电话字段各占12个字符宽,输出格式采用默认对齐方式。另外,用户的数量要求不超过50个。
2021-06-03 21:27:36 928B C language
1
贝特维兹 BertViz是用于可视化Transformer模型中注意力的工具,支持库中的所有模型(BERT,GPT-2,XLNet,RoBERTa,XLM,CTRL等)。 它扩展了的以及的库。 资源资源 :joystick_selector: :writing_hand_selector: :open_book: 总览 正面图 头部视图可视化给定转换器层中一个或多个注意头产生的注意模式。 它基于出色的。 尝试此 其中已预加载了头部视图。 头部视图支持Transformers库中的所有模型,包括: BERT: GPT-2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 模型视图 模型视图提供了对模型所有层和头部的关注的鸟瞰图。 试用此 其中已预加载了模型视图。 模型视图支持Transformers库中的所有模型,包括: BERT: GPT2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 神经元视图 神经元视图将查询和键向量中的单个神经元可视化,并
1
PyTextRank PyTextRank是一个Python实现TextRank作为,用于: 从文本文档中提取排名靠前的短语 对文本文档进行低成本的提取摘要 帮助推断从非结构化文本到结构化数据的链接 背景 与的更普遍用法相比, PyTextRank的目标之一是(最终)为提供支持。 这些方法可以互补的方式一起使用,以改善总体结果。 图算法的引入-特别是-为集成其他技术以增强执行的自然语言工作提供了更加灵活和强大的基础。 此处的实体链接方面仍然是计划中的后续版本,正在进行中。 在内部PyTextRank构造一个引理图以表示候选短语(例如,无法识别的实体)及其支持语言之间的链接。 一般而言,在短语排名之前丰富该图的任何方法都将倾向于改善结果。 丰富引理图的可能方法包括共和,以及在一般情况下利用知识图。 例如, 和都提供了推断实体之间链接的方法,并且可以将特定目的的知识图应用于特定的用例。 即使在文本中链接不是明确的情况下,这些也可以帮助丰富引理图。 考虑一段用不同的句子提到cats和kittens的段落:这两个名词之间存在隐含的语义关系,因为外kitten是外cat -因此可以在它
1
C程序设计语言(第2版·新版) 原书+答案 The_C_Programming_Language 书为pdf格式非扫描版 高清 答案为pdf格式高清扫描版
1
氖 霓虹灯是一种实验性编程语言。它具有类似C的语法,并且可以轻松地与C / C ++互操作。 特征 变数 声明新变量: int i = 0 写变量: i = 5 读取变量: i = i + 5 可变范围 范围内定义的变量无法从该范围外访问 范围内被覆盖的变量在该范围之后再次可用 功能 声明函数: fun hello(float f) int { … } 调用函数: hello(3.14) 资料类型 整数(64位): int i = 0 浮点数(64位): float f = 0.0 布尔值(1位): bool b = true 大批支持以下原始数据类型的一维数组: int[5] a float[5] a bool[5] a 字符串string s = "Hello World!"字符串类型是托管的,这意味着字符串的长度与数据一起保存 链接外部目标文件 可以将目标文件与用Neon编写的
2021-06-01 21:56:25 120KB programming-language parser llvm lexer
1
随便语言编译器 使用python和ply库的休闲语言编译器 常用语言说明 -“休闲”中的注释以井号(#)开头,并在该行的末尾结束。 -休闲对空格不敏感 -一个程序由几个声明或定义组成 -声明包括函数名称,其参数和返回类型:decl max(a:Int,b:Int):Int -一个定义具有相同的内容,但也有一个对应于函数主体的块:def max(a:Int,b:Int):Int {如果a> b {返回a; } return b; } -一个块始终以大括号括起来,并以零个或多个语句为特征:-> return语句可以有或没有表达式(对于Void函数):return; 或返回1 +1; ->表达式是语句:1; 或f(3); -> if语句(至少)具有条件和(然后)块。 可选地,它们可以具有一个else块,由else关键字分隔。 -> while块具有与条件和块相似的结构。 ->变量声明需要一
2021-06-01 17:49:12 1KB
1
黄学东博士著作,介绍了到DNN出现之前的主流语音识别技术,增进对语音处理了解,实属居家旅行必备之良品
2021-06-01 14:30:07 9.64MB 语音处
1
凯拉斯·伯特 [| ] 实现。 可以加载官方的预训练模型以进行特征提取和预测。 安装 pip install keras-bert 用法 使用热身 下载预先训练的检查点 提取功能 外部链接 Kashgari是可用于文本标签和文本分类的生产就绪NLP转移学习框架 凯拉斯·阿尔伯特 加载官方预训练模型 在特征提取演示中,您应该能够获得与官方模型chinese_L-12_H-768_A-12相同的提取结果。 并且在预测演示中,可以预测句子中丢失的单词。 在TPU上运行 提取演示演示了如何转换为在TPU上运行的模型。 分类演示显示了如何将模型应用于简单的分类任务。 分词器 Tokenizer类用于拆分文本并生成索引: from keras_bert import Tokenizer token_dict = { '[CLS]' : 0 , '[SEP]' : 1
2021-05-31 20:20:47 1.22MB keras language-model bert Python
1