皮托伯特 使用PyTorch TransformerEncoder和预训练模型的BERT实现。 安装 pip install pytorch-bert 用法 config = BertConfig . from_json ( "path-to-pretarined-weights/bert_config.json" ) model = Bert ( config ) load_tf_weight_to_pytorch_bert ( model , config , "path-to-pretarined-weights/bert_model.ckpt" ) 将模型文件下载到存储库中。
2021-09-24 00:19:13 18KB nlp machine-learning python3 pytorch
1
灾难响应管道项目:webapp 指数 一个自然语言处理(NLP)项目,用于对灾难期间发送的消息的上下文进行分类。 该项目是我的Udacity数据科学家纳米学位的一部分。 此回购是关于webapp的,可以在这里找到: : 此外,还有,可以将其克隆并部署在另一台服务器上。 数据由。 你可以在看看。 它主要由文本消息和相应灾难的分类(例如,地震,火灾,地震等)组成。 该数据可用于训练文本分类器。 app:包含部署所需文件的文件夹: run.py:启动应用程序并加载ML模型以及绘图可视化效果的Python脚本。 train_classifier.py:训练分类器的脚本(对于webapp而言不是必需的) classifier.pkl:分类器的pickle文件。 template => master.html:此仪表板的“索引”页面。 templates => go.html:显示
2021-09-05 13:53:09 25.21MB python heroku nlp machine-learning
1
零售产品分类 该项目有助于将零售产品分类。 尽管在此示例中,类别按层次结构进行了结构,但为简单起见,我将所有子类别都视为顶级类别。 该项目中使用的主要软件包是: , 和 。 您可以在阅读解释该项目的文章。 您将需要Python3 +才能使用此项目。 安装 1.下载 现在,您需要在工作空间中使用text-classification-python项目文件: $ git clone https://github.com/joaorafaelm/text-classification-python ; $ cd text-classification-python ; 2. Virtuale
2021-08-30 14:36:10 7.16MB python nlp machine-learning scraper
1
图像字幕 CNN-LSTM神经网络,用于从图像生成字幕。 基于我为计算机视觉决赛所做的小组项目
1
| | | :party_popper: :party_popper: :party_popper: 我们发布了带有TF2支持的2.0.0版本。 :party_popper: :party_popper: :party_popper: 如果您将此项目用于研究,请引用: @misc{Kashgari author = {Eliyar Eziz}, title = {Kashgari}, year = {2019}, publisher = {GitHub}, journal = {GitHub repository}, howpublished = {\url{https://github.com/BrikerMan/Kashgari}} } 总览 Kashgari是一个简单而强大的NLP Transfer学
1
释义张量流 Tensorflow(1.1.0)中实现了多种用于复述的模型和代码。 我非常小心地记录了代码,并解释了整个模型中各个步骤的操作。 希望对于那些想开始使用Tensorflow的人来说,这将是一个教学示例代码! 到目前为止,此仓库已实现: 基本的暹罗LSTM基准,大致基于的模型 如所述,带有附加“匹配层”的Siamese LSTM模型 。 的或多或少的最新的双边多视角匹配模型 。 欢迎添加更多模型/优化或修补现有模型的公关! 模型代码的大部分位于 很多数据处理代码都来自受其启发,如果您喜欢此项目的结构,请检查一下它们! 安装 该项目是在Python 3.5中开发
2021-06-30 21:38:50 91KB nlp machine-learning deep-learning tensorflow
1
LTP 4 LTP(Language Technology Platform) 提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。 If you use any source codes included in this toolkit in your work, please kindly cite the following paper. The bibtex are listed below: @article{che2020n, title={N-LTP: A Open-source Neural Chinese Language Technology Platform with Pretrained Models}, author={Che, Wanxiang and Feng, Yunlong and Qin, Li
1
贝特维兹 BertViz是用于可视化Transformer模型中注意力的工具,支持库中的所有模型(BERT,GPT-2,XLNet,RoBERTa,XLM,CTRL等)。 它扩展了的以及的库。 资源资源 :joystick_selector: :writing_hand_selector: :open_book: 总览 正面图 头部视图可视化给定转换器层中一个或多个注意头产生的注意模式。 它基于出色的。 尝试此 其中已预加载了头部视图。 头部视图支持Transformers库中的所有模型,包括: BERT: GPT-2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 模型视图 模型视图提供了对模型所有层和头部的关注的鸟瞰图。 试用此 其中已预加载了模型视图。 模型视图支持Transformers库中的所有模型,包括: BERT: GPT2: XLNet: RoBERTa: XLM: 阿尔伯特: DistilBERT: (和别的) 神经元视图 神经元视图将查询和键向量中的单个神经元可视化,并
1
PyTextRank PyTextRank是一个Python实现TextRank作为,用于: 从文本文档中提取排名靠前的短语 对文本文档进行低成本的提取摘要 帮助推断从非结构化文本到结构化数据的链接 背景 与的更普遍用法相比, PyTextRank的目标之一是(最终)为提供支持。 这些方法可以互补的方式一起使用,以改善总体结果。 图算法的引入-特别是-为集成其他技术以增强执行的自然语言工作提供了更加灵活和强大的基础。 此处的实体链接方面仍然是计划中的后续版本,正在进行中。 在内部PyTextRank构造一个引理图以表示候选短语(例如,无法识别的实体)及其支持语言之间的链接。 一般而言,在短语排名之前丰富该图的任何方法都将倾向于改善结果。 丰富引理图的可能方法包括共和,以及在一般情况下利用知识图。 例如, 和都提供了推断实体之间链接的方法,并且可以将特定目的的知识图应用于特定的用例。 即使在文本中链接不是明确的情况下,这些也可以帮助丰富引理图。 考虑一段用不同的句子提到cats和kittens的段落:这两个名词之间存在隐含的语义关系,因为外kitten是外cat -因此可以在它
1
语音情感分析仪 基于长期短期记忆(LSTM)网络的语音情感分析器。 该模型可以有效地分析愤怒,厌恶,恐惧,幸福,中立,悲伤和惊奇的7种基本情绪。 在多伦多情感言语集(TESS)数据集上进行了培训。 这对模型的可推广性造成了一些固有的限制。 由于TESS目前只有两名女性配音演员,并且在录音室中进行录制,因此该模型无法与直接制作相提并论。 该代码在jupyternotebook文件中,并且记录充分。
1