High-Resolution Image Synthesis with Latent Diffusion Models机翻
2022-10-04 17:05:11 46KB CV 文字图像生成
1
多视图深度卷积神经网络进行高分辨率乳腺癌筛查 介绍 这是用于分类的模型的实现,如我们的论文。 该实现使用户可以通过将我们的预训练CNN模型应用于具有四个视图的标准筛查乳房X线检查中来获得BI-RADS预测。 作为此存储库的一部分,我们提供了一个示例考试(在images目录中)。 该模型在TensorFlow和PyTorch中均实现。 先决条件 巨蟒(3.6) TensorFlow(1.5.0)或PyTorch(0.4.0) NumPy(1.14.3) 科学(1.0.0) 枕头(5.1.0) 数据 要使用预训练模型,输入必须包含四张图像,每个视图一个(L-CC,L-MLO,R-CC,R-MLO)。 每个图像的大小必须为2600x2000像素。 提供的样本检查中的图像已经被裁剪为正确的尺寸。 如何运行代码 可用选项位于文件birads_prediction_tf.py或birads_p
2022-09-27 16:42:02 74.75MB tensorflow pytorch classification pretrained-models
1
9版英文版,作者Sheldon M.Ross。国外经典教材,包括古典概率,随机过程,排队论,和仿真知识。
2022-09-27 15:13:55 3.67MB 概率 排队论
1
McCullagh & Nelder, Generalised Linear Models, 2nd edition. Chapman & Hall, 1989.
2022-09-25 12:37:09 15.81MB Linear Model
1
国外大学的多径效应和多普勒频移讲解,详细解析了多径效应的原理,学习无线通信原理必看,内含matlab源码,实测有效
2022-09-16 11:43:33 1.09MB matlab 无线通信 多径效应 多普勒频移
1
nvidia jetson benchmarks测试时用到的模型
2022-08-19 12:05:13 235.91MB jetson benchmarks models
1
伯克利EE127/EE227AT教材,卡拉菲奥等大牛编写 教材课后题答案
2022-08-15 19:06:04 4.58MB 数学 最优化 机器学习
1
情境化主题模型 上下文化主题模型(CTM)是一系列主题模型,这些主题模型使用语言的预训练表示形式(例如BERT)来支持主题建模。有关详细信息,请参见论文: Bianchi,F.,Terragni,S.,Hovy,D.,Nozza,D.,&Fersini,E.(2021)。具有零镜头学习功能的跨语言情境主题模型。 EACL。 Bianchi,F.,Terragni,S.和Hovy,D.(2020年)。预培训是一个热门话题:上下文化文档嵌入可提高主题一致性 具有上下文嵌入的主题建模 我们的新主题建模系列支持许多不同的语言(即,HuggingFace模型支持的一种),并有两个版本: CombinedTM将上下文嵌入与旧的单词组合在一起,以使主题更连贯; ZeroShotTM是完成任务的理想主题模型,在该模型中,您可能在测试数据中缺少单词,并且,如果经过多语言嵌入训练,则可以继承多语言主题模型
2022-08-13 12:32:38 31.14MB nlp embeddings transformer topic-modeling
1
SpaCy官方中文模型已经上线( ),本项目『推动SpaCy中文模型开发』的任务已经完成,本项目将进入维护状态,后续更新将只进行bug修复,感谢各位用户长期的关注和支持。 SpaCy中文模型 为SpaCy提供的中文数据模型。模型目前还处于beta公开测试的状态。 在线演示 基于Jupyter notebook的在线演示在 。 特性 部分王小明在北京的清华大学读书这个Doc对象的属性信息: NER(新! ) 部分王小明在北京的清华大学读书这个Doc对象的NER信息: 开始使用 SpaCy(版本> 2)的基础知识。 系统要求 Python 3(也许支持python2,但未通过良好测试) 安装 下载模型 从页面下载模型( New!为中国地区的用户提供了加速下载的链接)。假设所下载的模型称为zh_core_web_sm-2.xxtar.gz 。 安装模型 pip install zh_core_web_sm-2.x.x.tar.gz 为了方便后续在Rasa NLU等框架中使用,需要再为这个模型建立一个链接,通过执行以下命令: spacy link zh_core_web_sm zh 运行完
1
本文描述了语言模型的发展历史,指出未来可能的发展方向。近年来,自然语言处理 (NLP) 领域发生了革命性的变化。由于预训练语言模型的开发和应用,NLP 在许多应用领域取得了显著的成就。预训练语言模型有两个主要优点。一、它们可以显著提高许多自然语言处理任务的准确性。例如,可以利用 BERT 模型来实现比人类更高的语言理解性能。我们还可以利用 GPT-3 模型生成类似人类写的文章。预训练语言模型的第二个优点是它们是通用的语言处理工具。在传统的自然语言处理中,为了执行机器学习任务,必须标记大量数据来训练模型。相比之下,目前只需要标记少量数据来微调预训练语言模型,因为它已经获得了语言处理所需的大量知识。 本文从计算机科学的发展历史和未来趋势的角度简要介绍语言建模,特别是预训练语言模型,对 NLP 领域的基本概念、直观解释、技术成就和面临的挑战展开了综述,为初学者提供了关于预训练语言模型的参考文献。 自然语言处理是计算机科学(CS)、人工智能(AI)和语言学的一个交叉领域,包括机器翻译、阅读理解、对话系统、文本摘要、文本生成等应用。近年来,深度学习已成为自然语言处理的基础技术。 借助数学知识
2022-07-25 09:07:00 1.38MB NLP
1