Yolov10训练模型
2024-06-27 18:48:46 241.73MB
1
yolov10的训练权重,以及yolov10的训练测试程序 。包含yolov10的训练和测试代码和yolov10的官方训练权重,权重包含yolov10所有训练权重,文件包含yolov10b.pt、yolov10l.pt、yolov10m.pt、yolov10n.pt、yolov10s.pt、yolov10x.pt、yolov10-main.zip。
2024-06-27 17:26:18 243.11MB 神经网络
1
文字分类 文本分类(文本分类)是自然语言处理中的一个重要应用技术,根据文档的内容或主题,自动识别文档所属的先定义的类别标签。文本分类是很多应用场景的基础,某些垃圾邮件识别,舆情分析,情感识别,新闻自动分类,智能客服机器人的合并分类等等。此处分为两个部分: 第1部分:基于scikit学习机器学习的Python库,对比几个传统机器学习方法的文本分类 第2部分:基于训练词向量模型,使用Keras工具进行文本分类,用到了CNN 本文语料:,密码:P9M4。更多新闻标注语料,。 训练词向量模型来自,下载地址: 。 第1部分:基于scikit-learn机器学习的文本分类方法 基于scikit-
2024-06-24 14:49:13 208KB python nlp machine-learning deep-learning
1
IEC62055-41 电能表付费系统-标准传输规范(STS) 中文版.pdf
2024-06-24 10:47:00 2.23MB IEC62055-41
1
本设计采用40106作为振荡电路,由74LS192、74LS47D和七段共阴LED数码管构成计时电路,具有开始/置、暂停/继续计时和报警功能。 另外还提供其变体电路,它由74LS192、4511和七段共阳LED数码管构成。
2024-06-15 15:10:43 1.98MB
ERNIE 3.0中文训练模型进行MSRA序列标注 文章链接:https://blog.csdn.net/sinat_39620217/article/details/125071909?csdn_share_tail=%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22125071909%22%2C%22source%22%3A%22sinat_39620217%22%7D&ctrtid=UfDbk
2024-06-06 14:22:35 2KB 文档资料
1
该存储库包含大规模训练对话响应生成模型的源代码和训练模型。 人工评估结果表明,在单圈对话图灵测试下,DialoGPT产生的响应与人工响应质量相当。 最先进的大规模训练响应生成模型(DialoGPT)此存储库包含大规模训练对话响应生成模型的源代码和训练模型。 人工评估结果表明,在单圈对话图灵测试下,DialoGPT产生的响应与人工响应质量相当。 该存储库基于拥抱面pytorch-transformer和OpenAI GPT-2,包含数据提取脚本,模型训练代码
2024-05-27 19:33:00 46.05MB Python Natural Language Processing
1
单片机proteus仿真实例,包含很多实例,内有DSN文件和keil程序,可直接使用。 单片机Proteus仿真实例是学习单片机设计的一种非常有效的方法。通过Proteus仿真软件,我们可以模拟单片机的运行情况,验证硬件电路的功能和程序的正确性。 以下是一个简单的单片机Proteus仿真实例,以51单片机为例: 打开Proteus软件,创建一个新的电路图。 在电路图中添加51单片机,并添加适当的电源和接地线。 添加一个按键和LED灯,分别连接到单片机的GPIO引脚上。 编写一个简单的程序,用于检测按键的状态,并控制LED灯的亮灭。 将程序编译成可执行文件,并在Proteus中加载。 运行电路图,观察仿真结果是否符合期。 在仿真的过程中,我们可以实时观察单片机的运行状态,查看各个引脚的电平变化,以及输入和输出设备的状态。通过这个过程,我们可以更好地理解单片机的运行机制和硬件电路的设计原理。
2024-05-25 10:41:55 80KB proteus proteus仿真
1
本课件是对论文 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 的导读与NLP领域经典训练模型 Bert 的详解,通过介绍NLP领域对通用语言模型的需求,引入 Bert 模型,并对其架构进行宏观微观的解读,然后详细介绍 Bert 每训练阶段采用的两个任务,以及常见的微调下游任务场景。最后通过可视化的方式,给出 Bert 在向量表征上的优势所在。
2024-05-01 14:14:23 3.03MB 自然语言处理 bert transformer 预训练模型
1
solaris10上已经编译完成的gcc8.5.0以及cmake等工具
2024-04-25 12:34:21 573.67MB gcc solaris10 cmake
1