可调电子时钟程序说明: 上机测试请用杜邦线将时钟模块的TSCLK,TIO,TRST,分别对应连接到P33,P34,P35, 连接方式不能与按键,串行通讯口,显示用的数据口相冲突,可自己在程序上方sbit的位置进行修改。 单片机复位后会先检测年份是否是2017年,不是就会复位1302,是2017年就不初始化1302。 S2是设置键,在任何时候按下超过2MS都可以进入设置函数。 S3在正常走时时按下,会显示日期,日期格式是2017.10.03;松开S3后日期会延时显示约6秒。 在设置功能里面,S3是数字减,S4是数字加。设置功能会在没有按下按键后开始延时,延时约6秒 即可退出设置。 S2设置的顺序是秒,分,时,日,月,年,退出,秒,分,。。。。循环,未按按键会自动退回到主界面 本程序上只要稍加一点改动即可加入闹钟,有兴趣的朋友可以自己修改。
2022-05-07 13:58:32 295KB 单片机 电路方案
1
BertSum 该代码是针对纸质Fine-tune BERT for Extractive Summarization ( ) !新:请查看我们的其中包含受过训练的模型 CNN / Dailymail的结果(25/3/2019): 楷模 ROUGE-1 ROUGE-2 ROUGE-L 变压器基线 40.9 18.02 37.17 BERTSUM +分类器 43.23 20.22 39.60 BERTSUM +变压器 43.25 20.24 39.63 BERTSUM + LSTM 43.22 20.17 39.59 Python版本:此代码在Python3.6中 软件包要求:pytorch pytorch_pretrained_bert tensorboardX多进程pyrouge 一些代码是从ONMT借来的( ) CNN / Dailymail
2022-05-06 20:58:07 14.99MB Python
1
SWA简单来说就是对训练过程中的多个checkpoints进行平均,以提升模型的泛化性能。记训练过程第i ii个epoch的checkpoint为w i w_{i}w i ​ ,一般情况下我们会选择训练过程中最后的一个epoch的模型w n w_{n}w n ​ 或者在验证集上效果最好的一个模型w i ∗ w^{*}_{i}w i ∗ ​ 作为最终模型。但SWA一般在最后采用较高的固定学习速率或者周期式学习速率额外训练一段时间,取多个checkpoints的平均值。 原文链接:https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/124414939
2022-04-26 10:05:53 23.55MB 源码软件
在excel电子表格内,通过微调控件,调整年月后,考勤表内日期自动变动,利用条件格式,自动标注周六日,以示区别。表可以根据自己情况加以调整,
2022-04-13 12:03:50 254KB excel 电子表格
1
T5自然问题 T5 for NQ是针对自然问题的文本到文本的问答。 它使用自然问题(NQ)数据集对T5模型进行微调,该数据集旨在使用实际用户问题和注释者从Wikipedia中找到的相应答案来训练和评估自动QA系统。 安装 克隆仓库,然后进入目录。 运行pip install -e . 。 数据集 要下载数据集,请首先 。 因此,创建目录data/natural-questions/并使用以下格式下载原始格式的完整数据集(而不是简化的训练集): gsutil -m cp -R gs://natural_questions/v1.0 data/natural-questions 用法 为实验配置所有超参数,以编辑params.yaml 。 因此,请继续: python src/main.py -c params.yaml
2022-02-26 17:16:56 32KB Python
1
迁移学习从根本上改变了自然语言处理(NLP)的处理范式。许多最先进的模型首先在大型文本语料库上进行预先训练,然后在下游任务上进行微调
2022-02-12 14:24:26 4.63MB 弱监督 预训练语言模型
1
俄语文本摘要的GPT-3微调_Fine-tuning GPT-3 for Russian Text Summarization.pdf
2022-01-22 09:02:12 178KB cs
|简体中文 ERNIE是百度开创性提出的基于知识增强的持续学习语义理解框架,该框架将大数据预训练与多源丰富知识相结合,通过持续学习技术,不断吸收海量文本数据中文字句,结构,语义等方面ERNIE在情感分析,文本匹配,自然语言推理,词法分析,阅读理解,智能问答等16个公开数据集上全面显着超越世界领先技术,在国际权威的通用语言理解上评估基准GLUE上,突破首次突破90分,获得全球第一。在今年3月落下帷幕的全球最大语义评价。SemEval2020上,ERNIE摘得5项世界冠军,该技术也被全球顶级科技商业杂志《麻省理工科技评论》官方网站报道,相关创新成果也被国际顶级学术会议AAAI,IJCAI收录。E
1
BERT属性提取 基于bert的知识图谱属性撤销 将BERT用于KnowledgeGraph中的属性提取有两种方法,即微调和特征提取。 知识图谱百度百科人物词条属性撤除,使用基于伯特的微调微调和特征提取特征提取方法进行实验。 先决条件 Tensorflow >=1.10 scikit-learn 预训练模型 :简体中文和繁体中文,12层,隐藏768、12头,110M参数 正在安装 没有 数据集 该数据集是根据百度百科字符条目构建的。 筛选出不包含实体和属性的语料库。 实体和属性是从名称实体识别获得的。 标签是从“百度百科”信息框中获取的,大多数标签是手动标签的,因此有些标签不是很好。 例
2022-01-07 19:35:48 3.33MB nlp ai knowledge-graph feature-extraction
1
本文介绍了如何在pytorch下搭建AlexNet,使用了两种方法,一种是直接加载预训练模型,并根据自己的需要微调(将最后一层全连接层输出由1000改为10),另一种是手动搭建。 构建模型类的时候需要继承自torch.nn.Module类,要自己重写__ \_\___init__ \_\___方法和正向传递时的forward方法,这里我自己的理解是,搭建网络写在__ \_\___init__ \_\___中,每次正向传递需要计算的部分写在forward中,例如把矩阵压平之类的。 加载预训练alexnet之后,可以print出来查看模型的结构及信息: model = models.alexn
2022-01-06 17:33:43 92KB alexnet c ex
1