微型旋转器 Node.js 的简约微调器。 只有没有子依赖的单一依赖( )。 相比之下, ora有。 检测终端中的 Unicode 和颜色支持。 用法 let micoSpinner = require ( 'mico-spinner' ) let spinner = micoSpinner ( 'Long task' ) . start ( ) try { await longTask ( ) spinner . succeed ( ) } catch ( e ) { spinner . fail ( ) console . error ( e . stack ) }
2021-08-03 18:04:39 105KB JavaScript
1
行业分类-机械工程-一种车灯辅助近光微调光结构.zip
机械设备行业研究周报:政策的微调降低对投资品龙头估值的抑制.pdf
2021-07-12 16:19:59 2.94MB 机械行业 数据分析 行业数据 研究报告
钢铁行业周报:库存继续去化、高炉开工率回升,钢价微调.pdf
房地产行业周报:成交继续回暖,多地政策微调放松.pdf
2021-07-09 22:03:37 2.1MB 房地产 行业报告 数据分析 研究报告
React Spinners 基于 Halogen 的 React.js 加载微调器的集合。 这个包使用 react-npm-boilerplate Demo Demo Page 安装使用 Yarn:yarn add react-spinners 使用 npm:npm install --save react-spinners 用法每个加载器都有自己的默认属性。 您可以通过将道具传递到加载器来覆盖默认值。 每个加载器都接受一个加载道具作为布尔值。 如果加载为假,加载器将呈现 null。 重要提示:此包使用情感。 记得在 .babelrc 中添加插件,例如: { "presets": ["@babel/preset-react", "@babel/preset-env"], "plugins": ["@emotion"] } Example import { useState } 来自“React”; 从“@emotion/react”导入{css}; 从“react-spinners/ClipLoader”导入 ClipLoader; // 也可以是字符串。 需要确保每个键值对都以 ;
2021-06-09 13:04:10 1.47MB Loader Spinners Progress Bars
1
微调BERT用于提取摘要的论文代码
2021-05-11 19:36:43 14.99MB Python开发-自然语言处理
1
20ms的信号 可以微调0.5-2.5的信号来控制舵机 51单片机 12M晶振 按键控制 程序简单易懂
2021-05-06 23:09:42 1KB 舵机控制 20ms 0.5ms 微调
1
情绪分析 在 上通过微调 , 或训练的情感分析神经网络。 安装要求 pip install numpy pandas torch transformers 使用我在s3上载的模型分析您的输入 python analyze.py 火车模型 python train.py --model_name_or_path bert-base-uncased --output_dir my_model --num_eps 2 支持bert-base-uncase,albert-base-v2,distilbert-base-uncase和其他类似模型。 评估您训练的模型 python evaluate.py
2021-04-03 15:58:11 16.94MB nlp flask machine-learning vuejs
1
具体使用方法可以看我的博客:https://blog.csdn.net/weixin_40015791/article/details/90410083 下面也会简单介绍一下:在bert开源代码中的run_classifier.py中找到 processors = { "cola": ColaProcessor, "mnli": MnliProcessor, "mrpc": MrpcProcessor, "xnli": XnliProcessor, "intentdetection":IntentDetectionProcessor, "emotion":EmotionProcessor, #新加上这一行 } 然后在该文件中增加一个class: class EmotionProcessor(DataProcessor): """Processor for the MRPC data set (GLUE version).""" def get_train_examples(self, data_dir): """See base class.""" return self._create_examples( self._read_tsv(os.path.join(data_dir, "fine_tuning_train_data.tsv")), "train") #此处的名字和文件夹中的训练集的名字要保持一致 def get_dev_examples(self, data_dir): """See base class.""" return self._create_examples( self._read_tsv(os.path.join(data_dir, "fine_tuning_val_data.tsv")), "dev") def get_test_examples(self, data_dir): """See base class.""" return self._create_examples( self._read_tsv(os.path.join(data_dir, "fine_tuning_test_data.tsv")), "test") def get_labels(self): """See base class.""" return ["0", "1","2","3","4","5","6"] #七分类则从0到6 def _create_examples(self, lines, set_type): """Creates examples for the training and dev sets.""" examples = [] for (i, line) in enumerate(lines): if i == 0: continue guid = "%s-%s" % (set_type, i) if set_type == "test": label = "0" text_a = tokenization.convert_to_unicode(line[0]) else: label = tokenization.convert_to_unicode(line[0]) text_a = tokenization.convert_to_unicode(line[1]) examples.append( InputExample(guid=guid, text_a=text_a, text_b=None, label=label)) return examples 最后直接调用即可,运行的命令如下: python run_classifier.py \ --task_name=emotion \ --do_train=true \ --do_eval=true \ --data_dir=data \ #把数据解压到同一级的文件夹中,此处是该文件夹名字data --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \ #中文数据要微调的原始bert模型 --bert_config_file=chinese_L-12_
2021-03-31 14:02:01 599KB 中文情绪 bert 微调
1