通过list集合分页,不继承任何框架和插件分页,欢迎来下载
2021-04-15 16:23:27 3KB List分页
1
flume 1.6 版本 目前配合jdk1.7 使用 apache-flume-1.6.0-bin.tar.gz
2021-04-14 15:47:18 51.29MB flume 1.6 直接用
1
模拟器和wireshark和winPcap和virtuabox(兼容)
2021-04-11 12:02:22 702.23MB 华为 网络模拟器
1
资源包含2000张左右处理好的车辆样本,可直接用于训练。
2021-04-02 23:25:10 8.05MB 车辆样本 训练样本 车辆学习样本
1
具体使用方法可以看我的博客:https://blog.csdn.net/weixin_40015791/article/details/90410083 下面也会简单介绍一下:在bert开源代码中的run_classifier.py中找到 processors = { "cola": ColaProcessor, "mnli": MnliProcessor, "mrpc": MrpcProcessor, "xnli": XnliProcessor, "intentdetection":IntentDetectionProcessor, "emotion":EmotionProcessor, #新加上这一行 } 然后在该文件中增加一个class: class EmotionProcessor(DataProcessor): """Processor for the MRPC data set (GLUE version).""" def get_train_examples(self, data_dir): """See base class.""" return self._create_examples( self._read_tsv(os.path.join(data_dir, "fine_tuning_train_data.tsv")), "train") #此处的名字和文件夹中的训练集的名字要保持一致 def get_dev_examples(self, data_dir): """See base class.""" return self._create_examples( self._read_tsv(os.path.join(data_dir, "fine_tuning_val_data.tsv")), "dev") def get_test_examples(self, data_dir): """See base class.""" return self._create_examples( self._read_tsv(os.path.join(data_dir, "fine_tuning_test_data.tsv")), "test") def get_labels(self): """See base class.""" return ["0", "1","2","3","4","5","6"] #七分类则从0到6 def _create_examples(self, lines, set_type): """Creates examples for the training and dev sets.""" examples = [] for (i, line) in enumerate(lines): if i == 0: continue guid = "%s-%s" % (set_type, i) if set_type == "test": label = "0" text_a = tokenization.convert_to_unicode(line[0]) else: label = tokenization.convert_to_unicode(line[0]) text_a = tokenization.convert_to_unicode(line[1]) examples.append( InputExample(guid=guid, text_a=text_a, text_b=None, label=label)) return examples 最后直接调用即可,运行的命令如下: python run_classifier.py \ --task_name=emotion \ --do_train=true \ --do_eval=true \ --data_dir=data \ #把数据解压到同一级的文件夹中,此处是该文件夹名字data --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \ #中文数据要微调的原始bert模型 --bert_config_file=chinese_L-12_
2021-03-31 14:02:01 599KB 中文情绪 bert 微调
1
一直开发用的版本,超级经典,在官网很难找很难下载,并且eclipse的官网相当慢,做什么也不方便,这个直接解压就能用,很纯净,做javaweb项目,特别好用,什么都有。
2021-03-23 11:55:49 273.78MB eclipse eclipse-mars2 java 开发工具
1
ScrapBook for FireFox 1.5.14 ScrapBook for FireFox 1.3.7 直接用FIREFOX打开 XPI 文件即可
2021-03-12 16:24:34 45.34MB ScrapBook FireFox
1
使用卷积神经网络训练模型,具体介绍,参看我写的这篇文章:https://blog.csdn.net/weixin_45954454/article/details/114455209。
1
使用MNIST数据集训练手写数字识别模型——**附完整代码**和**训练好的模型文件**——直接用. 具体内容可看我的这篇文章:https://blog.csdn.net/weixin_45954454/article/details/114455209
1