随着大数据和人工智能的发展, 将人工处理专利的方式转换为自动化处理成为可能. 本文结合卷积神经网络(CNN)提取局部特征和双向长短记忆神经网络(BiLSTM)序列化提取全局特征的优势, 在BiLSTM隐藏层引入注意力机制(Attention机制), 提出了针对中文专利文本数据的BiLSTM_ATT_CNN组合模型. 通过设计多组对比实验, 验证了BiLSTM_ATT_CNN组合模型提升了中文专利文本分类的准确率.
1
机器学习的双向注意力流 这是的原始实现。 可找到提交的CodaLab工作表。 对于TensorFlow v1.2兼容版本,请参阅分支。 如有问题和建议,请联系 ( )。 0.要求 一般 Python(已在3.5.2。上验证。Python2已报告问题!) 解压缩,wget(仅用于运行download.sh ) Python包 tensorflow(深度学习库,仅适用于r0.11) nltk(NLP工具,已在3.2.1上验证) tqdm(进度条,已在4.7.4上验证) jinja2(用于虚假化;如果只培训和测试,则不需要) 1.预处理 首先,准备数据。 下载SQuAD数据以及GloVe和nltk语料库(〜850 MB,这会将文件下载到$HOME/data ): chmod +x download.sh; ./download.sh 其次,预处理Stanford QA数据集(以及GloVe向量),并将其保存在$PWD/data/squad (约5分钟): python -m squad.prepro 2.培训 该模型具有〜2.5M参数。 该模型由NVidia Titan
2021-12-07 19:10:35 137KB nlp tensorflow question-answering squad
1
问题解决:AttributeError: module ‘paddle.fluid’ has no attribute ‘EndStepEvent’问题描述解决思路问题解决 问题描述 在使用paddle.fluid导入EndStepEvent过程中 global step if isinstance(event, fluid.EndStepEvent): if event.step == 0: plot_cost.append('Train Cost', step, event.metrics[0]) plot
2021-11-11 00:36:44 56KB add AS att
1
安全运营中ATT&CK框架的实用性挑战与应对 如何建立企业内部的ATT&CK ATT&CK 在攻击事件关联分析中的实践 ATT&CK:从威胁框架到攻击链路 ATT&CK的技术研究 与应用探索 ATT&CK和安全能力测试 ATT&CK威胁检测技术在云工作负载的实践 ATT&CK在金融行业 的落地实践
2021-10-13 09:00:07 25MB ATT&CK 2021
本机环境: cudatoolkit = 10.1.243 cudnn = 7.6.5 tensorflow-gpu = 2.1.0 keras-gpu = 2.3.1 今天在以TensorFlow2.1.0为后端的Keras中使用TensorBoard时报错,发现原因是keras和tf.keras混用导致的。报错与解决方案如下: 导致报错语句: summary = TensorBoard(log_dir="cnn_lstm_logs/",histogram_freq=1) 报错: ---> 54 summary = TensorBoard(log_dir="cnn_lstm_log
2021-10-04 11:36:27 214KB al AS att
1
ATT&CK更新和路线图 企业如何建设ATT&CK 企业如何运营ATT&CK
2021-09-16 21:00:10 5.44MB ATT&CK 运营ATT&CK 建设ATT&CK
ATT&CK高频攻击技术的分析与检测 法律法规 安全意识教育 安全意识教育 区块链 红蓝对抗
2021-09-10 11:00:31 23.59MB 安全管理 数据安全 企业安全 安全架构
出现问题现象 本人最近在玩树莓派4B的时候,树莓派在烧录镜像之后,无法启动,一直卡死在end kernel panic not syncing: attempted to kill init! exitcode = 0x00000000b 环境 设备:树莓派4B 查找原因–树莓派官网 根据官网给出的检查方案,我排除了 SPI EEPROM 损坏的可能。 个人解决方案 原来是因为在格式化内存卡的时候,格式化工具把内存卡格式化成非FAT32(4096 k 对齐)格式。 后来自己使用 DiskGenius 对内存卡进行格式化,格式化格式为 FAT32(4096 k 对齐), 然后在把镜像烧录进去,
2021-09-05 13:56:01 67KB att c ci
1
运行该项目的模型训练和模型预测脚本需要准备BERT中文版的模型数据,下载网址为: 。   利用笔者自己收集的3881个样本,对人物关系抽取进行尝试。人物关系共分为14类,如下: { "unknown": 0, "夫妻": 1, "父母": 2, "兄弟姐妹": 3, "上下级": 4, "师生": 5, "好友": 6, "同学": 7, "合作": 8, "同人": 9, "情侣": 10, "祖孙": 11, "同门": 12, "亲戚": 13 }   人物关系类别频数分布条形图如下:   模型结构: BERT + 双向GRU + Attention + FC   模型训练效果: # 训练集(train), loss: 0.0260, acc: 0.9941 # 最终测试集(test), loss: 0.9505, acc:
2021-09-03 20:56:57 690KB Python
1
思路 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个french。 根据字典写好seq2id的函数(文本序列->数字序列),并调用将文本序列化。 初始化Encoder,Decoder模型;选择合适的优化器;设置lr,epochs等参数; 开始循环迭代: 1.因为文本太大,这里是随机选择某句进行训练。 2.句子通过Encoder,Encoder产生新的隐层和每层的输出;再将开始标志通过传给Decoder结合Encoder的隐层和每层的输出(期间用到attention,下面详细讲解)
2021-09-01 16:36:03 714KB att attention io
1