HUAWEI MH5000-31 5G模块AT命令手册1 总体介绍 37 1.1 使用范围 37 1.2 概述 37 1.3释义说明 38 1.4AT 命令语法结构 38 1.4.1AT 命令简介 38 1.4.2AT 命令类型 39 1.4.3命令参数介绍 40 1.5中断属性 40 AT 命令使用规则 41
2021-07-19 15:38:34 5.05MB 5G
1
一共是4000条唐诗文本数据,进行了二分类情感标注,1表示积极情感,0表示消极情感。每一条唐诗数据是两句诗,个人感觉两句相对才能表达出稍微完整的情感倾向。
2021-07-18 14:15:09 171KB sentiment_data Chinese poetry nlp
1
SQLite-with-MFC-in-Chinese MFC SQLite 不会中文乱码 SQLite3 是用C 语言编写的开源数据库,可移植性好,容易非常简单,而且及其轻便。 但是各种中文乱码 使用后 Build sqlite.lib 官网上只有源代码和dll文件下载,这里记录由源代码导出的lib库文件步骤。 从下载sqlite-amalgamation-xxxx.zip。解压缩后得到sqlite3.c 、sqlite3.h2个文件。 打开vs2010 ,档案-> 新增专案-> Visual C++ -> Win32 -> Win32 专案,项目名称输入sqlite,点击下一步, 应用程序类型选择"静态程式库", 取消“预编译头” 将sqlite3.c,sqlite3.h两个文件复制到这个专案目录下,在项目中将这两个文件加到对应的Header和Source里,直接build,然后
2021-07-16 15:04:21 1.03MB C++
1
air conditioner mannual chinese.pdf
2021-07-16 12:06:08 4.45MB 空调
1
chinese_abstractive_corpus 语料名称 教育培训行业抽象式自动摘要中文语料库 语料简介 自动文摘分为两种: 抽取式 抽象式 语料库收集了教育培训行业主流垂直媒体的历史文章(截止到2018年6月5日)大约24500条数据集。主要是为训练抽象式模型而整理,每条数据有summary(摘要)和text(正文),两个字段,Summary字段均为作者标注。 压缩包大约 60 MB,解压后大约 150 MB。 格式如下: summary{{...}} text{{...}} 关于和抽象式自动文摘更多研究成果可参考: 作者对两种文摘方式做了深入对比,并且提供了实验结论。 关于训练集和测试集 并未明确划分训练集和测试集合,请使用者根据自己的实际情况按照比例划分 作者联系方式 wechat : wonderfulcorporation
2021-07-13 21:39:00 59.81MB
1
本书针对Compaq Visual Fortran (CVF)6.6 的后继编译器Intel Visual Fortran (IVF)9.0,系统介绍Visual Studio.NET 环境下各种Fortran 应用程序的开发,重点讲解Fortran QuickWin、FortranWindows、动态链接库及多线程应用程序的开发, 以及对话框和控件、自动化服务器和ActiveX 控件的使用,并全面、深入地探讨Intel Fortran 与Visual C++/Basic.NET 的混合编程。
2021-07-11 05:48:15 5.46MB chinese
1
NeZha_Chinese_PyTorch pytorch版NEZHA,适配transformers 论文下载地址: 运行脚本依赖模块 如果需要运行该案例脚本,需要安装以下模块: 模型权重下载 官方提供的Tensorflow版本权重下载地址: 已经转化为PyTorch版本权重下载地址如下: nezha-cn-base 提取码: hckq nezha-large-zh 提取码: qks2 nezha-base-wwm 提取码: ysg3 nezha-large-wwm 提取码: 8dig 说明:若加载的模型权重是从下列百度网盘下载的PyTorch模型权重,则需要保证torch版本>=1.6.0 运行 执行命令: sh scripts/run_task_text_classification_chnsenti.sh 长文本 长文本可以通过设置config.max_position_em
2021-07-09 02:36:37 19KB pytorch chinese language-model nezha
1
SpanBERT用于中文共指解析(Pytorch) 参考论文: 参考开源代码(针对英语,使用tensorflow): : 预训练模型下载地址: 中文预训练RoBERTa模型( 中文预训练BERT-wwm模型( 中文预训练Bert模型( 1.代码架构: │conll.py│coreference.py│demo.py│metrics.py│utils.py│experiments.conf│requirements.txt│├─bert││modelling.py││optimization.py││tokenization.py│├─ conll-2012│└─scorer│├─reference-coreference-scorers│└─v8.01├─data│├─dev│├─test│└─train│└─pretrain_model│bert_config.json│pyt
2021-07-08 23:39:31 8.73MB Python
1
kotlin reference
2021-07-08 18:13:59 10.27MB kotlin
1
HUAWEI MH5000 系列 5G 模块 V100R001 AT命令手册 文档版本 01 发布日期 2020-2-28 本文根据终端设备的需求,实现了国际标准(如 3GPP 和 ITU-T)中的部分 AT 命 令。本文还描述了终端设备实现的私有 AT 命令接口,私有 AT 命令接口是为了更好 或更方便地实现某种功能。 本文不描述标准已经定义或 MT 已实现,但华为终端产品需求涉及不到的接口。对于 AT 命令接口的描述,仅限于接口数据包本身,以及 TE 和 MT 对接口的使用方法和 使用流程,不包括与接口不直接相关的内容。本文也仅限于描述 TE 和 MT 之间 Rm 接口范围内的 AT 命令接口,而不描述 MT 与 IWF 之间 Um 接口范围内的 AT 命 令接口。 AT 命令是 TE 和 MT 之间的通信命令协议。如果有新款 MT 产品需要和现有 TE 对接,而现有 TE 是按照本 AT 规范实现的,则新款 MT 必须遵守此规范才能保证 两者成功对接。比如新款模块和现有 PC 统一后台对接,那么新款模块必须遵守此规 范;反之亦然,比如新开发某 PC 后台或 PC 工具,也要遵守此规范,才能和现有的 终端产品对接。若 TE 和 MT 不用 AT 命令通信,则不受本规范限制。
2021-07-08 09:37:18 7.03MB MH5000 5G
1