离散化方法 双线性变换 修正双线性变换 几种变换方法小结
1
针对基于邻域拥挤的差分进化算法求解非线性方程组系统时存在丢根、陷入局部最优等不足,提出一种改进的差分进化算法.首先,提出一种个体判机制,判断当前群体的个体属于哪一类,并分别采取不同的操作;其次,设计一种新的混合差分变异算子,以增强算法跳出局部最优的能力;然后,改进外部存档策略,延长了父代优秀个体在种群的保存时间,有利于搜索该优秀个体附近的根.在所选测试函数集上的实验结果表明,所提出的算法能有效搜索到非线性方程组系统的多个根,并与当前5种算法进行对比,所提出算法在找根率和成功率上更具优越性.
1
设计了一种多点瞄控制算法,并将该算法应用于具有主动悬架系统的二分之一车辆模型中。采用Pade近似算法描述路面多点瞄信息,基于最优控制理论,对带有多点瞄的悬架控制力进行了优化设计。在MATLAB/Simulink环境下,进行了车辆系统仿真,仿真结果显示,带有多点瞄控制算法的车辆具有优良的行驶性能。对影响瞄控制算法的主要参数(如瞄加权系数和瞄距离等)进行了讨论。
2022-10-20 15:01:22 330KB 工程技术 论文
1
雕刻笔刷设新增笔刷的
2022-10-19 14:08:41 44.15MB zb
1
基于线性回归的模型的波士顿房价测.pdf基于线性回归的模型的波士顿房价测.pdf基于线性回归的模型的波士顿房价测.pdf
1
非官方的PyTorch实现 Kevin Clark的。 Minh-Thang Luong。 Quoc V. Le。 克里斯托弗·曼宁 复制结果 我从头开始对ELECTRA-small进行了培训,并已在GLUE上成功复制了论文的结果。 模型 可乐 SST MRPC STS QQP MNLI 秦皇岛 RTE 平均的平均值 电子小OWT 56.8 88.3 87.4 86.8 88.3 78.9 87.9 68.5 80.36 ELECTRA-Small-OWT(我) 58.72 88.03 86.04 86.16 88.63 80.4 87.45
2022-10-18 21:47:16 52KB nlp glue pytorch deeplearning
1
数据对应文章和实现代码链接 https://blog.csdn.net/qq_20288327/article/details/126816183
2022-10-16 18:07:26 263KB 数据分析 机器学习 用户运营
1
marketduke模型训练权重
2022-10-14 09:07:29 210.33MB 模型权重
1
语言模型训练已经显示出可以捕获数量惊人的世界知识,这对于NLP任务(例如问题 解答)至关重要。但是,此知识隐式存储在神经网络的参数中,需要更大的网络才能 覆盖更多的事实。 为了以更模块化和可解释的方式捕获知识,我们使用潜在的知识检索器增强了语言模 型的训练,检索器使模型可以从训练、微调和推理期间使用的大型语料库(如 Wikipedia)中检索并使用文档。首次,我们展示了如何使用蒙版语言建模作为学习信 号并通过考虑数百万个文档的检索步骤进行反向传播,从而以无监督的方式对这种知 识检索器进行训练。 我们通过微调开放域问答(Open-QA)的挑战性任务,证明了检索增强语言模型训练 (REALM)的有效性。我们在三个流行的Open-QA基准测试中与最先进(SOTA)的显式和隐 式知识存储模型进行了比较,发现我们在性能上优于所有以前的方法(绝对精度为 4-16%),同时还提供了定性优势,例如可解释性和模块化。
2022-10-14 00:25:44 727KB 自然语言处理 REALM 预训练 问答
1
训练语言模型,可用于文本分类等NLP任务,序列标注任务,情感分析任务,采用业界通用的技术实现,接下游文本分类,序列标注,情感分析等任务,性能良好
2022-10-12 14:57:35 547KB 语言模型
1