第4章 JS基础-变量类型和计算【不会变量,别说你会JS】.rar
2021-12-22 12:03:51 248.05MB 前端
1
3.2 主应变与应变偏量及其不变量 和讨论应力状态时相类似。我们把剪应变等于零的面叫做主平面 ,主平面的法 线方向叫做主应变方向。主平面上的正应变就是主应变。 图 3-4 设在 ABC面的法线方向有一矢量 Sn (图 3-4) , 在变形过程 Sn 中的方向不变 , 只有长度变化为 δSn。因 Sn 与δSn 是在一条直线上 ,故 Sn 与δSn 的 分量成正比例 ,即 δSn Sn = δSx S x = δSy Sy = δSz Sz ( 3-28 ) 其中 Sx , Sy , Sz 及δSx ,δSy ,δSz 分别为 Sn 及 δSn 在 Ox , Oy, Oz轴上的投影。考虑到 δSn Sn = εn 则有 δSx =εn S x , δSy = εn S y , δSz = εn Sz ( 3-29 ) 于是 ,由 (3-16 ) ,有 δSx = εx Sx +εxy Sy +εx z Sz δSy = εxy S x +εy S y +εy z S z δSz =εx z S x +εy z S y +εz S z ( 3-30 ) 将关系式 ( 3-29)代入 (3-30)得 (εx - εn ) Sx +εxy S y +εx z Sz = 0 εxy Sx + (εy - εn ) Sy +εy z S z = 0 εx z S x +εy z S y + (εz - εn ) Sz = 0 ( 3-31 ) 或
2021-12-22 11:20:07 3.19MB 杨桂通
1
由于神经网络很容易实现从输入空间到输出空间的非线性映射,因此,神经网络应用者往往未考虑输入变量和输出变量之间的相关性,直接用神经网络来实现输入变量与输出变量之间的黑箱建模,致使模型中常存在冗余变量,并造成模型可靠性和鲁棒性差。提出一种透明化神经网络黑箱特性的方法,并用它剔除模型中的冗余变量。该方法首先利用神经网络释义图可视化网络;再利用连接权法计算神经网络输入变量的相对贡献率,判断其对输出变量的重要性;最后利用改进的随机化测验对连接权和输入变量贡献率进行显着性检验,修剪模型,并以综合贡献度和相对贡献率均不显着的输入变量的交集为依据,剔除冗余变量,实现NN模型透明化及变量选择。实验结果表明,该方法增加了模型的透明度,选择出了最佳输入变量,剔除了冗余输入变量,提高了模型的可靠性和鲁棒性。因此,该研究为神经网络模型的透明化及变量约简提供了一种新的方法。
1
SINUMERIK 828D NC变量和接口信号 参数手册V4.7 SP2
SINUMERIK 840D SL NC变量和接口信号 参数手册V4.8 SP3
840D_840Di_810D_SIMODRIVE 611digital_NC驱动参数_变量和接口信号
用到的平台是 Microsoft Visual Studio 2008 和OpenCV2.0,有详细的安装与配置说明,配有截图
2021-12-20 22:38:47 1.81MB OpenCV 安装 配置
1
算法选的课设,含变量的表达式求值,通过对课本上的算法进行改良,优化,里面有完整的代码和课设报告,仅供参考
2021-12-20 19:14:51 322KB 算法 表达式求值 代码和文档
1
KEPSERVER采集Intouch变量以OPC UA服务器方式发布,真正全图文描述,实际应用配置好后的截图,最具实际应用价值
2021-12-18 21:50:26 243KB KEPSERVER Intouch OPC UA
1