利用MICE填补方法和统计填补Statistical对缺失数据进行填补(包含数据集),并在数值数据的MSE和RMSE以及分类数据的准确性 Accuracy方面对两者进行评估,完整内容可以参考文章:https://blog.csdn.net/didi_ya/article/details/125168248
2024-04-22 16:29:22 196KB python mice
1
9.3 软元件内存的读出、写入 以下说明在读出、写入软元件内存时的控制方法。 9.3.1 命令与软元件范围 (1) 读出、写入软元件内存所使用的命令 项 目 命令 / 响应种类 处理内容 1 次通信中 可执行的处理点数 成批读出 位单位 00H 以 1 点为单位读出位软元件 (X、Y、M、S、T、C)。 256 点 字单位 01H 以 16 点为单位读出位软元件 (X、Y、M、S、T、C)。 32 个字 (512 点 ) 以 1 点为单位读出字软元件 (D、R、T、C)。 64 点 成批写入 位单位 02H 以 1 点为单位写入位软元件 (X、Y、M、S、T、C)。 160 点 字单位 03H 以 16 点为单位写入位软元件 (X、Y、M、S、T、C)。 10 个字 (160 点 ) 以 1 点为单位写入字软元件 (D、R、T、C)。 64 点 测试 ( 随机写入 ) 位单位 04H 以 1 点为单位随机指定软元件·软元件号,将位软元件 (X、Y、M、S、T、C) 置位 / 复位。 80 点 字单位 05H 以 16 点为单位随机指定软元件·软元件号,将位软元件 (X、Y、M、S、T、C) 置位 / 复位。 10 个字 (160 点 ) 以 1 点为单位随机指定软元件·软元件号,写入字软元件 (D、R、T、C)。 C200 ~ C255 的 32 位软元件不能适用。 10 点9 - 16 9 - 16
2022-11-19 12:19:47 5.51MB Fx3u Fx3u-ENET_L
1
此代码使用 EM 来估计高斯混合分布的参数。 它能够处理缺失数据,由数据矩阵中的 NaN 表示。 包括一个示例脚本和一个关于 EM 的简短文档,特别是估计高斯混合密度。 主要功能以及示例脚本位于文件夹 EM/GMM 中。
2022-11-16 18:32:54 360KB matlab
1
针对现实数据集的数据缺失问题,提出了一种基于双聚类的缺失数据填补新方法。该算法利用双聚类簇内平均平方残值越小簇内数据相似性越高的这一特性,将缺失数据的填补问题转换为求解特定双聚类簇最小平均平方残值的问题,进而实现了数据集中缺失元素的预测;再利用二次函数求解极小值的思想对包含有缺失数据的特定双聚类簇最小平均平方残值的问题进行求解,并进行了数学上的分析证明。最后进行仿真验证,通过观察UCI数据集的实验结果可知,提出的算法具有较高的填补准确性。
1
GAIN的tensorflow版本,包括GAIN、SGAIN、WSGAIN-CP、WSGAIN-GP,包含十个数据集和四种缺失数据填补方法,关于GAIN的pytorch版本,可以参考资源:https://download.csdn.net/download/didi_ya/85864128
2022-07-02 21:05:11 6.72MB 生成器 神经网络 tensorflow python
GAIN的pytorch版本,包括GAIN、SGAIN、WSGAIN-CP、WSGAIN-GP,包含十个数据集和四种缺失数据填补方法,关于GAIN的tensorflow版本,可以参考资源:https://download.csdn.net/download/didi_ya/85864095
2022-07-02 21:05:11 6.72MB pytorch python 生成器 神经网络
基于改进的K近缺失数据补全
2022-06-15 17:07:55 1.05MB 研究论文
1
基于生成对抗网络的Spambase DataSet数据集缺失数据填补源码实现(python).py,详情可参考文章:https://wendy.blog.csdn.net/article/details/125072344(GAIN),利用pytorch实现
2022-06-02 21:05:17 331KB pytorch python 生成对抗网络 神经网络
1
可以使用参数模型(AR、MA 或 ARMA)获得自相关函数或功率谱的准确估计。 通过自动推理,不仅可以从给定的数据中确定模型参数,还可以确定模型结构。 假定存在 ARMASA 和自动光谱分析工具箱。
2022-05-09 22:28:41 52KB matlab
1
基于不完备数据聚类的缺失数据填补方法
2022-05-06 14:06:16 15KB 文档资料 聚类 数据挖掘 机器学习