1。 将本地sql文件写入mysql数据库 本文写入的是python数据库的taob表 source [本地文件] 其中总数据为9616行,列分别为title,link,price,comment 2。使用python链接并读取数据 查看数据概括 #-*- coding:utf-8 -*- #author:M10 import numpy as np import pandas as pd import matplotlib.pylab as plt import mysql.connector conn = mysql.connector.connect(host='localhost
2021-10-14 19:59:11 183KB data python sql数据库
1
现实世界的数据常常是不完全的、有噪声的、不一致的。数据清洗过程包括遗漏数据处理,噪声数据处理,以及不一致数据处理。本节介绍数据清洗的主要处理方法。 遗漏数据处理 假设在分析一个商场销售数据时,发现有多个记录中的属性值为空,如顾客的收入属性,则对于为空的属性值,可以采用以下方法进行遗漏数据处理。 1)忽略该条记录 若一条记录中有属性值被遗漏了,则将此条记录排除,尤其是没有类别属性值而又要进行分类数据挖掘时。 当然,这种方法并不很有效,尤其是在每个属性的遗漏值的记录比例相差较大时。 2)手工填补遗漏值 一般这种方法比较耗时,而且对于存在许多遗漏情况的大规模数据集而言,显然可行性较差。 3)利用默
2021-10-14 17:16:58 118KB bin 大数据 数据
1
prictice 测试
2021-10-14 14:04:27 28KB 数据挖掘
1
文章目录数据清洗步骤函数大全数据清洗的内容总结 数据清洗步骤 数据获取,使用read_csv或者read_excel 数据探索,使用shape,describe或者info函数 行列操作,使用loc或者iloc函数 数据整合,对不同的数据源进行整理 数据类型转换,对不同字段数据类型进行转换 分组汇总,对数据进行各个维度的计算 处理重复值、缺失值和异常值以及数据离散化 函数大全 merge,concat函数常常用于数据整合 pd.to_datetime常常用于日期格式转换 str函数用于字符串操作 函数astype用于数据类型转换 函数apply和map用于更加高级的数据处理 Groupby用于
2021-09-29 14:05:32 45KB python python函数 大数据
1
此项目为scrapy爬虫,爬取京东服装数据。数据清洗还有数据分析等内容,最后部分通过少量数据建立决策树模型进行对比分析。
1
首先载入各种包: import pandas as pd import numpy as np from collections import Counter from sklearn import preprocessing from matplotlib import pyplot as plt %matplotlib inline import seaborn as sns plt.rcParams['font.sans-serif'] = ['SimHei'] # 中文字体设置-黑体 plt.rcParams['axes.unicode_minus'] = False # 解决保存图
2021-09-24 19:33:33 243KB data python python3
1
csv文件读写 pandas内置了10多种数据源读取函数,常见的就是CSV和EXCEL 使用read_csv方式读取。结果为dataframe格式 在读取csv文件时,文件名称尽量是英文 参数较多,可以自行控制,但很多时候用默认参数 读取csv时,注意编码,常用编码为utf-8、gbk、gbk2312和gb18030等 使用to_csv方法快速保存 import numpy as np import pandas as pd import os os.getcwd() 'D:\\Jupyter\\notebook\\Python数据清洗实战\\数据清洗之文件读写' os.chdir('D
2021-09-15 19:27:37 130KB c csv csv文件
1
mapreduce基本数据读取,通俗易懂。 此项目情景为,遗传关系族谱。 (爷爷 、父母 、孩子) 经典案例
2021-09-13 15:55:10 138.93MB mapreduce
1
无论是做机器学习还是做数据分析,都离不开获取数据后的第一步-数据清洗工作。据统计,数据清洗工作占据整个工作时间百分之50左右,有的甚至能达到百分之70。下面我将介绍我进行数据清洗得思路流程。 数据清洗整体流程脑图(不断更新中…) 数据准备 本次数据清洗工作我们使用得数据是一个借贷机构开放的用户数据(仅用于个人练习),由于源数据量有将近30万,考虑到运行速度,这里例子从这30万中随机抽取1万条数据。 下载地址:LCIS.csv 提取码:ag8t 注:此数据仅仅作为方法演示使用,忽略真实数据分析时的业务逻辑考虑。 导入相应的python工具包和数据 import numpy as np impo
2021-09-12 11:22:23 238KB data python python数据分析
1
数据清洗在网络安全中的应用 安全对抗 网络信息安全 网络安全 安全实践 漏洞分析
2021-09-11 17:00:09 3.52MB 安全管理 安全威胁 安全实践