该资源是.bat文件,把该文件放到自己想要提取名字的文件夹里,双击一下,就会出现一个名为a.txt的文档,里面含有当前目录所有的文件名。 只供自己学习下载使用,切勿商用。
2021-10-09 14:52:31 17B 批量获取文件名
1
批量获取(mpg,flv,ts)视频信息工具,可以批量扫描文件夹下视频内容 通过表格获取相关视频信息 包括时长
2021-09-15 09:58:10 6.19MB 获取视频信息
1
matlab批量获取全国各城市实时天气数据函数-city2id.m 本帖最后由 gasongjian 于 2013-10-27 17:12 编辑 matlab 批量获取全国各城市实时天气数据函数(matlab2011b) 下面的代码是独立的函数,可根据城市id号获取实时天气数据。 若需要直接输入城市名称、批量等功能,需要使用weathercity.mat 数据 参加附件: (代码内部有url链接,权限不足,不恩给你直接附代码见谅~~~~~) city2id.m 城市id解码 getweather.m 独立函数,根据id获取天气数据 read me.txt weather.m 多功能主函数 weathercity.mat 城市id解码必要数据
2021-09-06 17:39:02 2KB matlab
1
matlab批量获取全国各城市实时天气数据函数-weathercity.mat 本帖最后由 gasongjian 于 2013-10-27 17:12 编辑 matlab 批量获取全国各城市实时天气数据函数(matlab2011b) 下面的代码是独立的函数,可根据城市id号获取实时天气数据。 若需要直接输入城市名称、批量等功能,需要使用weathercity.mat 数据 参加附件: (代码内部有url链接,权限不足,不恩给你直接附代码见谅~~~~~) city2id.m 城市id解码 getweather.m 独立函数,根据id获取天气数据 read me.txt weather.m 多功能主函数 weathercity.mat 城市id解码必要数据
2021-09-06 17:33:01 34KB matlab
1
matlab批量获取全国各城市实时天气数据函数-weather.m 本帖最后由 gasongjian 于 2013-10-27 17:12 编辑 matlab 批量获取全国各城市实时天气数据函数(matlab2011b) 下面的代码是独立的函数,可根据城市id号获取实时天气数据。 若需要直接输入城市名称、批量等功能,需要使用weathercity.mat 数据 参加附件: (代码内部有url链接,权限不足,不恩给你直接附代码见谅~~~~~) city2id.m 城市id解码 getweather.m 独立函数,根据id获取天气数据 read me.txt weather.m 多功能主函数 weathercity.mat 城市id解码必要数据
2021-09-06 17:23:45 4KB matlab
1
抖音作品无水印批量获取下载工具,操作简单,亲测可用抖音作品无水印批量获取下载工具,操作简单,亲测可用
2021-08-23 16:00:54 218.26MB 抖音作品解析 抖音作品批量下载
1
批量获取网站标题 支持域名、IP、端口识别 网页多次跳转,标题能正确获取 ,新增支持导出excel等功能有建设建议请私信我
2021-08-13 16:04:34 1.4MB 网站信息 SEO 网站标题 导出Excel
1
从豆瓣批量获取看过电影的用户列表,并应用kNN算法预测用户性别 首先从豆瓣电影的“看过这部电影 的豆瓣成员”页面上来获取较为活跃的豆瓣电影用户。 获取数据 链接分析 这是看过"模仿游戏"的豆瓣成员的网页链接:http://movie.douban.com/subject/10463953/collections。 一页上显示了20名看过这部电影的豆瓣用户。当点击下一页时,当前连接变为:http://movie.douban.com/subject/10463953/collections?start=20。 由此可知,当请求下一页内容时,实际上就是将"start"后的索引增加20。 因此,我们可以设定base_url='http://movie.douban.com/subject/10463953/collections?start=',i=range(0,200,20),在循环中url=base_url+str(i)。 之所以要把i的最大值设为180,是因为后来经过测试,豆瓣只给出看过一部电影的最近200个用户。 读取网页 在访问时我设置了一个HTTP代理,并且为了防止访问频率过快而被豆瓣封ip,每读取一个网页后都会调用time.sleep(5)等待5秒。 在程序运行的时候干别的事情好了。 网页解析 本次使用BeautifulSoup库解析html。 每一个用户信息在html中是这样的: 七月 (银川) 2015-08-23   首先用读取到的html初始化soup=BeautifulSoup(html)。本次需要的信息仅仅是用户id和用户的电影主页,因此真正有用的信息在这段代码中: 因此在Python代码中通过td_tags=soup.findAll('td',width='80',valign='top')找到所有的块。 td=td_tags[0],a=td.a就可以得到 通过link=a.get('href')可以得到href属性,也就用户的电影主页链接。然后通过字符串查找也就可以得到用户ID了。
2021-08-08 17:09:29 25KB python 爬虫 预测 分类
批量获取网站title脚本
2021-08-05 11:00:08 1KB 脚本 python web安全
1
一个小软件,方便大家获取大量照片的文件信息,尺寸、大小、创建日期、文件名、文件路径等等,提高办公效率
1