无导师学习神经网络的分类——矿井突水水源判别MATLAB数据源。。。。。。。。。。。。。。。。。。。。。。。。。。
2021-08-11 11:18:16 1KB MATLAB数据源
1
主主模式连接多数据源 mysql版
2021-08-09 22:00:42 21KB 多数据源
1
先来配置Oracle 的数据源,然后再来配置SQL Server的数据源
2021-08-09 14:34:20 390KB ODBC 数据导入导出
1
从豆瓣批量获取看过电影的用户列表,并应用kNN算法预测用户性别 首先从豆瓣电影的“看过这部电影 的豆瓣成员”页面上来获取较为活跃的豆瓣电影用户。 获取数据 链接分析 这是看过"模仿游戏"的豆瓣成员的网页链接:http://movie.douban.com/subject/10463953/collections。 一页上显示了20名看过这部电影的豆瓣用户。当点击下一页时,当前连接变为:http://movie.douban.com/subject/10463953/collections?start=20。 由此可知,当请求下一页内容时,实际上就是将"start"后的索引增加20。 因此,我们可以设定base_url='http://movie.douban.com/subject/10463953/collections?start=',i=range(0,200,20),在循环中url=base_url+str(i)。 之所以要把i的最大值设为180,是因为后来经过测试,豆瓣只给出看过一部电影的最近200个用户。 读取网页 在访问时我设置了一个HTTP代理,并且为了防止访问频率过快而被豆瓣封ip,每读取一个网页后都会调用time.sleep(5)等待5秒。 在程序运行的时候干别的事情好了。 网页解析 本次使用BeautifulSoup库解析html。 每一个用户信息在html中是这样的: 七月 (银川) 2015-08-23   首先用读取到的html初始化soup=BeautifulSoup(html)。本次需要的信息仅仅是用户id和用户的电影主页,因此真正有用的信息在这段代码中: 因此在Python代码中通过td_tags=soup.findAll('td',width='80',valign='top')找到所有的块。 td=td_tags[0],a=td.a就可以得到 通过link=a.get('href')可以得到href属性,也就用户的电影主页链接。然后通过字符串查找也就可以得到用户ID了。
2021-08-08 17:09:29 25KB python 爬虫 预测 分类
# -*- coding: utf-8 -*- import sys import nltk import json # Load in output from blogs_and_nlp__get_feed.py BLOG_DATA = sys.argv[1] blog_data = json.loads(open(BLOG_DATA).read()) for post in blog_data: sentences = nltk.tokenize.sent_tokenize(post['content']) tokens = [nltk.tokenize.word_tokenize(s) for s in sentences] pos_tagged_tokens = [nltk.pos_tag(t) for t in tokens] # Flatten the list since we're not using sentence structure # and sentences are guaranteed to be separated by a special # POS tuple such as ('.', '.') pos_tagged_tokens = [token for sent in pos_tagged_tokens for token in sent] all_entity_chunks = [] previous_pos = None current_entity_chunk = [] for (token, pos) in pos_tagged_tokens: if pos == previous_pos and pos.startswith('NN'): current_entity_chunk.append(token) elif pos.startswith('NN'): if current_entity_chunk != []: # Note that current_entity_chunk could be a duplicate when appended, # so frequency analysis again becomes a consideration all_entity_chunks.append((' '.join(current_entity_chunk), pos)) current_entity_chunk = [token] previous_pos = pos # Store the chunks as an index for the document # and account for frequency while we're at it... post['entities'] = {} for c in all_entity_chunks: post['entities'][c] = post['entities'].get(c, 0) + 1 # For example, we could display just the title-cased entities print post['title'] print '-' * len(post['title']) proper_nouns = [] for (entity, pos) in post['entities']: if entity.istitle(): print '\t%s (%s)' % (entity, post['entities'][(entity, pos)]) print
2021-08-08 17:09:28 803KB Python 数据挖掘 社交数据 社交网站
基于R语言数据分析与挖掘实战 配套数据数据和源代码 共15个章节,含每个章节的数据源和源代码demo
2021-08-08 13:07:26 426.83MB R语言 数据挖掘 数据分析 数据源
上机实验源数据-Hadoop大数据分析与挖掘实战 数据源 共16个章节 大数据的出现催生出产业人才缺口瓶颈,在大数据挖掘项目的实施方面,被调查公司普遍缺乏相关的技术能力。 75% 以上的公司表示在人员和培训方面存在障碍,会大数据挖掘技术的人才很热门,但是比较难找而且昂贵,会 Hadoop 技术的数据挖掘人才更是奇缺。 虽然大数据目前在国内还处于初级阶段,但是其商业价值已经显现出来,特别是有实践经验的大数据分析人才更是各企业争夺的热门。为了满足日益增长的大数据分析人才需求,很多大学开始尝试开设不同程度的大数据分析课程。“大数据分析”作为大 数据时代的核心技术,必将成为高校数学与统计学专业的重要课程之一。
2021-08-08 09:09:13 291.73MB Hadoop 大数据 数据挖掘 数据分析
【IT十八掌徐培成】Java基础第24天-06.数据源原理-连接池实现-c3p0第三方连接池使用.zip
2021-08-08 09:02:29 165.81MB java
SpringBoot,idea,演示了使用Druid数据源监控页面的配置和使用
2021-08-06 20:03:13 106KB druid springboot
1
Druid是一个用于大数据实时查询和分析的高容错、高性能开源分布式系统,旨在快速处理大规模的数据,并能够实现快速查询和分析。Druid是目前最好的数据库连接池。 压缩包内包含jar包、源码、doc资源。共同学习
2021-08-05 17:38:32 12.02MB jar包
1