一个不错的网站设计指导方案,适合前端WEB开发人员
2021-10-21 17:15:55 7.23MB 社交网站界面设计.pdf
1
codersgirlfriend python语言的爬虫项目,在(相亲网站,社交网站等)抓取未来女朋友的联系方式(qq,email)。自己动手,丰衣足食。 打算以pyspider为主框架,当然可以用scrapy等自己习惯的工具库。 妈妈再也不用担心我们屌丝一辈子啦! O(∩_∩)O哈哈~
2021-10-15 16:07:06 7KB
1
基于Python的社交网站数据挖掘与数据分析 配套数据源和源代码.rar.rar
2021-10-01 09:04:45 776KB
电信设备-有关信息空间化的社交网站架构.zip
2021-09-28 10:00:41 98KB 资料
1
社交APP女头像打包 新注册用户,随机头像用, 头像数据 超级真实 可用于微信微博QQ等机器人注册 或者网站随机头像
2021-09-18 15:08:39 210.27MB 头像
1
大众社交网站的设计与实现_论文.doc
2021-08-30 19:00:19 702KB 论文
一个类似QQ空间的社交网站模板(感觉很不错的........)
2021-08-29 20:31:44 16.67MB HTML 社交网站
1
Facebook、Twitter和LinkedIn产生了大量宝贵的社交数据,但是你怎样才能找出谁通过社交媒介正在进行联系?他们在讨论些什么?或者他们在哪儿?这本简洁而且具有可操作性的书将揭示如何回答这些问题甚至更多的问题。你将学到如何组合社交网络数据、分析技术,如何通过可视化帮助你找到你一直在社交世界中寻找的内容,以及你闻所未闻的有用信息。 每个独立的章节介绍了在社交网络的不同领域挖掘数据的技术,这些领域包括博客和电子邮件。你所需要具备的就是一定的编程经验和学习基本的Python工具的意愿。 •获得对社交网络世界的直观认识 •使用GitHub上灵活的脚本来获取从诸如Twitter、Facebook和LinkedIn之类的社交网络API中的数据 •学习如何应用便捷的Python工具来交叉分析你所收集的数据 •通过XHTML朋友圈探讨基于微格式的社交联系 •应用诸如TF-IDF、余弦相似性、搭配分析、文档摘要、派系检测之类的先进挖掘技术 •通过基于HTML5和JavaScript工具包的网络技术建立交互式可视化
1
# -*- coding: utf-8 -*- import sys import nltk import json # Load in output from blogs_and_nlp__get_feed.py BLOG_DATA = sys.argv[1] blog_data = json.loads(open(BLOG_DATA).read()) for post in blog_data: sentences = nltk.tokenize.sent_tokenize(post['content']) tokens = [nltk.tokenize.word_tokenize(s) for s in sentences] pos_tagged_tokens = [nltk.pos_tag(t) for t in tokens] # Flatten the list since we're not using sentence structure # and sentences are guaranteed to be separated by a special # POS tuple such as ('.', '.') pos_tagged_tokens = [token for sent in pos_tagged_tokens for token in sent] all_entity_chunks = [] previous_pos = None current_entity_chunk = [] for (token, pos) in pos_tagged_tokens: if pos == previous_pos and pos.startswith('NN'): current_entity_chunk.append(token) elif pos.startswith('NN'): if current_entity_chunk != []: # Note that current_entity_chunk could be a duplicate when appended, # so frequency analysis again becomes a consideration all_entity_chunks.append((' '.join(current_entity_chunk), pos)) current_entity_chunk = [token] previous_pos = pos # Store the chunks as an index for the document # and account for frequency while we're at it... post['entities'] = {} for c in all_entity_chunks: post['entities'][c] = post['entities'].get(c, 0) + 1 # For example, we could display just the title-cased entities print post['title'] print '-' * len(post['title']) proper_nouns = [] for (entity, pos) in post['entities']: if entity.istitle(): print '\t%s (%s)' % (entity, post['entities'][(entity, pos)]) print
2021-08-08 17:09:28 803KB Python 数据挖掘 社交数据 社交网站
真实头像打包2000个,用于批量机器人注册做头像使用,或随机头像使用。
2021-08-07 09:23:15 44.57MB 头像
1