该资料是2020年美赛C题题目,内涵亚马逊评论购物评级数据集合。数据格式为数据库格式。希望有需要的伙伴学习下载。
2022-01-22 15:21:01 5.09MB 美赛 C题题目 亚马逊评论数据
1
LSTM官方例程的电影评论数据集 imdb.pkl
2022-01-19 22:20:11 31.67MB LSTM 数据集 imdb.pkl
1
C# 数据库连接 sqlserver等 数据库访问 导出表格数据评论私发
jQuery仿中关村在线网站内容图片上评论弹幕特效,效果不错
2022-01-16 19:01:15 474KB 网页弹幕 评论弹幕 网页特效
Wasserstein流与复制因子动力学——演员评论中表征学习的平均场分析_Wasserstein Flow Meets Replicator Dynamics A Mean-Field Analysis of Representation Learning in Actor-Critic.pdf
2022-01-15 09:02:14 467KB cs
星级评分效果,评论的时候可以选择星级效果评论,方便使用
2022-01-12 17:49:12 3KB 评论 星星 评分
1
亚马逊美食评论 Amazon Fine Food Reviews数据集包含568,454条亚马逊用户截至2012年10月的食品评论。 该分析的目的是建立一个预测模型,在此模型中,我们将能够预测推荐是肯定的还是否定的。 在此分析中,我们将不关注分数,而仅关注建议的积极/消极情绪。 涉及程序 该项目是关于文本数据使用的情感分析 nltk库,其中包括PorterStemmer()和word_tokenize(),可将非结构化文本数据更改为结构化文本 使用countvectorizer(将文本文档的集合转换为令牌计数矩阵),TfidfTransformer(以缩小在给定语料库中频繁出现的令牌的影响,因此,从经验上讲,其信息量少于一小部分的功能)来自sklearn库的训练语料库以进行特征提取 朴素的贝叶斯(MultinomialNB,BernoulliNB) 逻辑回归 使用roc曲线,confc
2022-01-11 17:59:05 101KB JupyterNotebook
1
第一步:下载安装夜神模拟器 第二步:设置参数,自定义分辨率,宽:600 高:400 DPI:160 第三步:下载APP(APP自行下载安装,这里就不打包了)和脚本(脚本压缩包里面),并安装 第四步:登录账号或者注册账号并完善资料 第五步:根据脚本里的提示,设置好参数,打开APP的界面,并启动脚本
2022-01-11 13:30:26 10.81MB 脚本
1
爬取某狗购物网站评论信息,不知道说出来会不会被封,还是大胆说出来吧,就是X东。本资源本着学习态度,如有冒犯,我也不知道了。 这次爬虫使用的是Python的爬虫框架Scrapy。 主要流程代码如下: # -*- coding: utf-8 -*- import scrapy from scrapy import Request import json import math import time import re class BraSpider(scrapy.Spider): name = 'bra' headers = { ":authority": "sclub.jd.com", ":method": "GET", ":scheme": "https", "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8", "accept-encoding": "gzip, deflate, br", "accept-language:": "zh-CN,zh;q=0.9,en;q=0.8", "cache-control": "max-age=0", "upgrade-insecure-requests": "1", "cookie":"t=8444fb486c0aa650928d929717a48022; _tb_token_=e66e31035631e; cookie2=104997325c258947c404278febd993f7", "user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36", } base_url = "https://sclub.jd.com/comment/productPageComments.action?productId=17209509645&score=0&sortType=5&pageSize=10&page;=%d" def start_requests(self): for page in range(1,100): url = self.base_url%page print(url) self.headers[':path'] = url yield Request(url, self.parse,headers = self.headers) #time.sleep(2) def parse(self, response): content = json.loads(response.text) comments = content['comments'] for comment in comments: item = {} item['content'] = comment['content']#评论正文 item['guid'] = comment['guid']#用户id item['id'] = comment['id']#评论id item['time'] = comment['referenceTime']#评论时间 item['color'] = self.parse_kuohao(comment['productColor'])#商品颜色 item['size'] = self.parse_kuohao(comment['productSize'])#商品尺码 item['userClientShow'] = comment['userClientShow']#购物渠道 print(item) yield item #干掉括号 def parse_kuohao(self,text): new_text = text searchObj1 = re.search( r'(.+)', text, re.M|re.I) searchObj2 = re.search( r'\(.+\)', text, re.M|re.I) if searchObj1: text = searchObj1.group().strip() new_text = text.replace(text,'').strip() if searchObj2: text = searchObj2.group().strip() new_text = text.replace(text,'').strip() return new_text 还有视频讲解。特别适合新手
2022-01-09 11:07:10 161.14MB python scrapy 源码 爬虫
1
uniapp评论
2022-01-08 19:06:02 26KB uniapp表情
1