主要为大家详细介绍了基于循环神经网络(RNN)实现影评情感分类,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
2021-10-04 13:27:40 119KB 神经网络 影评 分类
1
采用java技术构建的一个管理系统。整个开发过程首先对系统进行需求分析,得出系统的主要功能。接着对系统进行总体设计和详细设计。总体设计主要包括系统功能设计、系统总体结构设计、系统数据结构设计和系统安全设计等;详细设计主要包括系统数据库访问的实现,主要功能模块的具体实现,模块实现关键代码等。最后对系统进行功能测试,并对测试结果进行分析总结。 包括程序毕设程序源代码一份,数据库一份,完美运行。配置环境里面有说明。如有不会运行源代码或定制私信。
2021-09-26 14:42:04 160.32MB java国内热映电影影评网站
1
基于Python的影评词云,包含测试数据和源代码
2021-08-27 14:07:36 7.51MB 基于Python的影评词云 影评词云 词云
一个模仿豆瓣影评的微信小程序源码.zip
2021-08-09 09:09:02 45.07MB 小程序 资源达人分享计划
Python应用实战代码-Python爬取豆瓣影评-分析挖掘用户与电影之间的隐藏信息
2021-07-21 12:04:18 791KB 爬虫 Python 用户画像
本宝宝采集的豆瓣20万条影评原始数据集,希望大家积极下载,尊重宝宝的劳动成果,后期有时间我还为大家提供数据集哈。 机器学习,nlp,深度学习的宝宝赶快看过来,看过来哈。 数据集格式: title##star##comment 电影名称##评论星级(1-5星)##评论内容
2021-07-15 21:45:58 19.93MB nlp 情感分析 豆瓣影评 影评数据
1
本在线影评系统利用jsp动态网页技术和MySql数据库,以B/S模式开发,实现电影的动态发布和管理。前台为用户提供了电影搜索、分类和评论等功能;管理用户可以通过Web浏览器登陆后台实现电影的删除,添加。
1
影评数据集MR-raw原生数据,解压后有rt-polarity.neg和rt-polarity.pos两个文件夹
2021-06-29 14:44:19 476KB 训练好的词向量模型
1
爬取豆瓣影评、清洗、jieba分词、做词云图 本程序主要分为3个过程。 1、抓取网页数据 使用Python爬虫技术获取豆瓣电影中最新上映电影的网页,其网址如下: https://movie.douban.com/cinema/nowplaying/qingdao/ 正在上映的电影 每个电影的ID和名称 通过其HTML解析出每部电影的ID号和电影名,获取某ID号就可以得到该部电影的影评网址,形势如下: https://movie.douban.com/subject/26900949/comments https://movie.douban.com/subject/26871938/comments 其中,26900949、26871938就是电影《天使陷落》、《灭绝》的ID号,这样仅仅获取了20哥影评,可以指定开始号start来获取更多影评,例如: https://movie.douban.com/subject/26900949/comments?start=40&limit=20 这意味着获取从第40条开始得20个影评。 2、清理数据 通常将某部影评信息存入eachCommentList列表中。为便于数据清理和词频统计,把eachCommentList列表形成字符串comments,将comments字符串中的“也”“太”“ 的”等虚词(停用词)清理掉后进行词频统计。 3、用词云进行展示 最后使用词云包对影评信息进行词云展示。
2021-06-23 19:07:33 9.91MB jieba 清洗 词云图 豆瓣影评
一、概要      在学习了python爬虫(requests,bs4)以及numpy、pandas、matplotlib库之后,就想试个小项目磨磨刀。之前只会单方面的使用,比如爬取一个网站相关数据 或者 对已经给了的数据进行分析。这个项目将这几个部分串起来了。学过这几个库的人就知道,这个项目很简单嘛。确实不难,但是自己完整的做完还是会出很多意想不到的bug。另:如果有同学只想做数据分析和可视化展示,这也没问题。以下百度网盘链接也提供了已经使用爬虫获取的数据。     环境:python(anaconda)     源码:百度网盘链接:https://pan.baidu.com/s/101ck
2021-06-16 15:36:13 710KB python python爬虫 人生
1