Reddit Depression Dataset(RDS)是一个包含约9000名自报被诊断为抑郁症的Reddit用户的帖子数据集,以及大约107000名对照用户的帖子。该数据集中,被诊断用户的帖子已经去除了所有在心理健康相关的subreddits中发表的帖子,或者包含与抑郁症相关的关键词的帖子;而对照用户的帖子则在选取过程中不包含这类帖子。 这个数据集的构建细节可以在EMNLP 2017的论文《Depression and Self-Harm Risk Assessment in Online Forums》的第3.1节中找到,或者在数据网站上查看。RDS数据集的目的是为了支持在线论坛中抑郁症和自残风险评估的研究,它提供了一个丰富的资源,用于开发和测试用于识别抑郁症状的算法。 RDS数据集的统计数据显示,经过处理后,有9210名被诊断用户被分为训练集、验证集和测试集,以及相应的匹配对照用户。每个用户发表的帖子数量和每篇帖子的长度都有很大的差异。这个数据集为研究人员提供了一个宝贵的资源,用于分析抑郁症患者在社交媒体上的行为模式和语言使用习惯,以及开发用于识别抑郁症状的工具。
2025-10-11 11:30:10 431.13MB 机器学习 预测模型
1
reddit-scraper:一种从Reddit抓取数据并分析情绪的工具
2022-12-05 19:41:26 15KB TypeScript
1
Redditscraper 一种通过python从reddit抓取评论和发布数据的方法
2022-07-27 21:12:36 3KB Python
1
视频下载Bot for reddit Reddit机器人,可通过使用外部服务提供视频的可下载链接 目录 先决条件 Python3 Reddit帐户 码头工人 安装 克隆仓库 git clone https://github.com/JohannesPertl/reddit-video-download-bot.git 创建一个 将凭据填写在共享文件夹中的中 在填写机器人配置 运行机器人 开始: bash start.sh 停止: bash stop.sh 您可以通过编辑start.sh脚本来扩展每个服务 用法 提及机器人名称作为评论,或通过帖子链接发送私人消息 执照 根据MIT许可证分发。 有关更多信息,请参见。 致谢 特别感谢的所有者,他非常提供他的服务
2022-06-02 09:30:53 19KB bot reddit reddit-bot python3
1
Updog.in Live:https://updog.in Updog是具有Reddit风格的内容聚合网站。 用户可以创建帐户以共享帖子,并创建评论。 帖子可以进行加价和减价,用户可以在其帖子中获得业力。 Thi Updog.in在线:https://updog.in Updog是具有Reddit风格的内容聚合网站。 用户可以创建帐户以共享帖子,并创建评论。 帖子可以进行加价和减价,用户可以在其帖子中获得业力。 该项目是作为学习经验而构建的,旨在了解构建reddit克隆所需要的内容。 前端是使用Vue.js和TypeScript构建的。 后端由ASP.NET Core和PostgreSQL数据库提供支持。 在建筑方面明智的项目坚持清洁的建筑
2022-03-19 15:04:39 895KB .NET CMS
1
社会性LSTM预测社区间冲突 作者: ( ), ( ) 概述 该软件包包含用于复制预测结果的代码,该论文发表在The Web Conference(ie,WWW)2018论文中。该任务旨在在Reddit.com上预测社区间的动员和冲突。 特别是,我们研究了一个社区(“源”)发布超链接到另一社区(“目标”)的帖子的情况,目标是预测此“交叉链接”帖子是否会导致重大的“动员”参加目标社区的源社区成员的数量。 主要模型是“社会主导的” LSTM,它使用用户和社区的向量嵌入来帮助做出此预测。 特别是,使用“ node2vec”样式的方法学习用户和社区的嵌入,并且我们使用这些嵌入(以及来自交叉链接帖子的文本信息)来预测该帖子是否会导致动员。 有关更多详细信息,请参见和。 如果您使用与此项目关联的代码或数据,请引用以下文章: @inproceedings{kumar2018conflic
2022-03-07 17:52:15 12KB Python
1
自动刮伤检测 twitter数据集(Ghosh)和reddit注释数据集(Khodak)中的讽刺检测该项目旨在对twitter数据和reddit注释数据进行讽刺分类。 项目中使用了两个数据集 Twitter数据集(Ghosh) Reddit评论数据集(Khodak) 资料夹 Twitter_dataset_Ghosh i)代码-包含3个notbook .ipynb文件ii)资源-包含所有原始数据和预处理数据以及处于中间状态的输出 Reddit_dataset_Khodak i)代码-包含3个notbook .ipynb文件ii)资源-包含所有原始数据和预处理数据以及处于中间状态的输出 运行项目的依赖项 情感力量工具 lt 凯拉斯 张量流 麻木 科学的 Gensim 斯克莱恩 海生的 matplotlib 大熊猫 泡菜 Ghosh数据集的流程 原始数据已使用twitter_pre
2022-03-07 15:29:16 3.96MB
1
Reddit Api Api客户端,用于从与某些关键字相对应的某个subreddit下载图像(帖子)。 先决条件 Reddit帐户 Reddit OAuth凭证(获取) [可选] Gfycat API凭据(在获取) 用法 reddit = reddit_api.generate_instance_with_gfy("reddit_client_id","reddit_client_secret","user_agent","reddit_username","reddit_password","gfy_id","gfy_secret") # or without gif links reddit_api.generate_instance_with_gfy("reddit_client_id","reddit_client_secret","user_agent","reddit_us
2021-12-21 19:29:16 3KB Python
1