在Linux下安装startdict后,然后安装sdcv【startdict的命令行版本】,需要在/usr/share/stardict/dic/添加词库才可以。只要将上面的文件解压到该文件下就可以了。 这个词库包含三个词典:分别是英汉,汉英,以及一个牛津双语词典。 解压后,我只留下一个英汉就够了。 PS:命令行的startdict不错。。
2019-12-21 22:10:04 23.03MB startdict Linux sdcv 词库 词典
1
目前最全的中文情感词典,包括以下内容: 1. 褒贬词及其近义词; 2. 汉语情感词极值表; 3. 清华大学李军中文褒贬义词典; 4. 情感词典及其分类; 5. 情感词汇本体; 6. 台湾大学NTUSD简体中文情感词典; 7. 知网Hownet情感词典。
2019-12-21 21:54:39 1.59MB 情感词典 语义词典 情感分析
1
网络编辑、审核及后台管理人员必备,集合了各种敏感词,符合九不准和七原则,属于常备资源,可以方便导出txt或sql
2019-12-21 21:53:00 116KB 后台管理 审核
1
包含淘宝天猫99%的品牌,品牌数量有45万多个,方便用户进行标题分词,品牌词过滤等操作。
2019-12-21 21:52:45 1.29MB 品牌词 淘宝 天猫 词库
1
内有金融保险类词语短语,包括股票名称,沪深A股,金融机构,期货交易,私募基金等,已去重
2019-12-21 21:49:07 1.15MB 词库 金融 保险 txt
1
机器人对话词库集合, 如有需要, 请随意下载.
2019-12-21 21:48:01 4.23MB 机器人 对话词库 词库
1
自己整理的动词词库,可用于中文内容分析与解析使用,逆序的便于你在进行匹配的时候不丢失,出错,推荐写个tool讲数据转储到sql,方便你的使用
2019-12-21 21:39:51 11KB 字符比对 汉语词库
1
用简单的过滤规则过滤敏感词,其中包含最新敏感词库。
2019-12-21 21:35:08 13KB 敏感词过滤
1
该数据集包括常用的英文单词,诸如beijing,shenzhen这种地名也包含在内,但是没有其他小一点的城市,内容相对更为精简,包含的专有名词并不偏,适合NLP中用于匹配相似单词等。
2019-12-21 21:33:53 152KB 词库
1
一个单词数据库,还是可以用的。 分为四个表means pos missing words
2019-12-21 21:33:10 14.11MB mysql 英文单词
1