文章详情页
django - python实现两篇文章相似度分析
浏览:161日期:2022-08-08 10:30:47
问题描述
如题,最近有需求要做文章相似度分析,需求很简单,具体就是对比两篇分别300字左右的文章的相似度情况,目前查到的方法,需要先中文分词(jieba),然后对比相似度,时间紧任务重,不知道有没有做过类似功能的大神可以指点一二的
问题解答
回答1:第一步你已经给出了,首先对文章进行中文分词,然后计算每个词在两篇文章中的tf-idf值。然后计算两个文章的余弦相似度,可以用Python中的gensim实现。
有疑问请继续提问。
回答2:补一下一楼的答案在食用余弦相似性或TF-IDF,应该首先去掉停止词。
停止词,是由英文单词:stopword翻译过来的,原来在英语里面会遇到很多a,the,or等使用频率很多的字或词,常为冠词、介词、副词或连词等。因为副词,连词这类词语并不会十分影响我们对语义的判断。
但是单纯的余弦相似性和TF-IDF某种情况下并不能十分的可靠。推一波自己的链接2333这里
建议使用textrank和以上算法进行结合
相关文章:
1. css - 怎么实现一个圆点在一个范围内乱飞2. html5 - weui1.x版相较于0.4.3这些改动有什么好处?3. require后不用使用echo返回到微信服务器 吗4. 百度收录判断实际测试没效果5. css - Hexo next 主题 新增 自定义 Menus 字母怎么能首字母不自动大写?6. 用工具实现在微信里面生成带二维码的海报?7. html - 非微信官方网页,将由微信转换为手机预览模式8. javascript - JS用ajax爬取百度外卖店家信息9. web - nginx禁止自动转换目录为index.html10. 怎样使留言的数据与登录的用户名,密码保持一致(在数据库上是一行的)。
排行榜
