网站首页 站内搜索

搜索结果

查询Tags标签: jieba,共有 54条记录
  • 利用jieba库和wordcloud库,进行中文词频统计并利用词云图进行数据可视化

    目录利用jieba库和wordcloud库,进行中文词频统计并利用词云图进行数据可视化安装jieba库安装wordcloud打开pycharm编写代码 利用jieba库和wordcloud库,进行中文词频统计并利用词云图进行数据可视化 安装jieba库打开cmd输入pip install jieba 验证:python -m pip list安…

    2022/2/26 6:26:46 人评论 次浏览
  • 当当网图书畅销榜网络爬虫

    一、选题的背景为什么要选择此选题?要达到的数据分析的预期目标是什么?(10 分)从社会、经济、技术、数据来源等方面进行描述(200 字以内)普希金曾说“书籍是我们的精神食粮”。读书使人进步,读书让我们有知识涵养来面对生活的困难,学好知识才可以让我们找到工作立…

    2022/2/18 23:26:20 人评论 次浏览
  • 【2022年二级Python】⑧Python计算生态

    目录 证书 ⑧Python计算生态证书 为确保该篇文章内容的可靠性,先在此附上本人的二级Python语言程序设计证书加以证实。⑧Python计算生态 1. 标准库: (1) turtle库:该库为图形绘制的标准库,其常用功能函数根据类型的不同,有以下三类:窗体函数:turtle.setup(width,he…

    2022/2/2 11:12:39 人评论 次浏览
  • Python结巴(jieba)库之花拳绣腿

    结巴(jieba)库是百度工程师Sun Junyi开发的一个开源库,在GitHub上很受欢迎。作为优秀的中文分词第三方库, jieba最流行的应用是分词,除此之外,还可以做关键词抽取、词频统计等。jieba支持四种分词模式: 精确模式:试图将句子最精确地切开,不存在冗余单词;搜索引擎…

    2022/1/27 9:04:16 人评论 次浏览
  • 【python教程入门学习】python中文分词

    [python做SEO]相关事情,我在之前的文章已经讲到过,今天给大家分享python中文分词的一些知识。 说到分词,如果是做GOOGLE的朋友,那用python分词很简单,可以直接根据空格来分词,或者有相关的nltk模块来处理。 中文分词的话,就比较麻烦,因为不能通过空格来分词,并且…

    2022/1/8 20:05:41 人评论 次浏览
  • 【python教程入门学习】python中文分词

    [python做SEO]相关事情,我在之前的文章已经讲到过,今天给大家分享python中文分词的一些知识。 说到分词,如果是做GOOGLE的朋友,那用python分词很简单,可以直接根据空格来分词,或者有相关的nltk模块来处理。 中文分词的话,就比较麻烦,因为不能通过空格来分词,并且…

    2022/1/8 20:05:41 人评论 次浏览
  • jieba源代码分析——四种分词模式(五)

    2021SC@SDUSC 2021SC@SDUSC 在分析完tokenizer类中其他需要被分词使用的函数后,我们正式开始分析四种分词模式直接调用的cut函数的代码。 通常情况下,会直接默认精确模式,但是通过指定参数cut_all=True和use_paddle=True可以选择是否选择全模式或paddle模式。 2021SC@S…

    2021/12/27 23:38:23 人评论 次浏览
  • jieba源代码分析——四种分词模式(五)

    2021SC@SDUSC 2021SC@SDUSC 在分析完tokenizer类中其他需要被分词使用的函数后,我们正式开始分析四种分词模式直接调用的cut函数的代码。 通常情况下,会直接默认精确模式,但是通过指定参数cut_all=True和use_paddle=True可以选择是否选择全模式或paddle模式。 2021SC@S…

    2021/12/27 23:38:23 人评论 次浏览
  • 基于知识图谱的问答系统(protege,jena,jieba分词的结合)

    一个简单的问答系统,只不过这其中的构建过程是基于知识图谱。主要的使用的工具(AKA,重点)有protg(用于知识图谱的建模)、jena数据库(其为一个基于三元组的图数据库,用于完成知识图谱的存储)、Python中的应用程序框架Streamlit与jieba分词库。(需要额外按照的环境…

    2021/12/21 23:19:45 人评论 次浏览
  • 基于知识图谱的问答系统(protege,jena,jieba分词的结合)

    一个简单的问答系统,只不过这其中的构建过程是基于知识图谱。主要的使用的工具(AKA,重点)有protg(用于知识图谱的建模)、jena数据库(其为一个基于三元组的图数据库,用于完成知识图谱的存储)、Python中的应用程序框架Streamlit与jieba分词库。(需要额外按照的环境…

    2021/12/21 23:19:45 人评论 次浏览
  • jieba分词——聊斋志异

    代码: import jiebaprint("====学号:202031013040====")txt=open("聊斋志异.txt","r",encoding="gb18030")words=jieba.lcut(txt.read())counts={} for word in words: if len (word)==1: continue else: …

    2021/12/11 23:47:14 人评论 次浏览
  • jieba分词——聊斋志异

    代码: import jiebaprint("====学号:202031013040====")txt=open("聊斋志异.txt","r",encoding="gb18030")words=jieba.lcut(txt.read())counts={} for word in words: if len (word)==1: continue else: …

    2021/12/11 23:47:14 人评论 次浏览
  • 大型数据库的应用项目之基于中文新闻分词绘制词云图

    项目:基于中文新闻分词绘制词云图 一、项目关键实现:jieba中文分词、分词结果统计、词云图展示、前端树形结构展示 二、项目关键技术:jsp,servlet,mvc模式,ajax,echarts,mysql数据库,jieba分词,python。 三、项目关键步骤:前后端词云数据交互,前后端折线图数据…

    2021/12/7 19:17:27 人评论 次浏览
  • 大型数据库的应用项目之基于中文新闻分词绘制词云图

    项目:基于中文新闻分词绘制词云图 一、项目关键实现:jieba中文分词、分词结果统计、词云图展示、前端树形结构展示 二、项目关键技术:jsp,servlet,mvc模式,ajax,echarts,mysql数据库,jieba分词,python。 三、项目关键步骤:前后端词云数据交互,前后端折线图数据…

    2021/12/7 19:17:27 人评论 次浏览
  • Python小题目5:jieba库的初步使用

    jieba库的原理是将一个中文词库,将带分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组。除了分词jieba还提供增加自定义中文单词的功能,本次题目的要求是将文本分词并统计某个词的出现频次。目录 目录 目录 前言 一、思路 二、步骤 1.要求一:…

    2021/12/2 20:07:18 人评论 次浏览
共54记录«上一页1234下一页»
扫一扫关注最新编程教程