网站首页 站内搜索

搜索结果

查询Tags标签: texts,共有 7条记录
  • 用python 居然可以生成 情话、藏头诗、对联?

    哈喽,大家好呀~ 在平常人的心目中我们程序员都是呆板,都带着一副眼镜,喜欢穿寸衣,T恤普遍都是黑白灰三种颜色。今天我就教你们如何用python生成 情话、藏头诗、对联。 安装环境(已mac为例) 一、准备环境 1.目前飞桨支持的环境 macOS 版本 10.11/10.12/10.13/10.14 (…

    2021/12/22 14:20:48 人评论 次浏览
  • 用python 居然可以生成 情话、藏头诗、对联?

    哈喽,大家好呀~ 在平常人的心目中我们程序员都是呆板,都带着一副眼镜,喜欢穿寸衣,T恤普遍都是黑白灰三种颜色。今天我就教你们如何用python生成 情话、藏头诗、对联。 安装环境(已mac为例) 一、准备环境 1.目前飞桨支持的环境 macOS 版本 10.11/10.12/10.13/10.14 (…

    2021/12/22 14:20:48 人评论 次浏览
  • 文本相似度算法

    #! /usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2021/11/12 15:44 """ 我们再写一遍这个算法;"""from icecream import ic import jieba import jieba.analyse from gensim import corpora from gensim import models from…

    2021/11/12 17:10:37 人评论 次浏览
  • 文本相似度算法

    #! /usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2021/11/12 15:44 """ 我们再写一遍这个算法;"""from icecream import ic import jieba import jieba.analyse from gensim import corpora from gensim import models from…

    2021/11/12 17:10:37 人评论 次浏览
  • Python3 Keras分词器Tokenizer

    import keras.preprocessing.sequence from keras.preprocessing.text import Tokenizer samples = [我 爱 你 无畏 人海的 拥挤,用尽 余生的 力气 只为 找到 你,你] # 创建分词器实例 # split 默认字符为空格 tokenizer = Tokenizer() tokenizer.fit_on_texts(samples) #…

    2021/10/2 20:43:31 人评论 次浏览
  • Python3 Keras分词器Tokenizer

    import keras.preprocessing.sequence from keras.preprocessing.text import Tokenizer samples = [我 爱 你 无畏 人海的 拥挤,用尽 余生的 力气 只为 找到 你,你] # 创建分词器实例 # split 默认字符为空格 tokenizer = Tokenizer() tokenizer.fit_on_texts(samples) #…

    2021/10/2 20:43:31 人评论 次浏览
  • 团队项目冲刺第五天 KNN算法的实现

    KNN算法的实现 在数据集准备完成之后 开始进行算法的实现 其中本次项目分为3个部分 数据的获取 其中数据已经保存到了txt文件 直接读取 print((1) load texts...)train_texts = open(../dataset_train/x_train.txt, encoding=utf-8).read().split(\n)train_labels = open(…

    2021/5/25 1:24:50 人评论 次浏览
扫一扫关注最新编程教程