网站首页 站内搜索

搜索结果

查询Tags标签: 练习,共有 803条记录
  • 2.安装Spark与Python练习

    with open("earth_song.txt", "r") as f: text = f.read() text = text.lower() for ch in !@#$%^&*(_)-+=\\[]}{|;:\\"`~,<.>?/: text = text.replace(ch, " ") words = text.split() # 以空格分割文本s…

    2022/3/8 17:14:54 人评论 次浏览
  • 安装Spark与Python练习

    一、安装Spark1.检查基础环境hadoop,jdk 2.下载spark3.解压,文件夹重命名、权限4.配置文件 5.环境变量 6.试运行Python代码 二、Python编程练习:英文文本的词频统计1.准备文本文件2.读文件,预处理:大小写,标点符号,停用词,分词,统计每个单词出现的次数,按词频大小…

    2022/3/8 17:14:45 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark检查基础环境hadoop,jdk下载spark 解压,文件夹重命名、权限 配置文件环境变量 试运行Python代码二、Python编程练习:英文文本的词频统计准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件

    2022/3/8 14:15:25 人评论 次浏览
  • 2、安装Spark与Python练习

    一、安装Spark 1、检查基础环境hadoop、jdk2、下载Spark(略) 3、解压、文件夹重命名、权限(略) 4、配置文件 5、环境变量 6、试运行Python代码 二、Python编程练习:英文文本的词频统计 1、准备文本2、编写代码 3、运行结果

    2022/3/8 14:15:00 人评论 次浏览
  • 安装Spark与Python练习

    一、安装并配置Spark 1.首先检查一下java和hadoop的环 2.下载spark 3.解压spark安装包,对文件夹重命名,复制配置文件 4.对配置文件进行修改 3.配置好环境变量之后,进行source ~/.bashrc5.配置好环境之后就可以启动spark了, 6.输入python代码进行测试 二、Python编程练…

    2022/3/8 9:14:55 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark 1.检查基础环境hadoop,jdk2.配置文件、 环境变量 #配置环境 vim /usr/local/spark/conf/spark-env.sh # 修改环境变量 vim ~/.bashrc # 生效 source ~/.bashrc 3.试运行python代码 二、Python编程练习:英文文本的词频统计

    2022/3/8 9:14:48 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark检查基础环境hadoop,jdk 2.配置文件 3.环境变量 4.试运行Python代码二、Python编程练习:英文文本的词频统计 1、准备文本文件 2、读文件、预处理、分词、统计每个单词出现的次数、按词频大小排序 3、结果写文件

    2022/3/7 17:15:20 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark检查基础环境hadoop,jdk 2.下载spark 3.配置文件配置环境vim /usr/local/spark/conf/spark-env.sh修改环境变量 vim ~/.bashrc 生效 source ~/.bashrc4.试运行Python代码二、Python编程练习:英文文本的词频统计1.准备文本文件2.统计每个单词…

    2022/3/7 17:15:17 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark 1、检查基础环境hadoop,jdk 3、相关文件配置4、环境配置5、运行python代码二、Python编程练习:英文文本的词频统计 1、准备文本(f1.txt) Please send this message to those people who mean something to you,to those who have touched your life in …

    2022/3/7 14:16:25 人评论 次浏览
  • 安装Spark与Python练习

    一、安装Spark 检查jdk和spark运行测试 二、Python编程练习:英文文本的词频统计 源代码: import stringdict={}txt=open(test.txt,r,encoding="UTF-8").read().lower()for ch in string.punctuation:txt=txt.replace(ch,"")list=[] list=txt.split(&…

    2022/3/7 14:15:56 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量试运行Python代码 二、Python编程练习:英文文本的词频统计准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件 搜…

    2022/3/7 14:15:43 人评论 次浏览
  • 安装Spark与Python练习

    一、Spark的安装 1、安装结果2、Spark的环境配置3、运行4、测试二、Python练习 1、代码截图2、运行结果3、源码import stringfile1 = open(C:/Users/Administrator/R201906120171/Chenzhikun/sanguo.txt, r,encoding=UTF-8) txt = file1.read() txt.lower()for ch in stri…

    2022/3/7 1:16:53 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark 1.检查基础环境hadoop,jdk 2.配置文件vim /usr/local/spark/conf/spark-env.sh 3.环境配置gedit ~/.bashrc 4.试运行Python代码 二、Python编程练习:英文文本的词频统计 1.准备文本文件2.读文件f=open("mystory.txt","r") ljjstory=f…

    2022/3/7 1:16:31 人评论 次浏览
  • 2.安装Spark与Python练习

    一、安装Spark 1、检查基础环境hadoop,jdk 2、下载spark 3、解压,文件夹重命名、权限 4、配置文件配置spark的classpath$ cd /usr/local/spark $ cp ./conf/spark-env.sh.template ./conf/spark-env.sh #拷贝配置文件在文件中加上如下一行内容:export SPARK_DIST_CLAS…

    2022/3/7 1:15:27 人评论 次浏览
  • 安装Spark与Python练习

    一、安装Spark检查基础环境hadoop,jdk 配置文件 环境变量 试运行Python代码 二、Python编程练习:英文文本的词频统计准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件

    2022/3/7 1:15:05 人评论 次浏览
扫一扫关注最新编程教程