当前位置: 首页 > news >正文

南宁上林网站建设通州富阳网站建设

南宁上林网站建设,通州富阳网站建设,网页设计职位,wordpress网站导航模板人总是会执着于失去的#xff0c;而又不珍惜现在所拥有的 —— 24.11.9 一、map方法 PySpark的数据计算#xff0c;都是基于RDD对象来进行的#xff0c;采用依赖进行#xff0c;RDD对象内置丰富的成员方法#xff08;算子#xff09; map算子 功能#xff1a;map算子… 人总是会执着于失去的而又不珍惜现在所拥有的                                                                         —— 24.11.9 一、map方法 PySpark的数据计算都是基于RDD对象来进行的采用依赖进行RDD对象内置丰富的成员方法算子 map算子 功能map算子是将RDD的数据一条条处理处理的逻辑基于map算子中接收的处理函数)返回新的RDD 语法: from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 准备一个RDD对象 rdd sc.parallelize([1,2,3,4,5,6,7,8,9]) # 通过map方法将全部的数据乘以10 # 能够接受一个函数并且将函数作为参数传递进去 # 方法1接受一个匿名函数lambda rdd1 rdd.map(lambda x:x*10) print(rdd1:,rdd1.collect())# 方法2接受一个函数 def multi(x):return x * 10rdd2 rdd.map(multi) print(rdd2,rdd2.collect())# 匿名函数链式调用 # 将每一个数乘以100再加上7再减去114 rdd3 rdd.map(lambda x:x*100).map(lambda x:x7).map(lambda x:x-114) print(rdd3:,rdd3.collect()) 注 map算子可以通过lambda匿名函数进行链式调用处理复杂的功能 二、flatMap方法 flatMap算子 计算逻辑和map一样 比map多出解除一层嵌套的功能 功能 对rdd执行map操作然后进行 解除嵌套 操作 用法 from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)rdd sc.parallelize([一切都会解决 回头看,轻舟已过万重山 一切都会好的,我一直相信])# 需求将RDD数据里面的一个个单词提取出来 rdd1 rdd.map(lambda x:x.split( )) print(rdd1, rdd2.collect())rdd2 rdd.flatMap(lambda x:x.split( )) print(rdd2, rdd3.collect()) 注  计算逻辑和map一样比map多出解除一层嵌套的功能 三、reduceByKey方法 reduceByKey算子 功能: ① 自动分组针对KV型二元元组RDD,自动按照 key 分组 ② 分组聚合接受一个处理函数根据你提供的聚合逻辑完成组内数据 (valve) 的聚合操作. 用法 rdd.reduceByKey(func) # func:(VV)→V # 接受2个传入参数(类型要一致)返回一个返回值类型和传入要求一致 reduceByKey的聚合逻辑是 比如有[12345]然后聚合函数是lambda aba b  将容器中的所有元素进行聚合 语法 from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 准备一个二元元组rdd对象 rdd sc.parallelize([(男,99),(男,88),(女,99),(男,77),(女,88)])# 求男生和女生两个组的成绩之和 rdd2 rdd.reduceByKey(lambda x , y : x y) print(rdd2.collect()) 注 1.reduceByKey算子接受一个处理函数对数据进行两两计算 四、WordCount案例 使用PySpark进行单词计数的案例 读取文件统计文件内单词的出现数量 WordCount文件 So long as men can breathe or eyes can see, So long lives thisand this gives life to thee. 代码  将所有单词都转换成二元元组单词为keyvalue设置为1value表示每个单词出现的次数作为value初始化为1若单词相等则表示key相同value值进行累加 from pyspark import SparkConf,SparkContext# 设置spark中的python解释器对象 import os os.environ[PYSPARK_PYTHON] E:/python.learning/pyt/scripts/python.execonf SparkConf().setMaster(local[*]).setAppName(test_spark) sc SparkContext(confconf)# 读取数据文件 rdd sc.textFile(D:/2LFE\Desktop\WordCount.txt) # 取出全部单词 word_rdd rdd.flatMap(lambda x:x.split( )) print(word_rdd.collect()) # 将所有单词都转换成二元元组单词为keyvalue设置为1value表示每个单词出现的次数作为value # 若单词相等则表示value相同key值进行累加 word_with_one_rdd word_rdd.map(lambda word:(word,1)) # 分组并求和 result_rdd word_with_one_rdd.reduceByKey(lambda a,b:ab) # 打印并输出结果 print(result_rdd.collect())
http://www.hkea.cn/news/14352985/

相关文章:

  • 智能建站推荐政协门户网站建设
  • 简单企业网站用什么wordpress静态插件
  • 建筑网站建设案例如何将网站地图提交给百度
  • 网站建设建站公司网站建设 要维护么
  • 高校两学一做专题网站ppt免费下载
  • 如何建立网站服务器高校网站开发
  • 网站设计流行趋势最好网站建设公司哪家好
  • 实验报告网站建设与网页制作上海最新风险地区一览表
  • 服装公司网站背景图三亚兼职网站
  • 网站设计公司有用吗宁波甬晟园林建设有限公司网站
  • 兼职工厂网站建设收录查询代码
  • 做网站注册什么性质的公司网站开发进度源码
  • 营销型网站建设五大内容优化是什么意思
  • 青海网站建设与制作网站功能需求表
  • 佛山市手机网站建设扬中市论坛
  • 网站开发和建设wordpress前端怎么写
  • 城北区工程建设信息网站安阳网站建设公司出租车公司
  • 网站怎么添加背景wordpress 教程主题
  • django 做网站优化seo深圳
  • 福安市网站建设宁波网站优化软件
  • 青海营销网站建设服务百度seo算法
  • 网站(建设)安全自查报告手机wordpress的文章分类
  • 深圳高端网站定制国外wordpress主题风险
  • ic电子网站建设个人网站备案名称例子
  • delphi 实现网站开发网站制作学校要的
  • 小说网站的内容做wordpress 提供api
  • 建设网站需要什么网站建设实训考试
  • 合肥网站备案网站安全认证多少钱
  • 做视频素材哪个网站好广州高端品牌网站建设后台管理便捷
  • 携程网站用js怎么做导视设计ppt