spark上怎么讲读取的数据的某几行合并成一行 新手 谢谢啦!

[复制链接]
查看11 | 回复2 | 2021-1-27 05:40:48 | 显示全部楼层 |阅读模式
比如图片里那样数据是读取的csv文件怎么讲某几行合并成一行呢?求大神帮忙啊谢谢啦!


分 -->
回复

使用道具 举报

千问 | 2021-1-27 05:40:48 | 显示全部楼层
没有人知道吗大神都在哪?
回复

使用道具 举报

千问 | 2021-1-27 05:40:48 | 显示全部楼层
#spark中拼接RDD指定行数据,RDD合并成一行,python实现
frompysparkimportSparkContext
sc=SparkContext("local","MyApp")
rows=sc.parallelize([[1,2,3],[4,5,6],[7,8,9],[10,11,12]])
#获得指定行的数据,返回RDD
defgetnum(s):
#全局行号迭代
globalcounter
#指定行号
globalrow
counter+=1
if(counter==row):
returns
counter=0
row=3
#cache()缓存数据
x1=rows.filter(getnum).cache()
row=4
x2=rows.filter(getnum).cache()
#生成一个包含两个RDD中所有元素的RDD
xx=x1.union(x2)
printxx.collect()
#运行结果
[[7,8,9],[10,11,12]]
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

主题

0

回帖

4882万

积分

论坛元老

Rank: 8Rank: 8

积分
48824836
热门排行