行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 技术社区 > 运维 > 正文

jupyter notebook中运行pyspark代码

前提是windows下安装pyspark
​​设置连接​​
 
用jupyter notebook编写pyspark代码
登录后复制 


from pyspark.sql import SparkSession
# 环境配置
spark = SparkSession.builder.master("local").appName("test").enableHiveSupport().getOrCreate()
sc = spark.sparkContext
# 测试是否成功
rdd = sc.parallelize([("hello", 1)])
rdd.collect()
 
 
微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

上一篇:DevOps 指标中的常见错误
下一篇:没有了

相关推荐:

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2026 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注行业联盟

扫码入群
扫码关注

微信公众号

返回顶部