- 链接地址:https://blog.csdn.net/nanfeizhenkuangou/article/details/121938891
- 链接标题:python, pyspark导入自定义包_pyspark 依赖文件-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:1585
文章浏览阅读3.5k次。假设我自定义包的目录在D:\dir1\dir2\里, 里面有parent包,包括p1.py, p2.py, 两个文件分别由p11和p22两个方法import sys# 将包含parent包的路径添加进系统路径sys.path.append(r"D:\dir1\dir2")import parent.p1 as p1import parent.p2 as p2p1.p11()p2.p22()或者直接将parent这个包放在当前目录下,那么可以直接写import parent.p1 as p_pyspark 依赖文件
版权声明:本文发布于特牛网址导航 内容均来源于互联网 如有侵权联系删除
标签:pyspark 依赖文件