基于 Docker Compose 搭建了常用的大数据工具,可以作为大数据及 AI 相关的开发环境。
Spark
pyspark 创建 session
1 | spark = pyspark.sql.SparkSession.builder.master("spark://datascience-spark:7077").getOrCreate() |
访问 Hadoop
1 | 只需要指定 hadoop name node 的地址即可 |
基于 Docker Compose 搭建了常用的大数据工具,可以作为大数据及 AI 相关的开发环境。
1 | spark = pyspark.sql.SparkSession.builder.master("spark://datascience-spark:7077").getOrCreate() |
1 | 只需要指定 hadoop name node 的地址即可 |