未加星标

使用docker快速搭建Spark集群的方法教程

字体大小 | |
[运维安全 所属分类 运维安全 | 发布者 店小二05 | 时间 | 作者 红领巾 ] 0人收藏点击收藏

前言

Spark 是 Berkeley 开发的分布式计算的框架,相对于 Hadoop 来说,Spark 可以缓存中间结果到内存而提高某些需要迭代的计算场景的效率,目前收到广泛关注。下面来一起看看使用docker快速搭建Spark集群的方法教程。

适用人群

正在使用spark的开发者
正在学习docker或者spark的开发者

准备工作

安装docker
(可选)下载java和spark with hadoop

Spark集群

Spark运行时架构图

使用docker快速搭建Spark集群的方法教程

如上图: Spark集群由以下两个部分组成

集群管理器(Mesos, Yarn或者standalone Mode)
工作节点(worker)

如何docker化(本例使用Standalone模式)

1、将spark集群拆分

      base(基础镜像)
      master(主节点镜像)
      worker(工作镜像)

2、编写base Dockerfile

注: 为方便切换版本基础镜像选择的是centos, 所以要下载java和spark, 方便调试, 可以下载好安装文件后本地搭建一个静态文件服务器, 使用Node.js 的http-server可以快速搞定

命令如下

npm install http-server -g
http-server -p 54321 ~/Downloads

正式开始写Dockerfile

FROM centos:7
MAINTAINER RavenZZ <[email protected]>
# 安装系统工具
RUN yum update -y
RUN yum upgrade -y
RUN yum install -y byobu curl htop man unzip nano wget
RUN yum clean all
# 安装 Java
ENV JDK_VERSION 8u11
ENV JDK_BUILD_VERSION b12
# 如果网速快,可以直接从源站下载
#RUN curl -LO "http://download.oracle.com/otn-pub/java/jdk/$JDK_VERSION-$JDK_BUILD_VERSION/jdk-$JDK_VERSION-linux-x64.rpm" -H 'Cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;
RUN curl -LO "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;
ENV JAVA_HOME /usr/java/default
RUN yum remove curl; yum clean all
WORKDIR spark
RUN \
curl -LO 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && \
tar zxf spark-2.1.0-bin-hadoop2.7.tgz
RUN rm -rf spark-2.1.0-bin-hadoop2.7.tgz
RUN mv spark-2.1.0-bin-hadoop2.7/* ./
ENV SPARK_HOME /spark
ENV PATH /spark/bin:$PATH
ENV PATH /spark/sbin:$PATH

3、编写master Dockerfile

FROM ravenzz/spark-hadoop
MAINTAINER RavenZZ <[email protected]>
COPY master.sh /
ENV SPARK_MASTER_PORT 7077
ENV SPARK_MASTER_WEBUI_PORT 8080
ENV SPARK_MASTER_LOG /spark/logs
EXPOSE 8080 7077 6066
CMD ["/bin/bash","/master.sh"]

4、编写worker Dockerfile

FROM ravenzz/spark-hadoop
MAINTAINER RavenZZ <[email protected]>
COPY worker.sh /
ENV SPARK_WORKER_WEBUI_PORT 8081
ENV SPARK_WORKER_LOG /spark/logs
ENV SPARK_MASTER "spark://spark-master:32769"
EXPOSE 8081
CMD ["/bin/bash","/worker.sh"]

5、docker-compose

version: '3'
services:
spark-master:
build:
context: ./master
dockerfile: Dockerfile
ports:
- "50001:6066"
- "50002:7077" # SPARK_MASTER_PORT
- "50003:8080" # SPARK_MASTER_WEBUI_PORT
expose:
- 7077
spark-worker1:
build:
context: ./worker
dockerfile: Dockerfile
ports:
- "50004:8081"
links:
- spark-master
environment:
- SPARK_MASTER=spark://spark-master:7077
spark-worker2:
build:
context: ./worker
dockerfile: Dockerfile
ports:
- "50005:8081"
links:
- spark-master
environment:
- SPARK_MASTER=spark://spark-master:7077

6、测试集群

docker-compose up

访问http://localhost:50003/ 结果如图

使用docker快速搭建Spark集群的方法教程

参考链接

本例源代码

本地下载:点击这里

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对脚本之家的支持。

本文运维安全相关术语:linux服务器代维 linux服务器搭建 运维管理 运维工程师 企业安全文章 企业安全管理 cf安全系统检测到游戏数据异常

主题: SparkDockerHadoopJava服务器Node.js谢大
分页:12
转载请注明
本文标题:使用docker快速搭建Spark集群的方法教程
本站链接:http://www.codesec.net/view/557009.html
分享请点击:


1.凡CodeSecTeam转载的文章,均出自其它媒体或其他官网介绍,目的在于传递更多的信息,并不代表本站赞同其观点和其真实性负责;
2.转载的文章仅代表原创作者观点,与本站无关。其原创性以及文中陈述文字和内容未经本站证实,本站对该文以及其中全部或者部分内容、文字的真实性、完整性、及时性,不作出任何保证或承若;
3.如本站转载稿涉及版权等问题,请作者及时联系本站,我们会及时处理。
登录后可拥有收藏文章、关注作者等权限...
技术大类 技术大类 | 运维安全 | 评论(0) | 阅读(59)