Spark2.0.2+Zeppelin0.6.2 环境搭建入门初探

栏目: 编程工具 · 发布时间: 6年前

内容简介:Spark2.0.2+Zeppelin0.6.2 环境搭建入门初探

0.抱怨与其他(此部分与标题没有太多联系):

首先一点想说的是版本问题,为什么标题我会写清楚版本号呢!原因就是版本不对真的很会坑人。

就在写这篇文章的同一天,我还写了另一篇,是

Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程  http://www.linuxidc.com/Linux/2017-06/144926.htm

坑人的地方在哪里呢,Zeppelin0.6.2不支持Spark2.1.0这个版本

于是我又仔细的查看了官网的教程:

得出的结论是我必须要装老版本的,还好的是支持Spark2.0,于是我又安装了Spark2.0.2

不过呢如果你没有任何的集群环境,上面这篇是值得参考的,只不过你得自己改下版本号,从2.1.0到2.0.2,其他完全一样。

1.下载Zeppelin

wget http://www-eu.apache.org/dist/zeppelin/zeppelin-0.6.2/zeppelin-0.6.2-bin-all.tgz

2.解压并移动到相应的文件夹:

tar -xvf zeppelin-0.6.2-bin-all.tgz
mv zepplin-0.6.2-bin-all /opt

3.安装并修改配置文件:

(1)安装

网络安装版需要运行下面的命令:

./bin/install-interpreter.sh --all

而完整版不需要,直接进入到zeppelin的根目录修改配置文件即可。

cd zepplin-0.6.2-bin-all

(2)/opt/zeppelin-0.6.2-bin-all/conf/zeppelin-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_112/
export MASTER="spark://master:7077"
export SPARK_HOME=/opt/spark-2.0.2-bin-hadoop2.7/
export HADOOP_HOME=/opt/hadoop-2.7.3/
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

(3)/opt/zeppelin-0.6.2-bin-all/conf/zeppelin-site.xml

为了防止端口冲突我们将8080改为8099,具体情况要看自己的机子决定:

<property>
  <name>zeppelin.server.port</name>
  <value>8099</value>
  <description>Server port.</description>
</property>

4.启动或关闭:

修改之前的启动脚本为:

#!/bin/bash
echo -e "\033[31m ========Start The Cluster======== \033[0m"
echo -e "\033[31m Starting Hadoop Now !!! \033[0m"
/opt/hadoop-2.7.3/sbin/start-all.sh
echo -e "\033[31m Starting Spark Now !!! \033[0m"
/opt/spark-2.0.2-bin-hadoop2.7/sbin/start-all.sh
echo -e "\033[31m Starting Zeppelin Now !!! \033[0m"
/opt/zeppelin-0.6.2-bin-all/bin/zeppelin-daemon.sh start
echo -e "\033[31m The Result Of The Command \"jps\" :  \033[0m"
jps
echo -e "\033[31m ========END======== \033[0m"

修改之前的关闭脚本为:

#!/bin/

bash

echo -e " \033[31m ===== Stoping The Cluster ====== \033[0m "

echo -e " \033[31m Stoping Zeppelin Now !!! \033[0m "

/opt/zeppelin- 0.6 . 2 -bin-all/bin/zeppelin-daemon. sh

stop

echo -e " \033[31m Stoping Spark Now !!! \033[0m "

/opt/spark- 2.0 . 2 -bin-hadoop2. 7 /sbin/stop-all. sh

echo -e " \033[31m Stopting Hadoop Now !!! \033[0m "

/opt/hadoop- 2.7 . 3 /sbin/stop-all. sh

echo -e " \033[31m The Result Of The Command \"jps\" :  \033[0m "

jps

echo -e " \033[31m ======END======== \033[0m

"

5.运行官网的例子:

在浏览器里输入地址:

z-ip 指代 zepplin所在机子的ip(xxx.xxx.xxx.xxx)

即:http://z-ip:8099/#/

如下图:

Spark2.0.2+Zeppelin0.6.2 环境搭建入门初探

然后我们点Notebook->Zeppelin Tutorial

然后点击save

然后在最上面的部分点击如下图所示的位置:

Spark2.0.2+Zeppelin0.6.2 环境搭建入门初探

运行结果在截取两张图给大家:

Spark2.0.2+Zeppelin0.6.2 环境搭建入门初探

Spark2.0.2+Zeppelin0.6.2 环境搭建入门初探

最后一个要注意的是,这是我自己摸索着搞得,有问题发生是正常的,所以标题加上了初探两个字!

更多 Spark 相关教程见以下内容

CentOS 7.0下安装并配置Spark  http://www.linuxidc.com/Linux/2015-08/122284.htm

Spark1.0.0部署指南 http://www.linuxidc.com/Linux/2014-07/104304.htm

Spark2.0安装配置文档 http://www.linuxidc.com/Linux/2016-09/135352.htm

Spark 1.5、Hadoop 2.7 集群环境搭建 http://www.linuxidc.com/Linux/2016-09/135067.htm

Spark官方文档 - 中文翻译 http://www.linuxidc.com/Linux/2016-04/130621.htm

CentOS 6.2(64位)下安装Spark0.8.0详细记录 http://www.linuxidc.com/Linux/2014-06/102583.htm

Spark2.0.2 Hadoop2.6.4全分布式配置详解 http://www.linuxidc.com/Linux/2016-11/137367.htm

Ubuntu 14.04 LTS 安装 Spark 1.6.0 (伪分布式) http://www.linuxidc.com/Linux/2016-03/129068.htm

Spark 的详细介绍 请点这里

Spark 的下载地址 请点这里

本文永久更新链接地址 http://www.linuxidc.com/Linux/2017-06/144929.htm


以上所述就是小编给大家介绍的《Spark2.0.2+Zeppelin0.6.2 环境搭建入门初探》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

编程精粹

编程精粹

Steve Maguire / 人民邮电出版社 / 2009.2 / 45.00元

编写高质量的、没有bug的程序,是每位程序员所追求的目标。但随着软件规模越来越大,功能日趋复杂,这一目标变得越来越困难。 本书揭示了微软公司应对质量挑战、开发出世界级代码的技术内幕,作者在自己不断探索、实践和思考的基础上,系统总结了多年来指导微软各团队的经验,将其凝聚为许多切实可行的编程实践指导,可谓字字珠玑。正因如此,本书被公认为与《代码大全》齐名的编程技术名著,曾于1993年荣获有软件开......一起来看看 《编程精粹》 这本书的介绍吧!

随机密码生成器
随机密码生成器

多种字符组合密码

正则表达式在线测试
正则表达式在线测试

正则表达式在线测试

HEX HSV 转换工具
HEX HSV 转换工具

HEX HSV 互换工具