当前位置:网站首页>spark集群环境搭建
spark集群环境搭建
2022-08-08 15:58:00 【星哥玩云】
1.安装jdk
安装环境:CentOS-7.0.1708 安装方式:源码安装 软件:jdk-6u45-linux-x64.bin 下载地址:http://www.Oracle.com/technetwork/Java/javase/downloads/java-archive-downloads-javase6-419409.html
第一步:更该权限
chmod 775 jdk-6u45-linux-x64.bin
第二步:执行jdk安装
./jdk-6u45-linux-x64.bin
第三步:配置环境变量
环境变量的配置分为几种方式,根据自己的选择配置:
方式一:vi /etc/profile文件中配置JAVA_HOME以及PATH和CLASS_PATH
因为这样的设置将对所有用户的shell都生效,对系统安全会产生影响。
就是在这个文件的最后加上:
export JAVA_HOME=/usr/local/softWare/jdk1.6.0_45
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
执行 source /etc/profile 是配置立即生效
方式二:
修改.bashrc文件来配置环境变量:
#vi .bashrc
export JAVA_HOME=/usr/local/softWare/java/jdk1.6.0_45
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
配置完成之后,使用logout命令退出,然后重新登入使其生效.
验证一下是否安装成功,使用java -version查看一下。
2.安装scala 下载路径: https://downloads.lightbend.com/scala/2.12.8/scala-2.12.8.tgz scala-2.12.8.tgz 把下载包上传解压 tar -zxvf scala-2.12.8.tgz rm -rf scala-2.12.8.tgz 配置环境变量 vi /etc/profile export SCALA_HOME=/usr/local/scala-2.12.8 export PATH=$PATH:$JAVA_HOME/bin:$SCALA_HOME/bin 复制到其他节点: scp -r scala-2.12.8 192.168.0.109:/usr/local/ scp -r scala-2.12.8 192.168.0.110:/usr/local/ scp /etc/profile 192.168.0.109:/etc/ scp /etc/profile 192.168.0.110:/etc/ 使环境变量生效:source /etc/profile 验证:scala -version
3.ssh 免密码登录 参考https://blog.51cto.com/13001751/2487972
4.安装Hadoop 参考https://blog.51cto.com/13001751/2487972
5.安装spark 把下载包上传解压 cd /usr/local/ tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz cd /usr/local/spark-2.4.5-bin-hadoop2.7/conf/ #进入spark配置目录 mv spark-env.sh.template spark-env.sh #从配置模板复制 vi spark-env.sh #添加配置内容 export SPARK_HOME=/usr/local/spark-2.4.5-bin-hadoop2.7 export SCALA_HOME=/usr/local/scala-2.12.8 export JAVA_HOME=/usr/local/jdk1.8.0_191 export HADOOP_HOME=/usr/local/hadoop-2.7.7 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SCALA_HOME/bin export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop export SPARK_MASTER_IP=spark1 SPARK_LOCAL_DIRS=/usr/local/spark-2.4.5-bin-hadoop2.7 SPARK_DRIVER_MEMORY=1G export SPARK_LIBARY_PATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$HADOOP_HOME/lib/native、 vi slaves spark2 spark3 scp -r /usr/local/spark-2.4.5-bin-hadoop2.7 [email protected]:/usr/local/ scp -r /usr/local/spark-2.4.5-bin-hadoop2.7 [email protected]:/usr/local/ ./sbin/start-all.sh(不可直接start-all.sh,这个命令是hadoop的)
边栏推荐
猜你喜欢
随机推荐
【对线面试官】如何实现去重和幂等
GPT3中文自动生成小说「谷歌小发猫写作」
手机注册股票开户的流程?网上开户安全?
全志V853芯片Tina下RTSP环境搭建方法
解决Redis、MySQL缓存双写不一致问题
瑞吉外卖学习笔记3
Kubernetes-Basics-Common Commands
Elegantly detect and update web applications in real time
C语言学习概览(四)
sql合并连续时间段内,某字段相同的行。
国泰君安证券新手开户、有安全保障吗?
EasyExcel导入校验必填项不能为空
是时候展现真正实力了!揭秘2022华为开发者大赛背后的技术能力
Zhaoqi Technology Innovation and Entrepreneurship Event Event Platform, Investment and Financing Matchmaking, Online Live Roadshow
Guanghong Technology: The company provides manufacturing services for Xiaomi, Samsung, OPPO, Nokia and other products in India
SAP系统为什么要迁移上云?
文档管理系统:攻克这3个痛点,解决80%企业文档管理难题
Teach you how to use uniapp to access chat and IM instant messaging - source code sharing
10分钟快速入门RDS【华为云至简致远】
最高法院关于婚姻案件诉讼程序的一些解答