【实践经验】基于DataSphere Studio1.1.0单机安装部署实战 #3185
hx23840
started this conversation in
Solicit Articles(征文)
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
环境以及版本
基础环境准备
基础软件安装
nginx安装特殊一些,不在默认的 yum 源中,可以使用 epel 或者官网的 yum 源,本例使用官网的 yum 源
MySQL (5.5+); JDK (1.8.0_141以上); Python(2.x和3.x都支持); Nginx
特别注意MySQL和JDK版本,否则后面启动会有问题
Hadoop安装
采用官方安装包安装,要求Hadoop版本对应如下
Hadoop(2.7.2,Hadoop其他版本需自行编译Linkis) ,安装的机器必须支持执行 hdfs dfs -ls / 命令
官方下载页面
安装步骤,创建用户
修改hadoop用户,切换到root帐号,编辑/etc/sudoers(可以使用visudo或者用vi,不过vi要强制保存才可以),添加下面内容到文件最下方
切换回hadoop用户,解压缩安装包
配置环境变量
添加如下内容(偷下懒,把后面的Hive和Spark环境变量也一同配置好了)
使配置生效
配置免密登录,过程是先生成公私钥,再把公钥拷贝到对应的帐号下
配置成功后,测试下是否成功,如果不需要输入密码,证明配置成功。
添加hosts解析
修改后
配置Hadoop
core-site.xml修改如下
修改Hadoop的hdfs目录配置
hdfs-site.xml修改如下
修改Hadoop的yarn配置
yarn-site.xml修改如下
修改mapred
mapred-site.xml修改如下
修改Hadoop环境配置文件
初始化hadoop
临时关闭防火墙
浏览器访问Hadoop
访问hadoop的默认端口号为50070
Hive安装
采用官方安装包安装,要求Hive版本对应如下
Hive(2.3.3,Hive其他版本需自行编译Linkis),安装的机器必须支持执行hive -e "show databases"命令
官方下载页面
修改配置文件
在Hadoop中创建文件夹并设置权限
修改hive配置文件
配置文件如下
配置hive中jdbc的MySQL驱动
配置环境变量
初始化schema
初始化完成后修改MySQL链接信息,之后配置MySQL IP 端口以及放元数据的库名称
验证安装
Spark安装
采用官方安装包安装,要求Spark版本对应如下
Spark(支持2.0以上所有版本) ,一键安装版本,需要2.4.3版本,安装的机器必须支持执行spark-sql -e "show databases" 命令
官方下载页面
安装
配置spark环境变量以及备份配置文件
配置程序的环境变量
修改默认的配置文件
配置工作节点
配置hive
验证应用程序
访问集群中的所有应用程序的默认端口号为8080
验证安装
提示
查找原因是因为没有集成hadoop的spark没有hive驱动,按网上的讲法,要么自己编译带驱动版本,要么把驱动文件直接放到jars目录。第一种太麻烦,第二种没成功,我用的第三种方法。下载对应版本集成了hadoop的spark安装包,直接覆盖原来的jars目录
如果提示缺少MySQL驱动,可以将mysql-connector-java-5.1.49/mysql-connector-java-5.1.49.jar放入到spark的jars目录
如果本地没有相关驱动,执行下面脚本
DataSphere Studio安装
准备安装包
修改配置
用户需要对 xx/dss_linkis/conf 目录下的 config.sh 和 db.sh 进行修改
脚本安装
等待安装脚本执行完毕,再进到linkis目录里修改对应的配置文件
修改linkis-ps-publicservice.properties配置,否则hive数据库刷新不出来表
拷贝缺少的jar
安装完成后启动
启动完成后eureka注册页面
最后一个坑,前端部署完会报权限错误,把前端迁移到opt目录,记得修改nginx配置
最后系统启动完毕
Beta Was this translation helpful? Give feedback.
All reactions