From 8052c57a3e412d9c96b6f4f9059f41816ee7d6ea Mon Sep 17 00:00:00 2001 From: AaronLin <1546848781@qq.com> Date: Tue, 29 Jun 2021 01:41:23 +0800 Subject: [PATCH 1/3] update hardware-environment doc style --- docs/zh-cn/1.3.6/user_doc/hardware-environment.md | 11 +++++------ 1 file changed, 5 insertions(+), 6 deletions(-) diff --git a/docs/zh-cn/1.3.6/user_doc/hardware-environment.md b/docs/zh-cn/1.3.6/user_doc/hardware-environment.md index 670740a403..1ec2f24775 100644 --- a/docs/zh-cn/1.3.6/user_doc/hardware-environment.md +++ b/docs/zh-cn/1.3.6/user_doc/hardware-environment.md @@ -1,6 +1,6 @@ # 软硬件环境建议配置 -DolphinScheduler 作为一款开源分布式工作流任务调度系统,可以很好的部署和运行在 Intel 架构服务器环境及主流虚拟化环境下,并支持主流的Linux操作系统环境。 +DolphinScheduler 作为一款开源分布式工作流任务调度系统,可以很好地部署和运行在 Intel 架构服务器及主流虚拟化环境下,并支持主流的Linux操作系统环境 ## 1. Linux 操作系统版本要求 @@ -12,7 +12,7 @@ DolphinScheduler 作为一款开源分布式工作流任务调度系统,可以 | Ubuntu LTS | 16.04 及以上 | > **注意:** ->以上 Linux 操作系统可运行在物理服务器以及 VMware、KVM、XEN 主流虚拟化环境上。 +>以上 Linux 操作系统可运行在物理服务器以及 VMware、KVM、XEN 主流虚拟化环境上 ## 2. 服务器建议配置 DolphinScheduler 支持运行在 Intel x86-64 架构的 64 位通用硬件服务器平台。对生产环境的服务器硬件配置有以下建议: @@ -23,8 +23,8 @@ DolphinScheduler 支持运行在 Intel x86-64 架构的 64 位通用硬件服务 | 4核+ | 8 GB+ | SAS | 千兆网卡 | 1+ | > **注意:** -> - 以上建议配置为部署 DolphinScheduler 的最低配置,生产环境强烈推荐使用更高的配置。 -> - 硬盘大小配置建议 50GB+ ,系统盘和数据盘分开。 +> - 以上建议配置为部署 DolphinScheduler 的最低配置,生产环境强烈推荐使用更高的配置 +> - 硬盘大小配置建议 50GB+ ,系统盘和数据盘分开 ## 3. 网络要求 @@ -44,5 +44,4 @@ DolphinScheduler正常运行提供如下的网络端口配置: ## 4. 客户端 Web 浏览器要求 -DolphinScheduler 推荐 Chrome 以及使用 Chrome 内核的较新版本浏览器访问前端可视化操作界面。 - +DolphinScheduler 推荐 Chrome 以及使用 Chromium 内核的较新版本浏览器访问前端可视化操作界面 \ No newline at end of file -- Gitee From 1275842ee743f85807697ee725073338ccf499b6 Mon Sep 17 00:00:00 2001 From: AaronLin <1546848781@qq.com> Date: Tue, 29 Jun 2021 01:42:16 +0800 Subject: [PATCH 2/3] update standalone-deployment doc style --- .../1.3.6/user_doc/standalone-deployment.md | 316 +++++++++--------- 1 file changed, 158 insertions(+), 158 deletions(-) diff --git a/docs/zh-cn/1.3.6/user_doc/standalone-deployment.md b/docs/zh-cn/1.3.6/user_doc/standalone-deployment.md index 32c9c8232f..7e5e93b624 100644 --- a/docs/zh-cn/1.3.6/user_doc/standalone-deployment.md +++ b/docs/zh-cn/1.3.6/user_doc/standalone-deployment.md @@ -2,99 +2,98 @@ # 1、基础软件安装(必装项请自行安装) - * PostgreSQL (8.2.15+) or MySQL (5.7系列) : 两者任选其一即可, 如MySQL则需要JDBC Driver 5.1.47+ - * [JDK](https://www.oracle.com/technetwork/java/javase/downloads/index.html) (1.8+) : 必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量 - * ZooKeeper (3.4.6+) :必装 - * Hadoop (2.6+) or MinIO :选装, 如果需要用到资源上传功能,针对单机可以选择本地文件目录作为上传文件夹(此操作不需要部署Hadoop);当然也可以选择上传到Hadoop or MinIO集群上 + * PostgreSQL (8.2.15+) or MySQL (5.7系列):两者任选其一即可,如 MySQL 则需要 JDBC Driver 5.1.47+ + * [JDK](https://www.oracle.com/technetwork/java/javase/downloads/index.html) (1.8+):必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量 + * ZooKeeper (3.4.6+):必装 + * Hadoop (2.6+) or MinIO:选装, 如果需要用到资源上传功能,针对单机可以选择本地文件目录作为上传文件夹(此操作不需要部署 Hadoop );当然也可以选择上传到 Hadoop or MinIO 集群上 ```markdown - 注意:DolphinScheduler本身不依赖Hadoop、Hive、Spark,仅是会调用他们的Client,用于对应任务的运行。 + 注意:DolphinScheduler 本身不依赖 Hadoop、Hive、Spark,仅会调用它们的 Client,用于运行对应的任务 ``` # 2、下载二进制tar.gz包 -- 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址: [下载](/zh-cn/download/download.html),下载后上传tar包到该目录中,并进行解压 +- 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址: [下载](/zh-cn/download/download.html),下载后上传 tar 包到该目录中,并进行解压 ```shell -# 创建部署目录,部署目录请不要创建在/root、/home等高权限目录 -mkdir -p /opt/dolphinscheduler; -cd /opt/dolphinscheduler; +# 创建部署目录,部署目录请不要创建在 /root、/home 等高权限目录 +mkdir -p /opt/dolphinscheduler +cd /opt/dolphinscheduler + # 解压缩 -tar -zxvf apache-dolphinscheduler-1.3.6-bin.tar.gz -C /opt/dolphinscheduler; +tar -zxvf apache-dolphinscheduler-1.3.6-bin.tar.gz -C /opt/dolphinscheduler mv apache-dolphinscheduler-1.3.6-bin dolphinscheduler-bin ``` # 3、创建部署用户并赋予目录操作权限 -- 创建部署用户,并且一定要配置sudo免密。以创建dolphinscheduler用户为例 +- 创建部署用户,并且一定要配置 sudo 免密。以创建 dolphinscheduler 用户为例 ```shell -# 创建用户需使用root登录 -useradd dolphinscheduler; +# 创建用户需使用 root 登录 +useradd dolphinscheduler # 添加密码 echo "dolphinscheduler" | passwd --stdin dolphinscheduler -# 配置sudo免密 +# 配置 sudo 免密 sed -i '$adolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' /etc/sudoers sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers -# 修改目录权限,使得部署用户对dolphinscheduler-bin目录有操作权限 +# 修改目录权限,使得部署用户对 dolphinscheduler-bin 目录有操作权限 chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-bin ``` -``` - 注意: - - 因为任务执行服务是以 sudo -u {linux-user} 切换不同linux用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。初学习者不理解的话,完全可以暂时忽略这一点 - - 如果发现/etc/sudoers文件中有"Default requiretty"这行,也请注释掉 - - 如果用到资源上传的话,还需要给该部署用户分配操作`本地文件系统或者HDFS或者MinIO`的权限 -``` +注意: +- 因为任务执行服务是以 sudo -u {linux-user} 切换不同 linux 用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。初学习者不理解的话,完全可以暂时忽略这一点 +- 如果发现 /etc/sudoers 文件中有 "Default requiretty" 这行,也请注释掉 +- 如果用到资源上传的话,还需要给该部署用户分配操作`本地文件系统或者 HDFS 或者 MinIO `的权限 # 4、ssh免密配置 -- 切换到部署用户并配置ssh本机免密登录 +- 切换到部署用户并配置 ssh 本机免密登录 ```shell -su dolphinscheduler; +su dolphinscheduler ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 600 ~/.ssh/authorized_keys ``` -注意:*正常设置后,dolphinscheduler用户在执行命令`ssh localhost` 是不需要再输入密码的* +*注意:正常设置后,dolphinscheduler 用户在执行命令 `ssh localhost` 是不需要再输入密码的* # 5、数据库初始化 -- 进入数据库,默认数据库是PostgreSQL,如选择MySQL的话,后续需要添加mysql-connector-java驱动包到DolphinScheduler的lib目录下 +- 进入数据库,默认数据库是 PostgreSQL,如选择 MySQL 的话,后续需要添加 mysql-connector-java 驱动包到 DolphinScheduler 的 lib 目录下 ``` mysql -uroot -p ``` - 进入数据库命令行窗口后,执行数据库初始化命令,设置访问账号和密码。**注: {user} 和 {password} 需要替换为具体的数据库用户名和密码** - ``` mysql - mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci; - mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'%' IDENTIFIED BY '{password}'; - mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'localhost' IDENTIFIED BY '{password}'; - mysql> flush privileges; - ``` +``` mysql + mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci; + mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'%' IDENTIFIED BY '{password}'; + mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'localhost' IDENTIFIED BY '{password}'; + mysql> flush privileges; + ``` - 创建表和导入基础数据 - 修改 conf 目录下 datasource.properties 中的下列配置 - - ```shell - vi conf/datasource.properties - ``` + ```shell + vi conf/datasource.properties + ``` - - 如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理), 还需要手动添加 [[ mysql-connector-java 驱动 jar ](https://downloads.MySQL.com/archives/c-j/)] 包到 lib 目录下,这里下载的是mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息 + - 如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理),还需要手动添加 [[ mysql-connector-java 驱动 jar ](https://downloads.MySQL.com/archives/c-j/)] 包到 lib 目录下,这里下载的是 mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息 ```properties # postgre - #spring.datasource.driver-class-name=org.postgresql.Driver - #spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler + # spring.datasource.driver-class-name=org.postgresql.Driver + # spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler # mysql spring.datasource.driver-class-name=com.mysql.jdbc.Driver spring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true 需要修改ip,本机localhost即可 @@ -108,153 +107,154 @@ mysql -uroot -p sh script/create-dolphinscheduler.sh ``` -​ *注意: 如果执行上述脚本报 ”/bin/java: No such file or directory“ 错误,请在/etc/profile下配置 JAVA_HOME 及 PATH 变量* + *注意: 如果执行上述脚本提示 “/bin/java: No such file or directory” 错误,请在 /etc/profile 下配置 JAVA_HOME 及 PATH 变量* # 6、修改运行参数 -- 修改 conf/env 目录下的 `dolphinscheduler_env.sh` 环境变量(以相关用到的软件都安装在/opt/soft下为例) +- 修改 conf/env 目录下的 `dolphinscheduler_env.sh` 环境变量(以相关用到的软件都安装在 /opt/soft 下为例) - ```shell - export HADOOP_HOME=/opt/soft/hadoop - export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop - #export SPARK_HOME1=/opt/soft/spark1 - export SPARK_HOME2=/opt/soft/spark2 - export PYTHON_HOME=/opt/soft/python - export JAVA_HOME=/opt/soft/java - export HIVE_HOME=/opt/soft/hive - export FLINK_HOME=/opt/soft/flink - export DATAX_HOME=/opt/soft/datax/bin/datax.py - export PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME:$PATH - ``` +```shell +export HADOOP_HOME=/opt/soft/hadoop +export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop +# export SPARK_HOME1=/opt/soft/spark1 +export SPARK_HOME2=/opt/soft/spark2 +export PYTHON_HOME=/opt/soft/python +export JAVA_HOME=/opt/soft/java +export HIVE_HOME=/opt/soft/hive +export FLINK_HOME=/opt/soft/flink +export DATAX_HOME=/opt/soft/datax/bin/datax.py +export PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME:$PATH +``` - `注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉;如果找不到dolphinscheduler_env.sh, 请运行 ls -a` +*注意: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉;如果找不到 dolphinscheduler_env.sh,请运行 `ls -a`* -- 将jdk软链到/usr/bin/java下(仍以 JAVA_HOME=/opt/soft/java 为例) +- 将jdk软链到 /usr/bin/java 下(仍以 JAVA_HOME=/opt/soft/java 为例) - ```shell - sudo ln -s /opt/soft/java/bin/java /usr/bin/java - ``` +```shell +sudo ln -s /opt/soft/java/bin/java /usr/bin/java +``` - - 修改一键部署配置文件 `conf/config/install_config.conf`中的各参数,特别注意以下参数的配置 + - 修改一键部署配置文件 `conf/config/install_config.conf` 中的各参数,特别注意以下参数的配置 - ```shell - # 这里填 mysql or postgresql - dbtype="mysql" - - # 数据库连接地址 - dbhost="localhost:3306" - - # 数据库名 - dbname="dolphinscheduler" - - # 数据库用户名,此处需要修改为上面设置的{user}具体值 - username="xxx" - - # 数据库密码, 如果有特殊字符,请使用\转义,需要修改为上面设置的{password}具体值 - password="xxx" +```shell +# 这里填 mysql or postgresql +dbtype="mysql" - #Zookeeper地址,单机本机是localhost:2181,记得把2181端口带上 - zkQuorum="localhost:2181" - - #将DS安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录 - installPath="/opt/soft/dolphinscheduler" - - #使用哪个用户部署,使用第3节创建的用户 - deployUser="dolphinscheduler" - - # 邮件配置,以qq邮箱为例 - # 邮件协议 - mailProtocol="SMTP" +# 数据库连接地址 +dbhost="localhost:3306" - # 邮件服务地址 - mailServerHost="smtp.qq.com" +# 数据库名 +dbname="dolphinscheduler" - # 邮件服务端口 - mailServerPort="25" +# 数据库用户名,此处需要修改为上面设置的 {user} 具体值 +username="xxx" - # mailSender和mailUser配置成一样即可 - # 发送者 - mailSender="xxx@qq.com" +# 数据库密码,如果有特殊字符,请使用 \ 转义,需要修改为上面设置的 {password} 具体值 +password="xxx" - # 发送用户 - mailUser="xxx@qq.com" +# Zookeeper地址,单机本机是 localhost:2181,记得把 2181 端口带上 +zkQuorum="localhost:2181" - # 邮箱密码 - mailPassword="xxx" +# 将 DS 安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录 +installPath="/opt/soft/dolphinscheduler" - # TLS协议的邮箱设置为true,否则设置为false - starttlsEnable="true" +# 使用哪个用户部署,使用第 3 节创建的用户 +deployUser="dolphinscheduler" - # 开启SSL协议的邮箱配置为true,否则为false。注意: starttlsEnable和sslEnable不能同时为true - sslEnable="false" +# 邮件配置,以 qq 邮箱为例 +# 邮件协议 +mailProtocol="SMTP" - # 邮件服务地址值,参考上面 mailServerHost - sslTrust="smtp.qq.com" +# 邮件服务地址 +mailServerHost="smtp.qq.com" - # 业务用到的比如sql等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为HDFS,因为HDFS支持本地文件系统;如果不需要资源上传功能请选择NONE。强调一点:使用本地文件系统不需要部署hadoop - resourceStorageType="HDFS" +# 邮件服务端口 +mailServerPort="25" - # 这里以保存到本地文件系统为例 - #注:但是如果你想上传到HDFS的话,NameNode启用了HA,则需要将hadoop的配置文件core-site.xml和hdfs-site.xml放到conf目录下,本例即是放到/opt/dolphinscheduler/conf下面,并配置namenode cluster名称;如果NameNode不是HA,则修改为具体的ip或者主机名即可 - defaultFS="file:///data/dolphinscheduler" #hdfs://{具体的ip/主机名}:8020 +# mailSender 和 mailUser 配置成一样即可 +# 发送者 +mailSender="xxx@qq.com" - # 如果没有使用到Yarn,保持以下默认值即可;如果ResourceManager是HA,则配置为ResourceManager节点的主备ip或者hostname,比如"192.168.xx.xx,192.168.xx.xx";如果是单ResourceManager请配置yarnHaIps=""即可 - # 注:依赖于yarn执行的任务,为了保证执行结果判断成功,需要确保yarn信息配置正确。 - yarnHaIps="192.168.xx.xx,192.168.xx.xx" +# 发送用户 +mailUser="xxx@qq.com" - # 如果ResourceManager是HA或者没有使用到Yarn保持默认值即可;如果是单ResourceManager,请配置真实的ResourceManager主机名或者ip - singleYarnIp="yarnIp1" +# 邮箱密码 +mailPassword="xxx" - # 资源上传根路径,支持HDFS和S3,由于hdfs支持本地文件系统,需要确保本地文件夹存在且有读写权限 - resourceUploadPath="/data/dolphinscheduler" +# TLS 协议的邮箱设置为 true,否则设置为 false +starttlsEnable="true" - # 具备权限创建resourceUploadPath的用户 - hdfsRootUser="hdfs" +# 开启 SSL 协议的邮箱配置为 true,否则为 false。注意: starttlsEnable 和 sslEnable 不能同时为 true +sslEnable="false" - #在哪些机器上部署DS服务,本机选localhost - ips="localhost" +# 邮件服务地址值,参考上面 mailServerHost +sslTrust="smtp.qq.com" - #ssh端口,默认22 - sshPort="22" - - #master服务部署在哪台机器上 - masters="localhost" +# 业务用到的比如 sql 等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为 HDFS,因为 HDFS 支持本地文件系统;如果不需要资源上传功能请选择 NONE。强调一点:使用本地文件系统不需要部署 hadoop +resourceStorageType="HDFS" - #worker服务部署在哪台机器上,并指定此worker属于哪一个worker组,下面示例的default即为组名 - workers="localhost:default" - - #报警服务部署在哪台机器上 - alertServer="localhost" - - #后端api服务部署在在哪台机器上 - apiServers="localhost" +# 这里以保存到本地文件系统为例 +# 注:但是如果你想上传到 HDFS 的话,NameNode 启用了 HA,则需要将 hadoop 的配置文件 core-site.xml 和 hdfs-site.xml 放到 conf 目录下,本例即是放到 /opt/dolphinscheduler/conf 下面,并配置 namenode cluster 名称;如果 NameNode 不是 HA,则修改为具体的 ip 或者主机名即可 +defaultFS="file:///data/dolphinscheduler" #hdfs://{具体的ip/主机名}:8020 - ``` - +# 如果没有使用到 Yarn,保持以下默认值即可;如果 ResourceManager 是 HA,则配置为 ResourceManager 节点的主备 ip 或者 hostname,比如 "192.168.xx.xx,192.168.xx.xx" ;如果是单 ResourceManager 请配置 yarnHaIps="" 即可 +# 注:依赖于yarn执行的任务,为了保证执行结果判断成功,需要确保yarn信息配置正确 +yarnHaIps="192.168.xx.xx,192.168.xx.xx" + +# 如果 ResourceManager 是 HA 或者没有使用到 Yarn 保持默认值即可;如果是单 ResourceManager,请配置真实的 ResourceManager 主机名或者 ip +singleYarnIp="yarnIp1" +# 资源上传根路径,支持 HDFS 和 S3,由于 hdfs 支持本地文件系统,需要确保本地文件夹存在且有读写权限 +resourceUploadPath="/data/dolphinscheduler" + +# 具备权限创建 resourceUploadPath 的用户 +hdfsRootUser="hdfs" + +# 在哪些机器上部署 DS 服务,本机选 localhost +ips="localhost" + +# ssh端口,默认22 +sshPort="22" + +# master服务部署在哪台机器上 +masters="localhost" + +# worker服务部署在哪台机器上,并指定此 worker 属于哪一个 worker 组,下面示例的 default 即为组名 +workers="localhost:default" + +# 报警服务部署在哪台机器上 +alertServer="localhost" + +# 后端api服务部署在在哪台机器上 +apiServers="localhost" + +``` - *注:如果打算用到`资源中心`功能,请执行以下命令:* + - ```shell - sudo mkdir /data/dolphinscheduler - sudo chown -R dolphinscheduler:dolphinscheduler /data/dolphinscheduler - ``` +*注:如果打算用到 `资源中心` 功能,请执行以下命令:* + +```shell +sudo mkdir /data/dolphinscheduler +sudo chown -R dolphinscheduler:dolphinscheduler /data/dolphinscheduler +``` # 7、一键部署 - 切换到部署用户,执行一键部署脚本 - `sh install.sh` +```shell +sh install.sh +``` - ``` - 注意: - 第一次部署的话,在运行中第3步`3,stop server`出现5次以下信息,此信息可以忽略 - sh: bin/dolphinscheduler-daemon.sh: No such file or directory - ``` +注意:第一次部署的话,在运行中第3步 `3,stop server` 出现 5 次以下信息,此信息可以忽略 +``` +sh: bin/dolphinscheduler-daemon.sh: No such file or directory +``` -- 脚本完成后,会启动以下5个服务,使用`jps`命令查看服务是否启动(`jps`为`java JDK`自带) +- 脚本完成后,会启动以下 5 个服务,使用 `jps` 命令查看服务是否启动( `jps` 为 `JDK` 自带) ```aidl MasterServer ----- master服务 @@ -266,7 +266,7 @@ mysql -uroot -p 如果以上服务都正常启动,说明自动部署成功 -部署成功后,可以进行日志查看,日志统一存放于logs文件夹内 +部署成功后,可以进行日志查看,日志统一存放于 logs 文件夹内 ```日志路径 logs/ @@ -277,11 +277,9 @@ mysql -uroot -p |—— dolphinscheduler-logger-server.log ``` - - # 8、登录系统 -- 访问前端页面地址,接口ip(自行修改) +- 访问前端页面地址,接口 ip (自行修改) http://192.168.xx.xx:12345/dolphinscheduler

@@ -291,47 +289,49 @@ http://192.168.xx.xx:12345/dolphinscheduler # 9、启停服务 * 一键停止集群所有服务 - - ` sh ./bin/stop-all.sh` +```shell +sh ./bin/stop-all.sh +``` * 一键开启集群所有服务 - ` sh ./bin/start-all.sh` +```shell +sh ./bin/start-all.sh +``` -* 启停Master +* 启停 Master ```shell sh ./bin/dolphinscheduler-daemon.sh start master-server sh ./bin/dolphinscheduler-daemon.sh stop master-server ``` -* 启停Worker +* 启停 Worker ```shell sh ./bin/dolphinscheduler-daemon.sh start worker-server sh ./bin/dolphinscheduler-daemon.sh stop worker-server ``` -* 启停Api +* 启停 Api ```shell sh ./bin/dolphinscheduler-daemon.sh start api-server sh ./bin/dolphinscheduler-daemon.sh stop api-server ``` -* 启停Logger +* 启停 Logger ```shell sh ./bin/dolphinscheduler-daemon.sh start logger-server sh ./bin/dolphinscheduler-daemon.sh stop logger-server ``` -* 启停Alert +* 启停 Alert ```shell sh ./bin/dolphinscheduler-daemon.sh start alert-server sh ./bin/dolphinscheduler-daemon.sh stop alert-server ``` -`注:服务用途请具体参见《系统架构设计》小节` - +`注:服务用途请具体参见《系统架构设计》小节` \ No newline at end of file -- Gitee From 7f7f0b858ed3e6203879a790ca9e3dd01e3f788a Mon Sep 17 00:00:00 2001 From: AaronLin <1546848781@qq.com> Date: Tue, 29 Jun 2021 01:42:38 +0800 Subject: [PATCH 3/3] update cluster-deployment doc style --- .../1.3.6/user_doc/cluster-deployment.md | 533 +++++++++--------- 1 file changed, 266 insertions(+), 267 deletions(-) diff --git a/docs/zh-cn/1.3.6/user_doc/cluster-deployment.md b/docs/zh-cn/1.3.6/user_doc/cluster-deployment.md index 4e755475ba..483b804dc9 100644 --- a/docs/zh-cn/1.3.6/user_doc/cluster-deployment.md +++ b/docs/zh-cn/1.3.6/user_doc/cluster-deployment.md @@ -2,127 +2,129 @@ # 1、基础软件安装(必装项请自行安装) - * PostgreSQL (8.2.15+) or MySQL (5.7系列) : 两者任选其一即可, 如MySQL则需要JDBC Driver 5.1.47+ - * [JDK](https://www.oracle.com/technetwork/java/javase/downloads/index.html) (1.8+) : 必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量 - * ZooKeeper (3.4.6+) :必装 - * Hadoop (2.6+) or MinIO :选装,如果需要用到资源上传功能,可以选择上传到Hadoop or MinIO上 + * PostgreSQL (8.2.15+) or MySQL (5.7系列):两者任选其一即可,如 MySQL 则需要 JDBC Driver 5.1.47+ + * [JDK](https://www.oracle.com/technetwork/java/javase/downloads/index.html) (1.8+):必装,请安装好后在 /etc/profile 下配置 JAVA_HOME 及 PATH 变量 + * ZooKeeper (3.4.6+):必装 + * Hadoop (2.6+) or MinIO:选装,如果需要用到资源上传功能,可以选择上传到 Hadoop or MinIO 上 ```markdown - 注意:DolphinScheduler本身不依赖Hadoop、Hive、Spark,仅是会调用他们的Client,用于对应任务的提交。 + 注意:DolphinScheduler本身不依赖 Hadoop、Hive、Spark,仅是会调用他们的 Client,用于提交对应的任务 ``` # 2、下载二进制tar.gz包 -- 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址: [下载](/zh-cn/download/download.html),下载后上传tar包到该目录中,并进行解压 +- 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址: [下载](/zh-cn/download/download.html),下载后上传 tar 包到该目录中,并进行解压 ```shell -# 创建部署目录,部署目录请不要创建在/root、/home等高权限目录 -mkdir -p /opt/dolphinscheduler; -cd /opt/dolphinscheduler; +# 创建部署目录,部署目录请不要创建在 /root、/home 等高权限目录 +mkdir -p /opt/dolphinscheduler +cd /opt/dolphinscheduler + # 解压缩 -tar -zxvf apache-dolphinscheduler-1.3.6-bin.tar.gz -C /opt/dolphinscheduler; +tar -zxvf apache-dolphinscheduler-1.3.6-bin.tar.gz -C /opt/dolphinscheduler mv apache-dolphinscheduler-1.3.6-bin dolphinscheduler-bin ``` # 3、创建部署用户和hosts映射 -- 在**所有**部署调度的机器上创建部署用户,并且一定要配置sudo免密。假如我们计划在ds1,ds2,ds3,ds4这4台机器上部署调度,首先需要在每台机器上都创建部署用户 +- 在**所有**部署调度的机器上创建部署用户,并且一定要配置 sudo 免密。假如我们计划在 ds1,ds2,ds3,ds4 这 4 台机器上部署调度,首先需要在每台机器上都创建部署用户 ```shell -# 创建用户需使用root登录,设置部署用户名,请自行修改,后面以dolphinscheduler为例 -useradd dolphinscheduler; +# 创建用户需使用root登录,设置部署用户名,请自行修改,后面以 dolphinscheduler 为例 +useradd dolphinscheduler -# 设置用户密码,请自行修改,后面以dolphinscheduler123为例 +# 设置用户密码,请自行修改,后面以 dolphinscheduler123 为例 echo "dolphinscheduler123" | passwd --stdin dolphinscheduler -# 配置sudo免密 +# 配置 sudo 免密 echo 'dolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' >> /etc/sudoers sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers ``` -``` - 注意: - - 因为是以 sudo -u {linux-user} 切换不同linux用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。 - - 如果发现/etc/sudoers文件中有"Default requiretty"这行,也请注释掉 - - 如果用到资源上传的话,还需要在`HDFS或者MinIO`上给该部署用户分配读写的权限 -``` + +注意: +- 因为是以 sudo -u {linux-user} 切换不同 linux 用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的 +- 如果发现 /etc/sudoers 文件中有 "Default requiretty" 这行,也请注释掉 +- 如果用到资源上传的话,还需要在 `HDFS或者MinIO` 上给该部署用户分配读写的权限 + # 4、配置hosts映射和ssh打通及修改目录权限 -- 以第一台机器(hostname为ds1)作为部署机,在ds1上配置所有待部署机器的hosts, 在ds1以root登录 +- 以第一台机器( hostname 为 ds1 )作为部署机,在 ds1 上配置所有待部署机器的 hosts,在 ds1 以 root 登录 - ```shell - vi /etc/hosts - - #add ip hostname - 192.168.xxx.xxx ds1 - 192.168.xxx.xxx ds2 - 192.168.xxx.xxx ds3 - 192.168.xxx.xxx ds4 - ``` +```shell +vi /etc/hosts - *注意:请删掉或者注释掉127.0.0.1这行* +# add ip hostname +192.168.xxx.xxx ds1 +192.168.xxx.xxx ds2 +192.168.xxx.xxx ds3 +192.168.xxx.xxx ds4 +``` -- 同步ds1上的/etc/hosts到所有部署机器 + *注意:请删掉或者注释掉 127.0.0.1 这行* - ```shell - for ip in ds2 ds3; #请将此处ds2 ds3替换为自己要部署的机器的hostname - do - sudo scp -r /etc/hosts $ip:/etc/ #在运行中需要输入root密码 - done - ``` +- 同步 ds1 上的 /etc/hosts 到所有部署机器 - *备注:当然 通过`sshpass -p xxx sudo scp -r /etc/hosts $ip:/etc/`就可以省去输入密码了* +```shell +for ip in ds2 ds3; # 请将此处 ds2 ds3 替换为自己要部署的机器的 hostname +do + sudo scp -r /etc/hosts $ip:/etc/ # 在运行中需要输入 root 密码 +done +``` - > centos下sshpass的安装: + *备注:当然 通过 `sshpass -p xxx sudo scp -r /etc/hosts $ip:/etc/` 就可以省去输入密码了* + + > centos 下 sshpass的安装: > - > 1. 先安装epel + > 1. 先安装 epel > > yum install -y epel-release > > yum repolist > - > 2. 安装完成epel之后,就可以按照sshpass了 + > 2. 安装完成 epel 之后,就可以按照 sshpass 了 > > yum install -y sshpass > > -- 在ds1上,切换到部署用户并配置ssh本机免密登录 +- 在 ds1 上,切换到部署用户并配置 ssh 本机免密登录 - ```shell - su dolphinscheduler; - - ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa - cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys - chmod 600 ~/.ssh/authorized_keys - ``` -​ 注意:*正常设置后,dolphinscheduler用户在执行命令`ssh localhost` 是不需要再输入密码的* +```shell +su dolphinscheduler; +ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa +cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys +chmod 600 ~/.ssh/authorized_keys +``` +​ *注意:正常设置后,dolphinscheduler 用户在执行命令 `ssh localhost` 是不需要再输入密码* -- 在ds1上,配置部署用户dolphinscheduler ssh打通到其他待部署的机器 - ```shell - su dolphinscheduler; - for ip in ds2 ds3; #请将此处ds2 ds3替换为自己要部署的机器的hostname - do - ssh-copy-id $ip #该操作执行过程中需要手动输入dolphinscheduler用户的密码 - done - # 当然 通过 sshpass -p xxx ssh-copy-id $ip 就可以省去输入密码了 - ``` +- 在 ds1 上,配置部署用户 dolphinscheduler ssh 打通到其他待部署的机器 -- 在ds1上,修改目录权限,使得部署用户对dolphinscheduler-bin目录有操作权限 +```shell +su dolphinscheduler; +for ip in ds2 ds3; # 请将此处 ds2 ds3 替换为自己要部署的机器的 hostname +do + ssh-copy-id $ip # 该操作执行过程中需要手动输入 dolphinscheduler 用户的密码 +done - ```shell - sudo chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-bin - ``` +# 当然 通过 sshpass -p xxx ssh-copy-id $ip 就可以省去输入密码了 +``` + +- 在 ds1 上,修改目录权限,使得部署用户对 dolphinscheduler-bin 目录有操作权限 + +```shell +sudo chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-bin +``` # 5、数据库初始化 -- 进入数据库,默认数据库是PostgreSQL,如选择MySQL的话,后续需要添加mysql-connector-java驱动包到DolphinScheduler的lib目录下,这里以MySQL为例 +- 进入数据库,默认数据库是 PostgreSQL,如选择 MySQL 的话,后续需要添加 mysql-connector-java 驱动包到 DolphinScheduler 的 lib 目录下,这里以 MySQL 为例 ``` mysql -h192.168.xx.xx -P3306 -uroot -p ``` @@ -144,12 +146,12 @@ mysql -h192.168.xx.xx -P3306 -uroot -p vi conf/datasource.properties ``` - - 如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理), 还需要手动添加 [[ mysql-connector-java 驱动 jar ](https://downloads.mysql.com/archives/c-j/)] 包到 lib 目录下,这里下载的是mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息 + - 如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理),还需要手动添加 [[ mysql-connector-java 驱动 jar ](https://downloads.mysql.com/archives/c-j/)] 包到 lib 目录下,这里下载的是 mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息 ```properties - #postgre - #spring.datasource.driver-class-name=org.postgresql.Driver - #spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler + # postgre + # spring.datasource.driver-class-name=org.postgresql.Driver + # spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler # mysql spring.datasource.driver-class-name=com.mysql.jdbc.Driver spring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true 需要修改ip @@ -162,153 +164,149 @@ mysql -h192.168.xx.xx -P3306 -uroot -p ```shell sh script/create-dolphinscheduler.sh ``` - -​ *注意: 如果执行上述脚本报 ”/bin/java: No such file or directory“ 错误,请在/etc/profile下配置 JAVA_HOME 及 PATH 变量* + *注意: 如果执行上述脚本报 “/bin/java: No such file or directory” 错误,请在/etc/profile 下配置 JAVA_HOME 及 PATH 变量* # 6、修改运行参数 -- 修改 conf/env 目录下的 `dolphinscheduler_env.sh` 环境变量(以相关用到的软件都安装在/opt/soft下为例) +- 修改 conf/env 目录下的 `dolphinscheduler_env.sh` 环境变量(以相关用到的软件都安装在 /opt/soft 下为例) - ```shell - export HADOOP_HOME=/opt/soft/hadoop - export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop - #export SPARK_HOME1=/opt/soft/spark1 - export SPARK_HOME2=/opt/soft/spark2 - export PYTHON_HOME=/opt/soft/python - export JAVA_HOME=/opt/soft/java - export HIVE_HOME=/opt/soft/hive - export FLINK_HOME=/opt/soft/flink - export DATAX_HOME=/opt/soft/datax/bin/datax.py - export PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME:$PATH +```shell + export HADOOP_HOME=/opt/soft/hadoop + export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop + # export SPARK_HOME1=/opt/soft/spark1 + export SPARK_HOME2=/opt/soft/spark2 + export PYTHON_HOME=/opt/soft/python + export JAVA_HOME=/opt/soft/java + export HIVE_HOME=/opt/soft/hive + export FLINK_HOME=/opt/soft/flink + export DATAX_HOME=/opt/soft/datax/bin/datax.py + export PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME:$PATH - ``` +``` - `注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉` +`注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉` -- 将jdk软链到/usr/bin/java下(仍以 JAVA_HOME=/opt/soft/java 为例) +- 将 JDK 软链到 /usr/bin/java 下(仍以 JAVA_HOME=/opt/soft/java 为例) - ```shell - sudo ln -s /opt/soft/java/bin/java /usr/bin/java - ``` +```shell +sudo ln -s /opt/soft/java/bin/java /usr/bin/java +``` - - 修改一键部署配置文件 `conf/config/install_config.conf`中的各参数,特别注意以下参数的配置 + - 修改一键部署配置文件 `conf/config/install_config.conf` 中的各参数,特别注意以下参数的配置 - ```shell - # 这里填 mysql or postgresql - dbtype="mysql" +```shell +# 这里填 mysql or postgresql +dbtype="mysql" - # 数据库连接地址 - dbhost="192.168.xx.xx:3306" +# 数据库连接地址 +dbhost="192.168.xx.xx:3306" - # 数据库名 - dbname="dolphinscheduler" +# 数据库名 +dbname="dolphinscheduler" - # 数据库用户名,此处需要修改为上面设置的{user}具体值 - username="xxx" +# 数据库用户名,此处需要修改为上面设置的 {user} 具体值 +username="xxx" - # 数据库密码, 如果有特殊字符,请使用\转义,需要修改为上面设置的{password}具体值 - password="xxx" +# 数据库密码,如果有特殊字符,请使用 \ 转义,需要修改为上面设置的 {password} 具体值 +password="xxx" - #Zookeeper地址 - zkQuorum="192.168.xx.xx:2181,192.168.xx.xx:2181,192.168.xx.xx:2181" +# Zookeeper 地址 +zkQuorum="192.168.xx.xx:2181,192.168.xx.xx:2181,192.168.xx.xx:2181" - #将DS安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录 - installPath="/opt/soft/dolphinscheduler" +# 将 DS 安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录 +installPath="/opt/soft/dolphinscheduler" - #使用哪个用户部署,使用第3节创建的用户 - deployUser="dolphinscheduler" +# 使用哪个用户部署,使用第 3 节创建的用户 +deployUser="dolphinscheduler" - # 邮件配置,以qq邮箱为例 - # 邮件协议 - mailProtocol="SMTP" +# 邮件配置,以 qq 邮箱为例 +# 邮件协议 +mailProtocol="SMTP" - # 邮件服务地址 - mailServerHost="smtp.qq.com" +# 邮件服务地址 +mailServerHost="smtp.qq.com" - # 邮件服务端口 - mailServerPort="25" +# 邮件服务端口 +mailServerPort="25" - # mailSender和mailUser配置成一样即可 - # 发送者 - mailSender="xxx@qq.com" +# mailSender和 mailUser 配置成一样即可 - # 发送用户 - mailUser="xxx@qq.com" +# 发送者 +mailSender="xxx@qq.com" - # 邮箱密码 - mailPassword="xxx" +# 发送用户 +mailUser="xxx@qq.com" - # TLS协议的邮箱设置为true,否则设置为false - starttlsEnable="true" +# 邮箱密码 +mailPassword="xxx" - # 开启SSL协议的邮箱配置为true,否则为false。注意: starttlsEnable和sslEnable不能同时为true - sslEnable="false" +# TLS 协议的邮箱设置为 true,否则设置为 false +starttlsEnable="true" - # 邮件服务地址值,参考上面 mailServerHost - sslTrust="smtp.qq.com" - - # 业务用到的比如sql等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为HDFS,因为HDFS支持本地文件系统;如果不需要资源上传功能请选择NONE。强调一点:使用本地文件系统不需要部署hadoop - resourceStorageType="HDFS" +# 开启 SSL 协议的邮箱配置为 true,否则为 false。注意: starttlsEnable 和 sslEnable 不能同时为 true +sslEnable="false" - #如果上传资源保存想保存在hadoop上,hadoop集群的NameNode启用了HA的话,需要将hadoop的配置文件core-site.xml和hdfs-site.xml放到安装路径的conf目录下,本例即是放到/opt/soft/dolphinscheduler/conf下面,并配置namenode cluster名称;如果NameNode不是HA,则只需要将mycluster修改为具体的ip或者主机名即可 - defaultFS="hdfs://mycluster:8020" +# 邮件服务地址值,参考上面 mailServerHost +sslTrust="smtp.qq.com" +# 业务用到的比如 sql 等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为 HDFS,因为 HDFS 支持本地文件系统;如果不需要资源上传功能请选择 NONE。强调一点:使用本地文件系统不需要部署 hadoop +resourceStorageType="HDFS" - # 如果没有使用到Yarn,保持以下默认值即可;如果ResourceManager是HA,则配置为ResourceManager节点的主备ip或者hostname,比如"192.168.xx.xx,192.168.xx.xx";如果是单ResourceManager请配置yarnHaIps=""即可 - yarnHaIps="192.168.xx.xx,192.168.xx.xx" +# 如果上传资源保存想保存在 hadoop 上,hadoop 集群的 NameNode 启用了 HA 的话,需要将 hadoop 的配置文件 core-site.xml 和 hdfs-site.xml 放到安装路径的 conf 目录下,本例即是放到 /opt/soft/dolphinscheduler/conf 下面,并配置 namenode cluster 名称;如果 NameNode 不是 HA,则只需要将 mycluster 修改为具体的 ip 或者主机名即可 +defaultFS="hdfs://mycluster:8020" - # 如果ResourceManager是HA或者没有使用到Yarn保持默认值即可;如果是单ResourceManager,请配置真实的ResourceManager主机名或者ip - singleYarnIp="yarnIp1" - # 资源上传根路径,主持HDFS和S3,由于hdfs支持本地文件系统,需要确保本地文件夹存在且有读写权限 - resourceUploadPath="/data/dolphinscheduler" +# 如果没有使用到 Yarn,保持以下默认值即可;如果 ResourceManager 是 HA,则配置为 ResourceManager 节点的主备 ip 或者 hostname,比如 "192.168.xx.xx,192.168.xx.xx";如果是单 ResourceManager 请配置 yarnHaIps="" 即可 +yarnHaIps="192.168.xx.xx,192.168.xx.xx" - # 具备权限创建resourceUploadPath的用户 - hdfsRootUser="hdfs" +# 如果 ResourceManager 是 HA 或者没有使用到 Yarn 保持默认值即可;如果是单 ResourceManager,请配置真实的 ResourceManager 主机名或者 ip +singleYarnIp="yarnIp1" +# 资源上传根路径,主持 HDFS 和 S3,由于 hdfs支持本地文件系统,需要确保本地文件夹存在且有读写权限 +resourceUploadPath="/data/dolphinscheduler" +# 具备权限创建 resourceUploadPath的用户 +hdfsRootUser="hdfs" - #在哪些机器上部署DS服务,本机选localhost - ips="ds1,ds2,ds3,ds4" - #ssh端口,默认22 - sshPort="22" +# 在哪些机器上部署 DS 服务,本机选 localhost +ips="ds1,ds2,ds3,ds4" - #master服务部署在哪台机器上 - masters="ds1,ds2" +# ssh 端口,默认22 +sshPort="22" - #worker服务部署在哪台机器上,并指定此worker属于哪一个worker组,下面示例的default即为组名 - workers="ds3:default,ds4:default" +# master 服务部署在哪台机器上 +masters="ds1,ds2" - #报警服务部署在哪台机器上 - alertServer="ds2" +# worker 服务部署在哪台机器上,并指定此 worker 属于哪一个 worker 组,下面示例的 default 即为组名 +workers="ds3:default,ds4:default" - #后端api服务部署在在哪台机器上 - apiServers="ds1" +# 报警服务部署在哪台机器上 +alertServer="ds2" - ``` - - *特别注意:* - - - 如果需要用资源上传到Hadoop集群功能, 并且Hadoop集群的NameNode 配置了 HA的话 ,需要开启 HDFS类型的资源上传,同时需要将Hadoop集群下的core-site.xml和hdfs-site.xml复制到/opt/dolphinscheduler/conf,非NameNode HA跳过次步骤 - +# 后端 api 服务部署在在哪台机器上 +apiServers="ds1" + +``` +*特别注意:如果需要用资源上传到 Hadoop 集群功能, 并且 Hadoop 集群的 NameNode 配置了 HA 的话 ,需要开启 HDFS 类型的资源上传,同时需要将 Hadoop 集群下的 core-site.xml 和 hdfs-site.xml 复制到 /opt/dolphinscheduler/conf,非 NameNode HA 跳过次步骤* # 7、一键部署 -- 切换到部署用户dolphinscheduler,然后执行一键部署脚本 +- 切换到部署用户 dolphinscheduler,然后执行一键部署脚本 - `sh install.sh` +```bash +sh install.sh +``` - ``` - 注意: - 第一次部署的话,在运行中第3步`3,stop server`出现5次以下信息,此信息可以忽略 - sh: bin/dolphinscheduler-daemon.sh: No such file or directory - ``` +注意:第一次部署的话,在运行中第 3 步 `3,stop server` 出现 5 次以下信息,此信息可以忽略 +```shell +sh: bin/dolphinscheduler-daemon.sh: No such file or directory +``` -- 脚本完成后,会启动以下5个服务,使用`jps`命令查看服务是否启动(`jps`为`java JDK`自带) +- 脚本完成后,会启动以下 5 个服务,使用 `jps` 命令查看服务是否启动( `jps` 为 `JDK` 自带) ```aidl MasterServer ----- master服务 @@ -320,7 +318,7 @@ mysql -h192.168.xx.xx -P3306 -uroot -p 如果以上服务都正常启动,说明自动部署成功 -部署成功后,可以进行日志查看,日志统一存放于logs文件夹内 +部署成功后,可以进行日志查看,日志统一存放于 logs 文件夹内 ```日志路径 logs/ @@ -331,11 +329,9 @@ mysql -h192.168.xx.xx -P3306 -uroot -p |—— dolphinscheduler-logger-server.log ``` - - # 8、登录系统 -- 访问前端页面地址,接口ip(自行修改) +- 访问前端页面地址,接口 ip (自行修改) http://192.168.xx.xx:12345/dolphinscheduler

@@ -348,41 +344,45 @@ http://192.168.xx.xx:12345/dolphinscheduler * 一键停止集群所有服务 - ` sh ./bin/stop-all.sh` +```shell +sh ./bin/stop-all.sh +``` * 一键开启集群所有服务 - ` sh ./bin/start-all.sh` +```shell +sh ./bin/start-all.sh +``` -* 启停Master +* 启停 Master ```shell sh ./bin/dolphinscheduler-daemon.sh start master-server sh ./bin/dolphinscheduler-daemon.sh stop master-server ``` -* 启停Worker +* 启停 Worker ```shell sh ./bin/dolphinscheduler-daemon.sh start worker-server sh ./bin/dolphinscheduler-daemon.sh stop worker-server ``` -* 启停Api +* 启停 Api ```shell sh ./bin/dolphinscheduler-daemon.sh start api-server sh ./bin/dolphinscheduler-daemon.sh stop api-server ``` -* 启停Logger +* 启停 Logger ```shell sh ./bin/dolphinscheduler-daemon.sh start logger-server sh ./bin/dolphinscheduler-daemon.sh stop logger-server ``` -* 启停Alert +* 启停 Alert ```shell sh ./bin/dolphinscheduler-daemon.sh start alert-server @@ -391,96 +391,95 @@ sh ./bin/dolphinscheduler-daemon.sh stop alert-server `注:服务用途请具体参见《系统架构设计》小节` - ----- -### 附录: +### 附录 - - 如果您需要使用到企业微信进行告警,请在安装完成后,修改 alert.properties 文件,然后重启 alert 服务即可: - - ``` - # 设置企业微信告警功能是否开启:开启为 true,否则为 false。 - enterprise.wechat.enable="true" - ``` - - ``` - # 设置 corpid,每个企业都拥有唯一的 corpid,获取此信息可在管理后台“我的企业”-“企业信息”下查看“企业 ID”(需要有管理员权限) - enterprise.wechat.corp.id="xxx" - ``` -

- -

- - ``` - # 设置 secret,secret 是企业应用里面用于保障数据安全的“钥匙”,每一个应用都有一个独立的访问密钥。 - enterprise.wechat.secret="xxx" - ``` -

- -

- - ``` - # 设置 agentid,每个应用都有唯一的 agentid。在管理后台->“应用与小程序”->“应用”,点进某个应用,即可看到 agentid。 - enterprise.wechat.agent.id="xxxx" - ``` -

- -

- - ``` - # 设置 userid,多个用逗号分隔。每个成员都有唯一的 userid,即所谓“帐号”。在管理后台->“通讯录”->点进某个成员的详情页,可以看到。 - enterprise.wechat.users=zhangsan,lisi - ``` -

- -

- - ``` - # 获取 access_token 的地址,使用如下例子无需修改。 - enterprise.wechat.token.url=https://qyapi.weixin.qq.com/cgi-bin/gettoken?corpid={corpId}&corpsecret={secret} - - # 发送应用消息地址,使用如下例子无需改动。 - enterprise.wechat.push.url=https://qyapi.weixin.qq.com/cgi-bin/message/send?access_token={token} - - #发送消息格式,无需改动 - enterprise.wechat.user.send.msg={\"touser\":\"{toUser}\",\"agentid\":\"{agentId}\",\"msgtype\":\"markdown\",\"markdown\":{\"content\":\"{msg}\"}} - ``` + - 如果您需要使用到企业微信进行告警,请在安装完成后,修改 alert.properties 文件,然后重启 alert 服务即可 + +``` +# 设置企业微信告警功能是否开启:开启为 true,否则为 false +enterprise.wechat.enable="true" +``` + +``` +# 设置 corpid,每个企业都拥有唯一的 corpid,获取此信息可在管理后台 “我的企业” - “企业信息” 下查看 “企业 ID”(需要有管理员权限) +enterprise.wechat.corp.id="xxx" +``` +

+ +

+ +``` +# 设置 secret,secret 是企业应用里面用于保障数据安全的 “钥匙”,每一个应用都有一个独立的访问密钥 +enterprise.wechat.secret="xxx" +``` +

+ +

+ +``` +# 设置 agentid,每个应用都有唯一的 agentid。在管理后台 -> “应用与小程序” -> “应用”,点进某个应用,即可看到 agentid +enterprise.wechat.agent.id="xxxx" +``` +

+ +

- - 关于 dolphinscheduler 在运行过程中,ip地址获取错误的问题: +``` +# 设置 userid,多个用逗号分隔。每个成员都有唯一的 userid,即所谓 “帐号”。在管理后台 -> “通讯录” -> 点进某个成员的详情页,可以看到 +enterprise.wechat.users=zhangsan,lisi +``` +

+ +

+ +``` +# 获取 access_token 的地址,使用如下例子无需修改 +enterprise.wechat.token.url=https://qyapi.weixin.qq.com/cgi-bin/gettoken?corpid={corpId}&corpsecret={secret} + +# 发送应用消息地址,使用如下例子无需改动 +enterprise.wechat.push.url=https://qyapi.weixin.qq.com/cgi-bin/message/send?access_token={token} + +# 发送消息格式,无需改动 +enterprise.wechat.user.send.msg={\"touser\":\"{toUser}\",\"agentid\":\"{agentId}\",\"msgtype\":\"markdown\",\"markdown\":{\"content\":\"{msg}\"}} +``` + +- 关于 dolphinscheduler 在运行过程中,ip 地址获取错误的问题: + +> master 服务、worker 服务在 zookeeper 注册时,会以 ip:port 的形式创建相关信息 - > master服务、worker服务在zookeeper注册时,会以ip:port的形式创建相关信息。 - - 如果ip地址获取错误,请检查网络信息,如linux系统通过`ifconfig`命令查看网络信息,以下图为例: - -

- -

- - 可以使用dolphinscheduler提供的三种策略,获取可用ip: - - 1. default: 优先获取内网网卡获取ip地址,其次获取外网网卡获取ip地址,在前两项失效情况下,使用第一块可用网卡的地址。 - 2. inner: 使用内网网卡获取ip地址,如果获取失败抛出异常信息。 - 3. outer: 使用外网网卡获取ip地址,如果获取失败抛出异常信息。 - - 配置方式是在`common.properties`中修改相关配置: - - ``` - # network IP gets priority, default: inner outer - #dolphin.scheduler.network.priority.strategy=default - ``` - 以上配置修改后重启服务生效。 - - 如果ip地址获取依然错误,请下载[dolphinscheduler-netutils.jar](/asset/dolphinscheduler-netutils.jar)到相应机器,执行以下命令以进一步排障,并反馈给社区开发人员: - - ``` - java -jar target/dolphinscheduler-netutils.jar - ``` - - - 配置sudo免密,用于解决默认配置sudo权限过大或不能申请root权限的使用问题 - - 配置dolphinscheduler OS账号的sudo权限为部分普通用户范围内的一个普通用户管理者,限制指定用户在指定主机上运行某些命令,详细配置请看sudo权限管理。 - 例如sudo权限管理配置dolphinscheduler OS账号只能操作用户userA,userB,userC的权限(其中用户userA,userB,userC用于多租户向大数据集群提交作业) - - ```shell - echo 'dolphinscheduler ALL=(userA,userB,userC) NOPASSWD: NOPASSWD: ALL' >> /etc/sudoers - sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers - ``` +如果 ip 地址获取错误,请检查网络信息,如 Linux 系统通过 `ifconfig` 命令查看网络信息,以下图为例: + +

+ +

+ +可以使用 dolphinscheduler 提供的三种策略,获取可用 ip: + + 1. default: 优先获取内网网卡获取 ip 地址,其次获取外网网卡获取 ip 地址,在前两项失效情况下,使用第一块可用网卡的地址 + 2. inner: 使用内网网卡获取 ip地址,如果获取失败抛出异常信息 + 3. outer: 使用外网网卡获取 ip地址,如果获取失败抛出异常信息 + + 配置方式是在 `common.properties` 中修改相关配置: + + ``` + # network IP gets priority, default: inner outer + # dolphin.scheduler.network.priority.strategy=default + ``` + 以上配置修改后重启服务生效 + +如果 ip 地址获取依然错误,请下载 [dolphinscheduler-netutils.jar](/asset/dolphinscheduler-netutils.jar) 到相应机器,执行以下命令以进一步排障,并反馈给社区开发人员: + +``` +java -jar target/dolphinscheduler-netutils.jar +``` + +- 配置 sudo 免密,用于解决默认配置 sudo 权限过大或不能申请 root 权限的使用问题 + +配置 dolphinscheduler OS 账号的 sudo 权限为部分普通用户范围内的一个普通用户管理者,限制指定用户在指定主机上运行某些命令,详细配置请看 sudo 权限管理 +例如 sudo 权限管理配置 dolphinscheduler OS 账号只能操作用户 userA,userB,userC 的权限(其中用户 userA,userB,userC 用于多租户向大数据集群提交作业) + +```shell +echo 'dolphinscheduler ALL=(userA,userB,userC) NOPASSWD: NOPASSWD: ALL' >> /etc/sudoers +sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers +``` \ No newline at end of file -- Gitee