Amazon EMR 发行版 5.33.1 - Amazon EMR
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 Amazon Web Services 服务入门

Amazon EMR 发行版 5.33.1

应用程序版本

此版本支持以下应用程序:FlinkGangliaHBaseHCatalogHadoopHiveHudiHueJupyterEnterpriseGatewayJupyterHubLivyMXNetMahoutOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。

有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:

应用程序版本信息
emr-5.33.1 emr-5.33.0 emr-5.32.1 emr-5.32.0
Amazon SDK for Java 1.11.9701.11.9701.11.8901.11.890
Flink1.12.11.12.11.11.21.11.2
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.131.4.13
HCatalog2.3.72.3.72.3.72.3.7
Hadoop2.10.12.10.12.10.12.10.1
Hive2.3.72.3.72.3.72.3.7
Hudi0.7.0-amzn-10.7.0-amzn-10.6.0-amzn-00.6.0-amzn-0
Hue4.9.04.9.04.8.04.8.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.2.21.2.21.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.7.01.7.01.7.01.7.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.2.05.2.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0.245.10.245.10.240.10.240.1
Spark2.4.72.4.72.4.72.4.7
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.4.12.3.12.3.1
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL) - - - -
Zeppelin0.9.00.9.00.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

发布说明

以下版本注释包括有关 Amazon EMR 发行版 5.33.0/5.33.1 的信息。更改与 5.32.0 有关。

首次发布日期:2021 年 4 月 19 日

上次更新日期:2021 年 8 月 9 日

升级

  • 已将 Amazon Glue 连接器升级到版本 1.15.0

  • 已升级到版本 1.11.970

  • 已将 EMRFS 升级到版本 2.46.0

  • 已将 EMR Goodies 升级到版本 2.14.0

  • 已将 EMR 记录服务器升级到版本 1.9.0

  • 已将 EMR S3 Dist CP 升级到版本 2.18.0

  • 已将 EMR Secret Agent 升级到版本 1.8.0

  • 已将 Flink 升级到版本 1.12.1

  • 已将 Hadoop 升级到版本 2.10.1-amzn-1

  • 已将 Hive 升级到版本 2.3.7-amzn-4

  • 已将 Hudi 升级到版本 0.7.0

  • 已将 Hue 升级到版本 4.9.0

  • 已将 OpenCV 升级到版本 4.5.0

  • 已将 Presto 升级到版本 0.245.1-amzn-0

  • 已将 R 升级到版本 4.0.2

  • 已将 Spark 升级到版本 2.4.7-amzn-1

  • 已将 TensorFlow 升级到版本 2.4.1

  • 已将 Zeppelin 升级到版本 0.9.0

更改、增强功能和解决的问题

  • 较新的 Amazon EMR 发行版修复了 Amazon EMR 中较早版本的 AL2 上“最大打开文件数”限制较低的问题。Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本现在用更高的“最大打开文件数”设置永久修复了此问题。

  • 配置集群以修复 Apache YARN 时间轴服务器 1 和 1.5 版的性能问题

    Apache YARN 时间轴服务器版本 1 和 1.5 可能会对非常活跃的大型 EMR 群集造成性能问题,尤其是 yarn.resourcemanager.system-metrics-publisher.enabled=true,这是 EMR 中的默认设置。开源 YARN 时间轴服务器 v2 解决了与 YARN 时间轴服务器可扩展性相关的性能问题。

    此问题的其他解决方法包括:

    • 配置 yarn.资源管理器.系统指标-发布者.启用=false 在 yarn-site.xml 中。

    • 如下所述,在创建群集时启用此问题的修复程序。

    以下 Amazon EMR 版本包含针对此 YARN 时间轴服务器性能问题的修复程序。

    EMR 5.30.2、5.31.1、5.32.1、5.33.1、5.34.x、6.0.1、6.1.1、6.2.1、6.3.1、6.4.x

    要对上述任何指定的 Amazon EMR 版本启用修复程序,请使用 aws emr create-cluster 命令参数--configurations file://./configurations.json 在传入的配置 JSON 文件中将这些属性设置为 true。或者使用重新配置控制台 UI 启用修复程序。

    配置 .json 文件内容的示例:

    [ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
  • Amazon EMR 5.33.1 版修复了托管扩展无法完成或导致应用程序出故障的问题。

  • 现在,从 Hive 元存储中获取分区位置进行 Spark 插入查询时,Spark 运行时的速度更快。

  • 升级了组件版本。有关组件版本的列表,请参阅本指南中的关于 Amazon EMR 发行版

  • 在每个新集群上已安装了Amazon Java SDK Bundle。这是一个包含所有服务 SDK 及其依赖项的单个 jar,而不是单个组件 jar。有关更多信息,请参阅 Java SDK Bundled Dependency

  • 修复了早期 Amazon EMR 发行版中的托管扩展问题,并对托管扩展进行了改进,从而显著降低了应用程序故障率。

新 功能

  • Amazon EMR 支持 Amazon S3 接入点,这是 Amazon S3 的一项功能,可让您轻松管理共享数据湖的访问。使用 Amazon S3 接入点别名,您可以在 Amazon EMR 上大规模简化数据访问。您可以将 Amazon S3 接入点与所有版本的 Amazon EMR 一起使用,在 Amazon EMR 可用的所有 Amazon 区域无需额外费用。要了解有关 Amazon S3 访问点和访问点别名的详细信息,请参阅《Amazon S3 用户指南》中的为接入点使用存储桶式别名

  • Amazon EMR-5.33 支持新的 Amazon EC2 实例类型:c5a、c5ad、c6gn、c6gd、m6gd、d3、d3en、m5zn、r5b、r6gd。请参阅支持的实例类型

已知问题

  • 较早版本的 AL2 上“最大打开文件数”限制较低[此问题已在较新的发行版中修复]。Amazon EMR 发行版 emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 基于较早版本的 Amazon Linux 2(AL2)。使用原定设置 AMI 创建 Amazon EMR 集群时,这些版本的“最大打开文件数”ulimit 设置较低。Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本使用更高的“最大打开文件数”设置永久修复了此问题。如果使用打开文件数限制较低的发行版,会在提交 Spark 任务时导致“Too many open files”(打开的文件过多)错误。在受影响的发行版中,Amazon EMR 原定设置 AMI 的原定设置“最大打开文件数”ulimit 为 4096,而最新版 Amazon Linux 2 AMI 中的文件限制数为 65536。Spark 驱动程序和执行程序尝试打开超过 4096 个文件时,“打开的最大文件数”的较低 ulimit 设置会导致 Spark 任务失败。要修复此问题,Amazon EMR 使用一个引导操作(BA)脚本,用于在创建集群时调整 ulimit 设置。

    如果您使用没有永久修复此问题的较早版本的 Amazon EMR,则可以通过下面的解决方法,显式将实例控制器 ulimit 设置为最多 65536 个文件。

    从命令行显式设置 ulimit

    1. 编辑 /etc/systemd/system/instance-controller.service,将以下参数添加到 Service (服务) 部分。

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 重新启动 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    使用引导操作 (BA) 设置 ulimit

    您还可以在创建集群时使用引导操作(BA)脚本将实例控制器 ulimit 配置为 65536 个文件。

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • 对于 Amazon EMR 6.3.0 和 6.2.0 私有子网集群,您不能访问 Ganglia Web UI。您将收到“access denied (403)”错误。其它 Web UI(如 Spark、Hue、JupyterHub、Zeppelin、Livy 和 Tez)可正常运行。公有子网集群上的 Ganglia Web UI 访问也正常工作。要解决该问题,请在具有 sudo systemctl restart httpd 的主节点上重新启动 httpd 服务。此问题已在 Amazon EMR 6.4.0 中得到修复。

  • 重要

    运行 Amazon Linux 或 Amazon Linux 2 AMI(Amazon Linux Machine Image)的 Amazon EMR 集群使用默认的 Amazon Linux 行为,且不会自动下载和安装需要重新启动的重要关键内核更新。这与运行默认 Amazon Linux AMI 的其它 Amazon EC2 实例的行为相同。如果需要重新启动的新 Amazon Linux 软件更新(例如内核、NVIDIA 和 CUDA 更新)在 Amazon EMR 版本发布后可用,则运行默认 AMI 的 Amazon EMR 集群实例不会自动下载和安装这些更新。要获取内核更新,您可以自定义 Amazon EMR AMI,以使用最新的 Amazon Linux AMI

  • GovCloud 区域中目前不支持使用控制台创建指定 Amazon Ranger 集成选项的安全配置。可以使用 CLI 完成安全配置。请参阅《Amazon EMR 管理指南》中的创建 EMR 安全配置

  • 限定范围的托管式策略:为了符合Amazon最佳实践,Amazon EMR 引入了 v2 EMR 范围的默认托管式策略,来替代即将弃用的策略。请参阅 Amazon EMR 托管式策略

组件版本

下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的发行版标注。EmrVersion 从 0 开始。例如,假设已对名为 myapp-component 的版本 2.2 的开源社群组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版的版本将为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark 开发工具包
emr-ddb4.16.0适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodiesemrfs适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis3.5.0适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-notebook-env1.2.0适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env
emr-s3-dist-cp2.18.0针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select1.6.0EMR S3 Select 连接器
emrfs2.46.0适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client1.12.1Apache Flink 命令行客户端脚本和应用程序。
flink-jobmanager-config1.12.1为 Apache Flink JobManager 管理 EMR 节点上的资源。
ganglia-monitor3.7.2适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector3.7.2用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web3.7.1用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client2.10.1-amzn-1.1Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode2.10.1-amzn-1.1用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library2.10.1-amzn-1.1HDFS 命令行客户端和库
hadoop-hdfs-namenode2.10.1-amzn-1.1用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode2.10.1-amzn-1.1用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server2.10.1-amzn-1.1用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server2.10.1-amzn-1.1基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred2.10.1-amzn-1.1用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager2.10.1-amzn-1.1用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager2.10.1-amzn-1.1用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server2.10.1-amzn-1.1用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster1.4.13适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server1.4.13用于服务于一个或多个 HBase 区域的服务。
hbase-client1.4.13HBase 命令行客户端。
hbase-rest-server1.4.13用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server1.4.13用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client2.3.7-amzn-4用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server2.3.7-amzn-4用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server2.3.7-amzn-4用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client2.3.7-amzn-4Hive 命令行客户端。
hive-hbase2.3.7-amzn-4Hive-hbase 客户端。
hive-metastore-server2.3.7-amzn-4用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server22.3.7-amzn-4用于将 Hive 查询作为 Web 请求接受的服务。
hudi0.7.0-amzn-1增量处理框架,以支持低延迟和高效率的数据管道。
hudi-spark0.7.0-amzn-1用于运行 Spark 以及 Hudi 的捆绑库。
hudi-presto0.7.0-amzn-1用于运行 Presto 以及 Hudl 的捆绑库。
hue-server4.9.0用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub1.2.2Jupyter 笔记本的多用户服务器
livy-server0.7.0-incubating用于与 Apache Spark 交互的 REST 接口
nginx1.12.1nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client0.13.0用于机器学习的库。
mxnet1.7.0用于深度学习的灵活的、可扩展且高效的库。
mariadb-server5.5.68+MySQL 数据库服务器。
nvidia-cuda10.1.243Nvidia 驱动程序和 Cuda 工具包
oozie-client5.2.0Oozie 命令行客户端。
oozie-server5.2.0用于接受 Oozie 工作流请求的服务。
opencv4.5.0开源计算机视觉库。
phoenix-library4.14.3-HBase-1.4服务器和客户端的 phoenix 库
phoenix-query-server4.14.3-HBase-1.4向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator0.245.1-amzn-0用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker0.245.1-amzn-0用于执行查询的各个部分的服务。
presto-client0.245.1-amzn-0Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
pig-client0.17.0Pig 命令行客户端。
r4.0.2用于统计计算的 R 项目
ranger-kms-server1.2.0Apache Ranger 密钥管理系统
spark-client2.4.7-amzn-1.1Spark 命令行客户端。
spark-history-server2.4.7-amzn-1.1用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn2.4.7-amzn-1.1适用于 YARN 的内存中执行引擎。
spark-yarn-slave2.4.7-amzn-1.1YARN 从属项所需的 Apache Spark 库。
sqoop-client1.4.7Apache Sqoop 命令行客户端。
tensorflow2.4.1适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn0.9.2tez YARN 应用程序和库。
webserver2.4.25+Apache HTTP 服务器。
zeppelin-server0.9.0支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server3.4.14用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client3.4.14ZooKeeper 命令行客户端。

配置分类

配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml)相对应。有关更多信息,请参阅配置应用程序

为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。EMR 仅为您修改的分类启动重新配置操作。有关更多信息,请参阅在正在运行的集群中重新配置实例组

emr-5.33.1 分类
分类 描述 重新配置操作

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

Restarts the ResourceManager service.

container-executor

更改 Hadoop YARN 的 container-executor.cfg 文件中的值。

Not available.

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

Not available.

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

更改 docker 相关设置。

Not available.

emrfs-site

更改 EMRFS 设置。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

更改 flink-conf.yaml 设置。

Restarts Flink history server.

flink-log4j

更改 Flink log4j.properties 设置。

Restarts Flink history server.

flink-log4j-session

为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。

Not available.

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

Restarts Flink history server.

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

更改 hadoop ssl 服务器配置

Not available.

hadoop-ssl-client

更改 hadoop ssl 客户端配置

Not available.

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

更改 HBase 环境中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

Not available.

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

配置 HDFS 加密区域。

Should not be reconfigured.

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

更改 HCatalog 的环境中的值。

Restarts Hive HCatalog Server.

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

Restarts Hive WebHCat Server.

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

Restarts Hive WebHCat Server.

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

Restarts Hive WebHCat Server.

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

Not available.

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

Not available.

hive-env

更改 Hive 环境中的值。

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

Restarts HiveServer2 and HiveMetastore.

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

Not available.

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

Not available.

hive-site

更改 Hive 的 hive-site.xml 文件中的值

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

Not available.

hue-ini

更改 Hue 的 ini 文件中的值

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

更改 HTTPFS 环境中的值。

Restarts Hadoop Httpfs service.

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

Restarts Hadoop Httpfs service.

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

Not available.

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

Restarts Hadoop-KMS service.

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

Not available.

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

更改 Hudi 环境中的值。

Not available.

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

Not available.

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

Not available.

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

Not available.

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

Not available.

livy-conf

更改 Livy 的 livy.conf 文件中的值。

Restarts Livy Server.

livy-env

更改 Livy 环境中的值。

Restarts Livy Server.

livy-log4j

更改 Livy log4j.properties 设置。

Restarts Livy Server.

mapred-env

更改 MapReduce 应用程序的环境中的值。

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

更改 Oozie 的环境中的值。

Restarts Oozie.

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

Restarts Oozie.

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

Restarts Oozie.

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

Not available.

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

Not available.

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

Restarts Phoenix-QueryServer.

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

Not available.

pig-env

更改 Pig 环境中的值。

Not available.

pig-properties

更改 Pig 的 pig.properties 文件中的值。

Restarts Oozie.

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

Not available.

presto-log

更改 Presto 的 log.properties 文件中的值。

Restarts Presto-Server.

presto-config

更改 Presto 的 config.properties 文件中的值。

Restarts Presto-Server.

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

Not available.

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

Restarts Presto-Server.

presto-node

更改 Presto 的 node.properties 文件中的值。

Not available.

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

Not available.

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

Not available.

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

Restarts Presto-Server.

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

Not available.

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

Not available.

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

Not available.

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

Not available.

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

Not available.

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

Not available.

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

Not available.

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

Not available.

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

Not available.

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

Not available.

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

Not available.

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

Not available.

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

Restarts Ranger KMS Server.

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

Restarts Ranger KMS Server.

ranger-kms-env

更改 Ranger KMS 环境中的值。

Restarts Ranger KMS Server.

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

Not available.

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

Not available.

recordserver-env

更改 EMR RecordServer 环境中的值。

Restarts EMR record server.

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

Restarts EMR record server.

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

Restarts EMR record server.

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

This property modifies spark-defaults. See actions there.

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

Restarts Spark history server and Spark thrift server.

spark-env

更改 Spark 环境中的值。

Restarts Spark history server and Spark thrift server.

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

Not available.

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

Restarts Spark history server and Spark thrift server.

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

Restarts Spark history server and Spark thrift server.

sqoop-env

更改 Sqoop 的环境中的值。

Not available.

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

Not available.

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

Not available.

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

Restarts Oozie.

yarn-env

更改 YARN 环境中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

更改 Zeppelin 环境中的值。

Restarts Zeppelin.

zeppelin-site

更改 zeppelin-site.xml 中的配置设置。

Restarts Zeppelin.

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

Restarts Zookeeper server.

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

Restarts Zookeeper server.