Amazon EMR 发行版 6.1.0 - Amazon EMR
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

Amazon EMR 发行版 6.1.0

应用程序版本

此发行版本支持以下应用程序:FlinkGangliaHBaseHCatalogHadoopHiveHudiHueJupyterHubLivyMXNetOoziePhoenixPigPrestoPrestoSQLSparkSqoopTensorFlowTezZeppelinZooKeeper

下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。

有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:

应用程序版本信息
emr-6.1.1 emr-6.1.0 emr-6.0.1 emr-6.0.0
Amazon SDK for Java 1.11.8281.11.8281.11.7111.11.711
Python 2.7、3.72.7、3.72.7、3.72.7、3.7
Scala 2.12.102.12.102.12.102.11.12
Delta - - - -
Flink1.11.01.11.0 - -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.52.2.52.2.32.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-10.5.0-incubating-amzn-1
Hue4.7.14.7.14.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.6.01.6.01.5.11.5.1
Mahout - - - -
Oozie5.2.05.2.05.1.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.0 - -
Presto0.2320.2320.2300.230
Spark3.0.03.0.02.4.42.4.4
Sqoop1.4.71.4.7 - -
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)338338 - -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

发布说明

以下发布说明包括有关 Amazon EMR 发行版 6.1.0 的信息。更改与 6.0.0 有关。

首次发布日期:2020 年 9 月 4 日

上次更新日期:2020 年 10 月 15 日

支持的应用程序
  • Amazon SDK for Java 1.11.828

  • Flink 1.11.0

  • Ganglia 3.7.2

  • Hadoop 3.2.1-amzn-1

  • HBase 2.2.5

  • HBase-operator-tools 1.0.0

  • HCatalog 3.1.2-amzn-0

  • Hive 3.1.2-amzn-1

  • Hudi 0.5.2-incubating

  • Hue 4.7.1

  • JupyterHub 1.1.0

  • Livy 0.7.0

  • MXNet 1.6.0

  • Oozie 5.2.0

  • Phoenix 5.0.0

  • Presto 0.232

  • PrestoSQL 338

  • Spark 3.0.0-amzn-0

  • TensorFlow 2.1.0

  • Zeppelin 0.9.0-preview1

  • Zookeeper 3.4.14

  • 连接器和驱动程序:DynamoDB 连接器 4.14.0

新特征
  • 从 Amazon EMR 5.30.0 和 Amazon EMR 6.1.0 开始,支持 ARM 实例类型。

  • 从 Amazon EMR 6.1.0 和 5.30.0.开始,支持 M6g 通用型实例类型。有关更多信息,请参阅《Amazon EMR 管理指南》中的支持的实例类型

  • 从 Amazon EMR 5.23.0 开始支持 EC2 置放群组功能,该功能可作为多主节点集群选项。目前,置放群组功能仅支持主节点类型,并会将 SPREAD 策略应用于这些主节点。SPREAD 策略将一小组实例放置在单独的基础硬件上,以防止发生硬件故障时出现多个主节点丢失的问题。有关更多信息,请参阅《Amazon EMR 管理指南》中的 EMR 与 EC2 置放群组的集成

  • 托管扩展 – 使用 Amazon EMR 版本 6.1.0 时,您可以启用 Amazon EMR 托管式自动扩缩功能,以根据工作负载自动增加或减少集群中实例或单位的数量。Amazon EMR 会持续评估集群指标,以便做出扩展决策,从而优化集群的成本和速度。Amazon EMR 5.30.0 及更高版本(但 6.0.0 除外)也提供了托管扩展。有关更多信息,请参阅《Amazon EMR 管理指南》中的扩缩集群资源

  • EMR 6.1.0 支持 PrestoSQL 338。有关更多信息,请参阅 Presto

    • 仅在 EMR 6.1.0 及更高版本上支持 PrestoSQL,而 EMR 6.0.0 或 EMR 5.x 则不支持。

    • 可以继续使用应用程序名称 Presto 在集群上安装 PrestoDB。要在集群上安装 PrestoSQL,请使用应用程序名称 PrestoSQL

    • 您可以安装 PrestoDB 或 PrestoSQL,但不能在同一个集群上同时安装两者。如果在尝试创建集群时同时指定了 PrestoDB 和 PrestoSQL,则会发生验证错误,而且集群创建请求失败。

    • 单主节点集群和多主节点集群均支持 PrestoSQL。在多主节点集群上,需要外部 Hive 元存储才能运行 PrestoSQL 或 PrestoDB。请参阅 Supported applications in an EMR cluster with multiple primary nodes

  • 支持在 Apache Hadoop 和 Apache Spark 上使用 Docker 对 ECR 进行自动身份验证:Spark 用户可以使用 Docker Hub 中的 Docker 镜像和 Amazon Elastic Container Registry(Amazon ECR)来定义环境和库依赖项。

    配置 Docker使用 Amazon EMR 6.x 通过 Docker 运行 Spark 应用程序

  • EMR 支持 Apache Hive ACID 事务:Amazon EMR 6.1.0 增加了对 Hive ACID 事务的支持,使其符合数据库的 ACID 属性。借助此功能,您可以使用 Amazon Simple Storage Service(Amazon S3)中的数据在 Hive 托管表中运行INSERT, UPDATE, DELETE,MERGE操作。这是流式提取、数据重述、使用 MERGE 批量更新等使用案例的一项关键功能,并会缓慢更改维度。有关包括配置示例和使用案例在内的更多信息,请参阅 Amazon EMR 支持 Apache Hive ACID 事务

更改、增强功能和解决的问题
  • 此版本旨在修复 Amazon EMR Scaling 无法成功纵向扩展/缩减集群或导致应用程序故障时出现的问题。

  • 修复了当 Amazon EMR 集群上的进程守护程序正在进行运行状况检查活动(例如收集 YARN 节点状态和 HDFS 节点状态)时,针对高利用率的大型集群的扩展请求失败的问题。之所以发生这种情况,是因为集群上的进程守护程序无法将节点的运行状况数据传递给内部 Amazon EMR 组件。

  • 改进了 EMR 集群上的进程守护程序,以便在重用 IP 地址时正确跟踪节点状态,从而提高扩缩操作期间的可靠性。

  • SPARK-29683。修复了集群缩减期间出现任务失败的问题,因为 Spark 假定所有可用节点都被拒绝列出。

  • YARN-9011。修复了集群尝试纵向扩展或缩减时,由于 YARN 停用中的争用条件导致任务失败的问题。

  • 通过确保 Amazon EMR 集群上的进程守护程序和 YARN/HDFS 之间的节点状态始终一致,解决了集群扩展期间步骤或任务失败的问题。

  • 修复了已启用 Kerberos 身份验证的 Amazon EMR 集群的诸如缩减和步骤提交等集群操作失败的问题。这是因为 Amazon EMR 集群上的进程守护程序没有续订 Kerberos 票证,而该票证是与主节点上运行的 HDFS/YARN 进行安全通信所必需的。

  • 较新的 Amazon EMR 发行版修复了 Amazon EMR 中较早版本的 AL2 上“最大打开文件数”限制较低的问题。Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本现在用更高的“最大打开文件数”设置永久修复了此问题。

  • EMR 6.0.0 上不支持 Apache Fink,但集成了 Flink 1.11.0 的 EMR 6.1.0 可以支持 Apache Fink。这是首个正式支持 Hadoop 3 的 Fink 版本。请参阅 Apache Flink 1.11.0 发布公告

  • 默认 EMR 6.1.0 捆绑包中已经删除了 Ganglia。

已知问题
  • 较早版本的 AL2 上“最大打开文件数”限制较低[此问题已在较新的发行版中修复]。Amazon EMR 发行版 emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 基于较早版本的 Amazon Linux 2(AL2)。使用原定设置 AMI 创建 Amazon EMR 集群时,这些版本的“最大打开文件数”ulimit 设置较低。Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本使用更高的“最大打开文件数”设置永久修复了此问题。如果使用打开文件数限制较低的发行版,会在提交 Spark 任务时导致“Too many open files”(打开的文件过多)错误。在受影响的发行版中,Amazon EMR 原定设置 AMI 的原定设置“最大打开文件数”ulimit 为 4096,而最新版 Amazon Linux 2 AMI 中的文件限制数为 65536。Spark 驱动程序和执行程序尝试打开超过 4096 个文件时,“打开的最大文件数”的较低 ulimit 设置会导致 Spark 任务失败。要修复此问题,Amazon EMR 使用一个引导操作(BA)脚本,用于在创建集群时调整 ulimit 设置。

    如果您使用没有永久修复此问题的较早版本的 Amazon EMR,则可以通过下面的解决方法,显式将实例控制器 ulimit 设置为最多 65536 个文件。

    从命令行显式设置 ulimit
    1. 编辑 /etc/systemd/system/instance-controller.service,将以下参数添加到 Service (服务) 部分。

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 重新启动 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    使用引导操作 (BA) 设置 ulimit

    您还可以在创建集群时使用引导操作(BA)脚本将实例控制器 ulimit 配置为 65536 个文件。

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • 重要

    Amazon EMR 6.1.0 和 6.2.0 包含可能严重影响所有 Hudi 插入、更新插入和删除操作的性能问题。如果您计划将 Hudi 与 Amazon EMR 6.1.0 或 6.2.0 结合使用,请联系 Amazon Support,获取 Hudi RPM 补丁。

  • 如果使用 spark.driver.extraJavaOptionsspark.executor.extraJavaOptions 设置自定义垃圾回收配置,将会因为垃圾回收配置冲突导致 EMR 6.1 驱动程序/执行程序启动失败。使用 EMR 发行版 6.1.0 时,您应该使用属性 spark.driver.defaultJavaOptionsspark.executor.defaultJavaOptions 为驱动程序和执行程序指定自定义 Spark 垃圾回收配置。如要了解更多信息,请参阅 Apache Spark 运行时环境在 Amazon EMR 6.1.0 上配置 Spark 垃圾回收

  • 在 Oozie 中使用 Pig(以及在 Hue 中,因为 Hue 使用 Oozie 操作来运行 Pig 脚本)会生成一个错误,即无法加载 native-lzo 库。此错误消息是信息性的,不会阻止 Pig 运行。

  • Hudi 并发支持:目前 Hudi 不支持并发写入单个 Hudi 表。此外,Hudi 会回滚处于运行状态的写入器所做的所有更改后再允许新写入器启动。并发写入可能会干扰此机制并引入竞争条件,这会导致数据损坏。您应确保作为数据处理工作流程的一部分,任何时候都只有一个 Hudi 写入器对 Hudi 表进行操作。Hudi 支持多个并发读取器对同一 Hudi 表进行操作。

  • 具有多个主节点的集群和 Kerberos 身份验证中的已知问题

    如果在 Amazon EMR 版本 5.20.0 及更高版本中运行具有多个主节点的集群和 Kerberos 身份验证,则在集群运行一段时间后,您可能在执行集群操作(如缩减或步骤提交)时遇到问题。具体时间段取决于您定义的 Kerberos 票证有效期。缩减问题会影响您提交的自动缩减和显式缩减请求。其它集群操作也可能会受到影响。

    解决办法:

    • hadoop 用户身份通过 SSH 连接到具有多个主节点的 EMR 集群的 lead 主节点。

    • 运行以下命令,为 hadoop 用户续订 Kerberos 票证。

      kinit -kt <keytab_file> <principal>

      通常情况下,keytab 文件位于 /etc/hadoop.keytab,而 principal 为 hadoop/<hostname>@<REALM> 格式。

    注意

    此解决方法将在 Kerberos 票证有效期内生效。默认情况下,此持续时间为 10 个小时,但可以通过 Kerberos 设置进行配置。Kerberos 票证过期后,您必须重新运行上述命令。

  • Amazon EMR 6.1.0 中存在一个问题,会影响运行 Presto 的集群。在较长时间(天)后,集群可能会引发错误,例如“su: failed to execute /bin/bash: Resource temporarily unavailable”或“shell request failed on channel 0”。此问题是由内部 Amazon EMR 进程(InstanceController)产生过多的轻量级进程(LWP)导致的,这最终会导致 Hadoop 用户超出其 nproc 限制。这可以阻止用户打开其它进程。此问题的解决方案是:升级到 EMR 6.2.0。

组件版本

下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的发行版标注。EmrVersion 从 0 开始。例如,假设已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk1.3.0Amazon SageMaker Spark 开发工具包
emr-ddb4.14.0适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies3.1.0适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis3.5.0适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cpemrfs针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select2.0.0EMR S3 Select 连接器
emrfs2.42.0适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client1.11.0Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor3.7.2适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector3.7.2用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web3.7.1用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client3.2.1-amzn-1Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode3.2.1-amzn-1用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library3.2.1-amzn-1HDFS 命令行客户端和库
hadoop-hdfs-namenode3.2.1-amzn-1用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode3.2.1-amzn-1用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server3.2.1-amzn-1用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server3.2.1-amzn-1基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred3.2.1-amzn-1用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager3.2.1-amzn-1用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager3.2.1-amzn-1用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server3.2.1-amzn-1用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster2.2.5适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server2.2.5用于服务于一个或多个 HBase 区域的服务。
hbase-client2.2.5HBase 命令行客户端。
hbase-rest-server2.2.5用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server2.2.5用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client3.1.2-amzn-2用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server3.1.2-amzn-2用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server3.1.2-amzn-2用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client3.1.2-amzn-2Hive 命令行客户端。
hive-hbase3.1.2-amzn-2Hive-hbase 客户端。
hive-metastore-server3.1.2-amzn-2用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server23.1.2-amzn-2用于将 Hive 查询作为 Web 请求接受的服务。
hudi0.5.2-incubating-amzn-2增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto0.5.2-incubating-amzn-2用于运行 Presto 以及 Hudl 的捆绑库。
hudi-prestosql0.5.2-incubating-amzn-2用于运行 PrestoSQL 以及 Hudi 的捆绑库。
hudi-spark0.5.2-incubating-amzn-2用于运行 Spark 以及 Hudi 的捆绑库。
hue-server4.7.1用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub1.1.0Jupyter notebook 的多用户服务器
livy-server0.7.0-incubating用于与 Apache Spark 交互的 REST 接口
nginx1.12.1nginx [引擎 x] 是 HTTP 和反向代理服务器
mxnet1.6.0用于深度学习的灵活的、可扩展且高效的库。
mariadb-server5.5.64+MariaDB 数据库服务器。
nvidia-cuda9.2.88Nvidia 驱动程序和 Cuda 工具包
oozie-client5.2.0Oozie 命令行客户端。
oozie-server5.2.0用于接受 Oozie 工作流请求的服务。
opencv4.3.0开源计算机视觉库。
phoenix-library5.0.0-HBase-2.0服务器和客户端的 phoenix 库
phoenix-query-server5.0.0-HBase-2.0向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator0.232用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker0.232用于执行查询的各个部分的服务。
presto-client0.232Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
prestosql-coordinator338用于在 prestosql-worker 之中接受查询并管理查询执行的服务。
prestosql-worker338用于执行查询的各个部分的服务。
prestosql-client338Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
pig-client0.17.0Pig 命令行客户端。
r3.4.3用于统计计算的 R 项目
ranger-kms-server2.0.0Apache Ranger 密钥管理系统
spark-client3.0.0-amzn-0Spark 命令行客户端。
spark-history-server3.0.0-amzn-0用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn3.0.0-amzn-0适用于 YARN 的内存中执行引擎。
spark-yarn-slave3.0.0-amzn-0YARN 从属项所需的 Apache Spark 库。
sqoop-client1.4.7Apache Sqoop 命令行客户端。
tensorflow2.1.0适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn0.9.2tez YARN 应用程序和库。
webserver2.4.41+Apache HTTP 服务器。
zeppelin-server0.9.0-preview1支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server3.4.14用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client3.4.14ZooKeeper 命令行客户端。

配置分类

配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml)相对应。有关更多信息,请参阅配置应用程序

emr-6.1.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-executor

更改 Hadoop YARN 的 container-executor.cfg 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-env

更改 HDFS 环境中的值。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive

适用于 Apache Hive 的 Amazon EMR 辅助设置。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

hudi-env

更改 Hudi 环境中的值。

jupyter-notebook-conf

更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

prestosql-log

更改 Presto 的 log.properties 文件中的值。

prestosql-config

更改 Presto 的 config.properties 文件中的值。

prestosql-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

prestosql-env

更改 Presto 的 presto-env.sh 文件中的值。

prestosql-node

更改 PrestoSQL 的 node.properties 文件中的值。

prestosql-connector-blackhole

更改 PrestoSQL 的 blackhole.properties 文件中的值。

prestosql-connector-cassandra

更改 PrestoSQL 的 cassandra.properties 文件中的值。

prestosql-connector-hive

更改 PrestoSQL 的 hive.properties 文件中的值。

prestosql-connector-jmx

更改 PrestoSQL 的 jmx.properties 文件中的值。

prestosql-connector-kafka

更改 PrestoSQL 的 kafka.properties 文件中的值。

prestosql-connector-localfile

更改 PrestoSQL 的 localfile.properties 文件中的值。

prestosql-connector-memory

更改 PrestoSQL 的 memory.properties 文件中的值。

prestosql-connector-mongodb

更改 PrestoSQL 的 mongodb.properties 文件中的值。

prestosql-connector-mysql

更改 PrestoSQL 的 mysql.properties 文件中的值。

prestosql-connector-postgresql

更改 PrestoSQL 的 postgresql.properties 文件中的值。

prestosql-connector-raptor

更改 PrestoSQL 的 raptor.properties 文件中的值。

prestosql-connector-redis

更改 PrestoSQL 的 redis.properties 文件中的值。

prestosql-connector-redshift

更改 PrestoSQL 的 redshift.properties 文件中的值。

prestosql-connector-tpch

更改 PrestoSQL 的 tpch.properties 文件中的值。

prestosql-connector-tpcds

更改 PrestoSQL 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。