本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Amazon EMR 发行版 6.1.0
6.1.0 应用程序版本
此版本包括以下应用程序:Flink
下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。
有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:
| emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | |
|---|---|---|---|---|
| Amazon 适用于 Java 的 SDK | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 |
| Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 |
| AmazonCloudWatchAgent | - | - | - | - |
| Delta | - | - | - | - |
| Flink | 1.11.0 | 1.11.0 | - | - |
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 |
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 |
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 |
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 |
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 |
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 |
| Iceberg | - | - | - | - |
| JupyterEnterpriseGateway | - | - | - | - |
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 |
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating |
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 |
| Mahout | - | - | - | - |
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 |
| Phoenix | 5.0.0--2.0 HBase | 5.0.0--2.0 HBase | 5.0.0--2.0 HBase | 5.0.0--2.0 HBase |
| Pig | 0.17.0 | 0.17.0 | - | - |
| Presto | 0.232 | 0.232 | 0.230 | 0.230 |
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 |
| Sqoop | 1.4.7 | 1.4.7 | - | - |
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 |
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
| Trino (PrestoSQL) | 338 | 338 | - | - |
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT |
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
6.1.0 发布说明
以下发布说明包括有关 Amazon EMR 发行版 6.1.0 的信息。更改与 6.0.0 有关。
首次发布日期:2020 年 9 月 4 日
上次更新日期:2020 年 10 月 15 日
受支持的应用程序
适用于 Java 的 Amazon SDK 版本 1.11.828
Flink 1.11.0
Ganglia 3.7.2
Hadoop 3.2.1-amzn-1
HBase 版本 2.2.5
HBase-operator-tools 1.0.0
HCatalog 版本 3.1.2-amzn-0
Hive 3.1.2-amzn-1
Hudi 0.5.2-incubating
Hue 4.7.1
JupyterHub 版本 1.1.0
Livy 0.7.0
MXNet 版本 1.6.0
Oozie 5.2.0
Phoenix 5.0.0
Presto 0.232
PrestoSQL 338
Spark 3.0.0-amzn-0
TensorFlow 版本 2.1.0
Zeppelin 0.9.0-preview1
Zookeeper 3.4.14
连接器和驱动程序:DynamoDB 连接器 4.14.0
新特征
从 Amazon EMR 5.30.0 和 Amazon EMR 6.1.0 开始,支持 ARM 实例类型。
从 Amazon EMR 6.1.0 和 5.30.0.开始,支持 M6g 通用型实例类型。有关更多信息,请参阅《Amazon EMR 管理指南》中的支持的实例类型。
从 Amazon EMR 版本 5.23.0 开始,支持 EC2 置放群组功能作为多个主节点集群的选项。目前,置放群组功能仅支持主节点类型,并会将
SPREAD策略应用于这些主节点。SPREAD策略将一小组实例放置在单独的基础硬件上,以防止发生硬件故障时出现多个主节点丢失的问题。有关更多信息,请参阅 Amazon EMR 管理指南中的 EMR 与 EC2 置放群组集成。托管扩展 – 使用 Amazon EMR 版本 6.1.0 时,您可以启用 Amazon EMR 托管式自动扩缩功能,以根据工作负载自动增加或减少集群中实例或单位的数量。Amazon EMR 会持续评估集群指标,以便做出扩展决策,从而优化集群的成本和速度。Amazon EMR 5.30.0 及更高版本(但 6.0.0 除外)也提供了托管扩展。有关更多信息,请参阅《Amazon EMR 管理指南》中的扩缩集群资源。
EMR 6.1.0 支持 PrestoSQL 338。有关更多信息,请参阅 Presto。
仅在 EMR 6.1.0 及更高版本上支持 PrestoSQL,而 EMR 6.0.0 或 EMR 5.x 则不支持。
可以继续使用应用程序名称
Presto在集群上安装 PrestoDB。要在集群上安装 PrestoSQL,请使用应用程序名称PrestoSQL。您可以安装 PrestoDB 或 PrestoSQL,但不能在同一个集群上同时安装两者。如果在尝试创建集群时同时指定了 PrestoDB 和 PrestoSQL,则会发生验证错误,而且集群创建请求失败。
单主节点集群和多主节点集群均支持 PrestoSQL。在多主节点集群上,需要外部 Hive 元存储才能运行 PrestoSQL 或 PrestoDB。请参阅 Supported applications in an EMR cluster with multiple primary nodes。
支持在 Apache Hadoop 和 Apache Spark 上使用 Docker 对 ECR 进行自动身份验证:Spark 用户可以使用 Docker Hub 中的 Docker 镜像和 Amazon Elastic Container Registry(Amazon ECR)来定义环境和库依赖项。
EMR 支持 Apache Hive ACID 事务:Amazon EMR 6.1.0 增加了对 Hive ACID 事务的支持,使其符合数据库的 ACID 属性。借助此功能,您可以使用 Amazon Simple Storage Service(Amazon S3)中的数据在 Hive 托管表中运行
INSERT, UPDATE, DELETE,和MERGE操作。这是流式提取、数据重述、使用 MERGE 批量更新等使用案例的一项关键功能,并会缓慢更改维度。有关包括配置示例和使用案例在内的更多信息,请参阅 Amazon EMR 支持 Apache Hive ACID 事务。
更改、增强功能和解决的问题
-
此版本旨在修复 Amazon EMR Scaling 无法成功缩 up/scale 减集群规模或导致应用程序故障时出现的问题。
修复了当 Amazon EMR 集群上的进程守护程序正在进行运行状况检查活动(例如收集 YARN 节点状态和 HDFS 节点状态)时,针对高利用率的大型集群的扩展请求失败的问题。之所以发生这种情况,是因为集群上的进程守护程序无法将节点的运行状况数据传递给内部 Amazon EMR 组件。
改进了 EMR 集群上的进程守护程序,以便在重用 IP 地址时正确跟踪节点状态,从而提高扩缩操作期间的可靠性。
SPARK-29683
。修复了集群缩减期间出现任务失败的问题,因为 Spark 假定所有可用节点都被拒绝列出。 YARN-9011
。修复了集群尝试纵向扩展或缩减时,由于 YARN 停用中的争用条件导致任务失败的问题。 通过确保 Amazon EMR 集群上的进程守护程序和 YARN/HDFS 之间的节点状态始终一致,解决了集群扩展期间步骤或任务失败的问题。
修复了已启用 Kerberos 身份验证的 Amazon EMR 集群的诸如缩减和步骤提交等集群操作失败的问题。这是因为 Amazon EMR 集群守护程序没有续订 Kerberos 票证,而在主节点上运行时需要使用该票证才能安全地进行 HDFS/YARN 通信。
较新的亚马逊 EMR 版本通过较低的 A AL2 mazon EMR 中较旧版本的 “最大打开文件数” 限制来解决这个问题。Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本现在用更高的“最大打开文件数”设置永久修复了此问题。
EMR 6.0.0 上不支持 Apache Fink,但集成了 Flink 1.11.0 的 EMR 6.1.0 可以支持 Apache Fink。这是首个正式支持 Hadoop 3 的 Fink 版本。请参阅 Apache Flink 1.11.0 发布公告
。 默认 EMR 6.1.0 捆绑包中已经删除了 Ganglia。
已知问题
-
降低旧版本的 “最大打开文件数” 限制 AL2 [在新版本中已修复]。亚马逊 EMR 版本:emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 基于较旧版本的亚马逊 Linux 2 (),当使用默认 AMI 创建亚马逊 EMR 集群时,“最大打开文件数” 的用户限制设置较低。AL2Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本使用更高的“最大打开文件数”设置永久修复了此问题。如果使用打开文件数限制较低的发行版,会在提交 Spark 任务时导致“Too many open files”(打开的文件过多)错误。在受影响的发行版中,Amazon EMR 原定设置 AMI 的原定设置“最大打开文件数”ulimit 为 4096,而最新版 Amazon Linux 2 AMI 中的文件限制数为 65536。Spark 驱动程序和执行程序尝试打开超过 4096 个文件时,“打开的最大文件数”的较低 ulimit 设置会导致 Spark 任务失败。要修复此问题,Amazon EMR 使用一个引导操作(BA)脚本,用于在创建集群时调整 ulimit 设置。
如果您使用没有永久修复此问题的较早版本的 Amazon EMR,则可以通过下面的解决方法,显式将实例控制器 ulimit 设置为最多 65536 个文件。
从命令行显式设置 ulimit
编辑
/etc/systemd/system/instance-controller.service,将以下参数添加到 Service (服务) 部分。LimitNOFILE=65536LimitNPROC=65536重启 InstanceController
$ sudo systemctl daemon-reload$ sudo systemctl restart instance-controller
使用引导操作 (BA) 设置 ulimit
您还可以在创建集群时使用引导操作(BA)脚本将实例控制器 ulimit 配置为 65536 个文件。
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload 重要
Amazon EMR 6.1.0 和 6.2.0 包含可能严重影响所有 Hudi 插入、更新插入和删除操作的性能问题。如果您计划在亚马逊 EMR 6.1.0 或 6.2.0 中使用 Hudi,则应 Amazon 联系支持人员以获取已修补的 Hudi RPM。
如果您使用
spark.driver.extraJavaOptions和设置自定义垃圾收集配置spark.executor.extraJavaOptions,则由于垃圾收集配置冲突,将导致 EMR 6.1 driver/executor 启动失败。使用 EMR 发行版 6.1.0 时,您应该使用属性spark.driver.defaultJavaOptions和spark.executor.defaultJavaOptions为驱动程序和执行程序指定自定义 Spark 垃圾回收配置。如要了解更多信息,请参阅 Apache Spark 运行时环境和在 Amazon EMR 6.1.0 上配置 Spark 垃圾回收。 -
在 Oozie 中使用 Pig(以及在 Hue 中,因为 Hue 使用 Oozie 操作来运行 Pig 脚本)会生成一个错误,即无法加载 native-lzo 库。此错误消息是信息性的,不会阻止 Pig 运行。
Hudi 并发支持:目前 Hudi 不支持并发写入单个 Hudi 表。此外,Hudi 会回滚处于运行状态的写入器所做的所有更改后再允许新写入器启动。并发写入可能会干扰此机制并引入竞争条件,这会导致数据损坏。您应确保作为数据处理工作流程的一部分,任何时候都只有一个 Hudi 写入器对 Hudi 表进行操作。Hudi 支持多个并发读取器对同一 Hudi 表进行操作。
-
具有多个主节点的集群和 Kerberos 身份验证中的已知问题
如果在 Amazon EMR 版本 5.20.0 及更高版本中运行具有多个主节点的集群和 Kerberos 身份验证,则在集群运行一段时间后,您可能在执行集群操作(如缩减或步骤提交)时遇到问题。具体时间段取决于您定义的 Kerberos 票证有效期。缩减问题会影响您提交的自动缩减和显式缩减请求。其它集群操作也可能会受到影响。
解决办法:
-
以
hadoop用户身份通过 SSH 连接到具有多个主节点的 EMR 集群的 lead 主节点。 -
运行以下命令,为
hadoop用户续订 Kerberos 票证。kinit -kt <keytab_file> <principal>通常情况下,keytab 文件位于
/etc/hadoop.keytab,而 principal 为hadoop/<hostname>@<REALM>格式。
注意
此解决方法将在 Kerberos 票证有效期内生效。默认情况下,此持续时间为 10 个小时,但可以通过 Kerberos 设置进行配置。Kerberos 票证过期后,您必须重新运行上述命令。
-
Amazon EMR 6.1.0 中存在一个问题,会影响运行 Presto 的集群。在较长时间(天)后,集群可能会引发错误,例如“su: failed to execute /bin/bash: Resource temporarily unavailable”或“shell request failed on channel 0”。此问题是由内部 Amazon EMR 进程 (InstanceController) 引起的,该进程生成了太多的轻量级进程 (LWP),最终导致 Hadoop 用户超出其 nproc 限制。这可以阻止用户打开其它进程。此问题的解决方案是:升级到 EMR 6.2.0。
6.1.0 组件版本
下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emr 或 aws 开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。
Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 的发行版标注。CommunityVersion-amzn-EmrVersion 从 0 开始。例如,假设已对名为 EmrVersionmyapp-component 的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2。
| 组件 | 版本 | 说明 |
|---|---|---|
| aws-sagemaker-spark-sdk | 1.3.0 | 亚马逊 SageMaker Spark SDK |
| emr-ddb | 4.14.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
| emr-goodies | 3.1.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
| emr-kinesis | 3.5.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
| emr-s3-dist-cp | emrfs | 针对 Amazon S3 优化的分布式复制应用程序。 |
| emr-s3-select | 2.0.0 | EMR S3 Select 连接器 |
| emrfs | 2.42.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
| flink-client | 1.11.0 | Apache Flink 命令行客户端脚本和应用程序。 |
| ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
| ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
| ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
| hadoop-client | 3.2.1-amzn-1 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
| hadoop-hdfs-datanode | 3.2.1-amzn-1 | 用于存储数据块的 HDFS 节点级服务。 |
| hadoop-hdfs-library | 3.2.1-amzn-1 | HDFS 命令行客户端和库 |
| hadoop-hdfs-namenode | 3.2.1-amzn-1 | 用于跟踪文件名和数据块位置的 HDFS 服务。 |
| hadoop-hdfs-journalnode | 3.2.1-amzn-1 | 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。 |
| hadoop-httpfs-server | 3.2.1-amzn-1 | 用于 HDFS 操作的 HTTP 终端节点。 |
| hadoop-kms-server | 3.2.1-amzn-1 | 基于 Hadoop 的 API 的加密密钥管理服务器。 KeyProvider |
| hadoop-mapred | 3.2.1-amzn-1 | MapReduce 用于运行 MapReduce 应用程序的执行引擎库。 |
| hadoop-yarn-nodemanager | 3.2.1-amzn-1 | 用于管理单个节点上的容器的 YARN 服务。 |
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | 用于分配和管理集群资源与分布式应用程序的 YARN 服务。 |
| hadoop-yarn-timeline-server | 3.2.1-amzn-1 | 用于检索 YARN 应用程序的当前信息和历史信息的服务。 |
| hbase-hmaster | 2.2.5 | 为负责协调区域和执行管理命令的 HBase 集群提供服务。 |
| hbase-region-server | 2.2.5 | 为一个或多个 HBase 地区提供服务的服务。 |
| hbase-client | 2.2.5 | HBase 命令行客户端。 |
| hbase-rest-server | 2.2.5 | 为提供 RESTful HTTP 端点的服务 HBase。 |
| hbase-thrift-server | 2.2.5 | 为其提供 Thrift 端点的 HBase服务。 |
| hcatalog-client | 3.1.2-amzn-2 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
| hcatalog-server | 3.1.2-amzn-2 | 提供服务 HCatalog,为分布式应用程序提供表和存储管理层。 |
| hcatalog-webhcat-server | 3.1.2-amzn-2 | 为其提供 REST 接口的 HTTP 端点 HCatalog。 |
| hive-client | 3.1.2-amzn-2 | Hive 命令行客户端。 |
| hive-hbase | 3.1.2-amzn-2 | Hive-hbase 客户端。 |
| hive-metastore-server | 3.1.2-amzn-2 | 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。 |
| hive-server2 | 3.1.2-amzn-2 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
| hudi | 0.5.2-incubating-amzn-2 | 增量处理框架,以支持低延迟和高效率的数据管道。 |
| hudi-presto | 0.5.2-incubating-amzn-2 | 用于运行 Presto 以及 Hudl 的捆绑库。 |
| hudi-prestosql | 0.5.2-incubating-amzn-2 | 用于运行 PrestoSQL 以及 Hudi 的捆绑库。 |
| hudi-spark | 0.5.2-incubating-amzn-2 | 用于运行 Spark 以及 Hudi 的捆绑库。 |
| hue-server | 4.7.1 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
| jupyterhub | 1.1.0 | Jupyter notebook 的多用户服务器 |
| livy-server | 0.7.0-incubating | 用于与 Apache Spark 交互的 REST 接口 |
| nginx | 1.12.1 | nginx [引擎 x] 是 HTTP 和反向代理服务器 |
| mxnet | 1.6.0 | 用于深度学习的灵活的、可扩展且高效的库。 |
| mariadb-server | 5.5.64+ | MariaDB 数据库服务器。 |
| nvidia-cuda | 9.2.88 | Nvidia 驱动程序和 Cuda 工具包 |
| oozie-client | 5.2.0 | Oozie 命令行客户端。 |
| oozie-server | 5.2.0 | 用于接受 Oozie 工作流请求的服务。 |
| opencv | 4.3.0 | 开源计算机视觉库。 |
| phoenix-library | 5.0.0--2.0 HBase | 服务器和客户端的 phoenix 库 |
| phoenix-query-server | 5.0.0--2.0 HBase | 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器 |
| presto-coordinator | 0.232 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
| presto-worker | 0.232 | 用于执行查询的各个部分的服务。 |
| presto-client | 0.232 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
| prestosql-coordinator | 338 | 用于在 prestosql-worker 之中接受查询并管理查询执行的服务。 |
| prestosql-worker | 338 | 用于执行查询的各个部分的服务。 |
| prestosql-client | 338 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
| pig-client | 0.17.0 | Pig 命令行客户端。 |
| r | 3.4.3 | 用于统计计算的 R 项目 |
| ranger-kms-server | 2.0.0 | Apache Ranger 密钥管理系统 |
| spark-client | 3.0.0-amzn-0 | Spark 命令行客户端。 |
| spark-history-server | 3.0.0-amzn-0 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
| spark-on-yarn | 3.0.0-amzn-0 | 适用于 YARN 的内存中执行引擎。 |
| spark-yarn-slave | 3.0.0-amzn-0 | YARN 从属项所需的 Apache Spark 库。 |
| sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
| tensorflow | 2.1.0 | TensorFlow 用于高性能数值计算的开源软件库。 |
| tez-on-yarn | 0.9.2 | tez YARN 应用程序和库。 |
| webserver | 2.4.41+ | Apache HTTP 服务器。 |
| zeppelin-server | 0.9.0-preview1 | 支持交互式数据分析的基于 Web 的 Notebook。 |
| zookeeper-server | 3.4.14 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
| zookeeper-client | 3.4.14 | ZooKeeper 命令行客户端。 |
6.1.0 配置分类
配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml)相对应。有关更多信息,请参阅配置应用程序。
| 分类 | 说明 |
|---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 |
container-executor | 更改 Hadoop YARN 的 container-executor.cfg 文件中的值。 |
container-log4j | 更改 Hadoop YARN 的 container-log4j.properties 文件中的值。 |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 |
emrfs-site | 更改 EMRFS 设置。 |
flink-conf | 更改 flink-conf.yaml 设置。 |
flink-log4j | 更改 Flink log4j.properties 设置。 |
flink-log4j-yarn-session | 更改 Flink log4 j-yarn-session .properties 设置。 |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 |
hbase | 亚马逊 EMR 精心策划的 Apache 设置。 HBase |
hbase-env | 更改环境 HBase中的值。 |
hbase-log4j | 更改 hbase- HBase log4j.properties 文件中的值。 |
hbase-metrics | 更改 hadoop-metrics2-h HBase base.properties 文件中的值。 |
hbase-policy | 更改 HBase的 hbase-policy.xml 文件中的值。 |
hbase-site | 更改 HBase的 hbase-site.xml 文件中的值。 |
hdfs-encryption-zones | 配置 HDFS 加密区域。 |
hdfs-env | 更改 HDFS 环境中的值。 |
hdfs-site | 更改 HDFS 的 hdfs-site.xml 中的值。 |
hcatalog-env | 更改环境 HCatalog中的值。 |
hcatalog-server-jndi | 更改 HCatalog的 jndi.properties 中的值。 |
hcatalog-server-proto-hive-site | 更改 proto-hive-site .x HCatalog ml 中的值。 |
hcatalog-webhcat-env | 更改 HCatalog Web 环境HCat中的值。 |
hcatalog-webhcat-log4j2 | 更改 HCatalog Web HCat 的 log4j2.properties 中的值。 |
hcatalog-webhcat-site | 更改 HCatalog Web HCat 的 webhcat-site.xml 文件中的值。 |
hive | 适用于 Apache Hive 的 Amazon EMR 辅助设置。 |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 |
hive-env | 更改 Hive 环境中的值。 |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。 |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。 |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 |
hue-ini | 更改 Hue 的 ini 文件中的值 |
httpfs-env | 更改 HTTPFS 环境中的值。 |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 |
hadoop-kms-env | 更改 Hadoop KMS 环境中的值。 |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 |
hudi-env | 更改 Hudi 环境中的值。 |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 |
jupyter-hub-conf | 更改 JupyterHubs的 jupyterhub_config.py 文件中的值。 |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 |
livy-env | 更改 Livy 环境中的值。 |
livy-log4j | 更改 Livy log4j.properties 设置。 |
mapred-env | 更改 MapReduce 应用程序环境中的值。 |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 |
oozie-env | 更改 Oozie 的环境中的值。 |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 |
pig-env | 更改 Pig 环境中的值。 |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 |
presto-log | 更改 Presto 的 log.properties 文件中的值。 |
presto-config | 更改 Presto 的 config.properties 文件中的值。 |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 |
presto-node | 更改 Presto 的 node.properties 文件中的值。 |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 |
presto-connector-memory | 更改 Presto 的 memory.properties 文件中的值。 |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 |
presto-connector-tpcds | 更改 Presto 的 tpcds.properties 文件中的值。 |
prestosql-log | 更改 Presto 的 log.properties 文件中的值。 |
prestosql-config | 更改 Presto 的 config.properties 文件中的值。 |
prestosql-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 |
prestosql-env | 更改 Presto 的 presto-env.sh 文件中的值。 |
prestosql-node | 更改 PrestoSQL 的 node.properties 文件中的值。 |
prestosql-connector-blackhole | 更改 PrestoSQL 的 blackhole.properties 文件中的值。 |
prestosql-connector-cassandra | 更改 PrestoSQL 的 cassandra.properties 文件中的值。 |
prestosql-connector-hive | 更改 PrestoSQL 的 hive.properties 文件中的值。 |
prestosql-connector-jmx | 更改 PrestoSQL 的 jmx.properties 文件中的值。 |
prestosql-connector-kafka | 更改 PrestoSQL 的 kafka.properties 文件中的值。 |
prestosql-connector-localfile | 更改 PrestoSQL 的 localfile.properties 文件中的值。 |
prestosql-connector-memory | 更改 PrestoSQL 的 memory.properties 文件中的值。 |
prestosql-connector-mongodb | 更改 PrestoSQL 的 mongodb.properties 文件中的值。 |
prestosql-connector-mysql | 更改 PrestoSQL 的 mysql.properties 文件中的值。 |
prestosql-connector-postgresql | 更改 PrestoSQL 的 postgresql.properties 文件中的值。 |
prestosql-connector-raptor | 更改 PrestoSQL 的 raptor.properties 文件中的值。 |
prestosql-connector-redis | 更改 PrestoSQL 的 redis.properties 文件中的值。 |
prestosql-connector-redshift | 更改 PrestoSQL 的 redshift.properties 文件中的值。 |
prestosql-connector-tpch | 更改 PrestoSQL 的 tpch.properties 文件中的值。 |
prestosql-connector-tpcds | 更改 PrestoSQL 的 tpcds.properties 文件中的值。 |
ranger-kms-dbks-site | 更改 Ranger KMS 的 dbks-site.xml 文件中的值。 |
ranger-kms-site | 更改 Ranger K ranger-kms-site MS 的.xml 文件中的值。 |
ranger-kms-env | 更改 Ranger KMS 环境中的值。 |
ranger-kms-log4j | 更改 Ranger KMS 的 kms-log4j.properties 文件中的值。 |
ranger-kms-db-ca | 更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。 |
spark | 适用于 Apache Spark 的 Amazon EMR 辅助设置。 |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 |
spark-env | 更改 Spark 环境中的值。 |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 |
spark-log4j | 更改 Spark 的 log4j.properties 文件中的值。 |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 |
sqoop-env | 更改 Sqoop 的环境中的值。 |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 |
yarn-env | 更改 YARN 环境中的值。 |
yarn-site | 更改 YARN 的 yarn-site.xml 文件中的值。 |
zeppelin-env | 更改 Zeppelin 环境中的值。 |
zookeeper-config | 更改 zoo.cfg 文件 ZooKeeper中的值。 |
zookeeper-log4j | 更改 ZooKeeper的 log4j.properties 文件中的值。 |