本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Amazon EMR 发行版 6.4.0
6.4.0 应用程序版本
此版本支持以下应用程序:Flink
下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。
有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:
emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | |
---|---|---|---|---|
Amazon 适用于 Java 的 SDK | 1.12.31 | 1.11.977 | 1.11.977 | 1.11.880 |
Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.4 | 2.2.6 | 2.2.6 | 2.2.6-amzn-0 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 |
Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 |
Livy | 0.7.1 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 |
Phoenix | 5.1.2 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.254.1 | 0.245.1 | 0.245.1 | 0.238.3 |
Spark | 3.1.2 | 3.1.1 | 3.1.1 | 3.0.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (prestoSQL) | 359 | 350 | 350 | 343 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 |
6.4.0 发布说明
以下发布说明包括有关 Amazon EMR 发行版 6.4.0 的信息。更改与 6.3.0 有关。
首次发布日期:2021 年 9 月 20 日
发布更新日期:2022 年 3 月 21 日
受支持的应用程序
-
Amazon SDK for Java 版本 1.12.31
-
CloudWatch 水槽版本 2.2.0
-
DynamoDB 连接器 4.16.0
-
EMRFS 2.47.0
-
Amazon EMR Goodies 3.2.0
-
Amazon EMR Kinesis 连接器 3.5.0
-
Amazon EMR 记录服务器 2.1.0
-
Amazon EMR Scripts 2.5.0
-
Flink 1.13.1
-
Ganglia 3.7.2
-
Amazon Glue Hive Metastore 客户端版本 3.3.0
-
Hadoop 3.2.1-amzn-4
-
HBase 版本 2.4.4-amzn-0
-
HBase-operator-tools 1.1.0
-
HCatalog 版本 3.1.2-amzn-5
-
Hive 3.1.2-amzn-5
-
Hudi 0.8.0-amzn-0
-
Hue 4.9.0
-
Java JDK Corretto-8.302.08.1(内部 1.8.0_302-b08)
-
JupyterHub 版本 1.4.1
-
Livy 0.7.1-incubating
-
MXNet 版本 1.8.0
-
Oozie 5.2.1
-
Phoenix 5.1.2
-
Pig 0.17.0
-
Presto 0.254.1-amzn-0
-
Trino 359
-
Apache Ranger KMS(多主节点透明加密)版本 2.0.0
-
ranger-plugins 2.0.1-amzn-0
-
ranger-s3-plugin 1.2.0
-
SageMaker Spark SDK 版本 1.4.1
-
Scala 2.12.10(OpenJDK 64 位服务器 VM,Java 1.8.0_282)
-
Spark 3.1.2-amzn-0
-
spark-rapids 0.4.1
-
Sqoop 1.4.7
-
TensorFlow 版本 2.4.1
-
tez 0.9.2
-
Zeppelin 0.9.0
-
Zookeeper 3.5.7
-
连接器和驱动程序:DynamoDB 连接器 4.16.0
新特征
-
[托管式扩展] Spark 随机排序数据托管式扩展优化 – Amazon EMR 5.34.0 及更高版本和 Amazon EMR 6.4.0 及更高版本支持可感知 Spark 随机排序数据(Spark 在分区之间重新分配以执行特定操作的数据)的托管式扩展。有关随机排序操作的更多信息,请参阅《Amazon EMR 管理指南》中的在 Amazon EMR 中使用 EMR 托管扩展和 Spark 编程指南
。 -
在 Apache Ranger 启用的 Amazon EMR 集群上,您可以使用 Apache Spark SQL 将数据插入到 Apache Hive 元数据存储表中或使用
INSERT INTO
、INSERT OVERWRITE
和ALTER TABLE
更新 Apache Hive 元数据存储表。将 ALTER TABLE 与 Spark SQL 结合使用时,分区位置必须是表位置的子目录。如果某个分区的分区位置与表位置不同,Amazon EMR 目前不支持将数据插入该分区。 -
PrestoSQL 已重命名为 Trino。
-
Hive:在获取 LIMIT 子句中提到的记录数目后,通过立即停止查询执行可加快使用 LIMIT 子句执行简单 SELECT 查询的速度。简单 SELECT 查询是没有 GROUP BY/ORDER BY 子句的查询或没有减速阶段的查询。例如,
SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>
。
Hudi 并发控制
-
Hudi 目前支持乐观并发控制 (OCC),它可以与 UPSERT 和 INSERT 等写入操作一起利用,以允许从多个写入器更改为同一 Hudi 表。这是文件级 OCC,因此任何两个提交(或写入器)可以写入同一表内,前提是它们的更改不冲突。有关更多信息,请参阅 Hadi 并发性控制
。 -
Amazon EMR 集群安装了 Zookeeper,可以利用它作为 OCC 的锁提供商。为了更便捷地使用此功能,Amazon EMR 集群预先配置了以下属性:
hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider hoodie.write.lock.zookeeper.url=<
EMR Zookeeper URL
> hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port
> hoodie.write.lock.zookeeper.base_path=/hudi要启用 OCC,您需要使用 Hudi 任务选项或使用 Amazon EMR 配置 API 在集群级别配置以下属性:
hoodie.write.concurrency.mode=optimistic_concurrency_control hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write) hoodie.write.lock.zookeeper.lock_key=
<Key to uniquely identify the Hudi table>
(Table Name is a good option)
Hudi 监控:亚马逊 CloudWatch 集成以报告 Hudi 指标
-
亚马逊 EMR 支持向亚马逊发布 Hudi 指标。 CloudWatch通过设置以下所需配置来启用:
hoodie.metrics.on=true hoodie.metrics.reporter.type=CLOUDWATCH
以下是您可以更改的可选 Hudi 配置:
设置 描述 值 hoodie.metrics.cloudwatch.report.period.seconds
向 Amazon 报告指标的频率(以秒为单位) CloudWatch
默认值为 60s,这对于亚马逊提供的默认一分钟分辨率来说没问题 CloudWatch
hoodie.metrics.cloudwatch.metric.prefix
要添加到每个指标名称的前缀
默认值为空(无前缀)
hoodie.metrics.cloudwatch.namespace
发布指标时使用的 Amazon CloudWatch 命名空间
默认值为 Hudi
hoodie.metrics.cloudwatch maxDatumsPer请求
向 Amazon 发出的单次请求中包含的最大数据数量 CloudWatch
默认值为 20,这与亚马逊的 CloudWatch 默认值相同
Amazon EMR Hudi 配置的支持和改进
-
客户目前可以利用 EMR 配置 API 和重新配置功能在集群级别配置 Hudi 配置。与 Spark、Hive 等其他应用程序一样,引入了一种新的基于文件的配置支持 via /etc/hudi/conf/hudi-defaults.conf。EMR 配置了几个默认值以改善用户体验:
—
hoodie.datasource.hive_sync.jdbcurl
已配置为集群 Hive 服务器 URL,无需指定。这在 Spark 集群模式下运行任务时十分有效,而您之前必须指定 Amazon EMR 主 IP。— HBase 特定配置,这对于在 Hudi 中使用 HBase 索引很有用。
— Zookeeper 锁提供商的特定配置,如并发控制下所讨论的内容,这令乐观并发控制 (OCC) 的使用更加方便。
-
还引入了其他更改,以减少需要通过的配置数量,并在可能的情况下自动推断:
— 该
partitionBy
关键字可用于指定分区列。— 启用 Hive Sync 时,不再强制通过
HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY
。这些值可以根据 Hudi 表名称和分区字段推断出来。—
KEYGENERATOR_CLASS_OPT_KEY
不强制通过,可以从更简单的SimpleKeyGenerator
和ComplexKeyGenerator
情况下推断。
Hudi 注意事项
-
Hudi 不支持在 Hive 中用于读取时合并 (MoR) 和 Bootstrap 表格中的矢量化执行。例如,当
hive.vectorized.execution.enabled
设置为 true 时,Hudi 实时表的count(*)
失败。作为解决方法,您可以通过将hive.vectorized.execution.enabled
设置为false
禁用矢量化读入。 -
多写作器支持与 Hudi 引导启动功能不兼容。
-
Flink Streamer 和 Flink SQL 是此发行版中的实验性功能。建议不要在生产部署中使用这些功能。
更改、增强功能和解决的问题
此版本旨在修复 Amazon EMR Scaling 无法成功纵向扩展/缩减集群或导致应用程序故障时出现的问题。
以前,在多主节点集群上手动重启资源管理器会导致 Zookeeper znode 文件中的 Amazon EMR 集群进程守护程序(如 Zookeeper)重新加载以前停用或丢失的所有节点。在某些情况下,这会导致超出默认限制。Amazon EMR 现在会从 Zookeeper 文件中删除已停用或丢失超过一小时的节点记录,并且内部限制也有所提高。
修复了当 Amazon EMR 集群上的进程守护程序正在进行运行状况检查活动(例如收集 YARN 节点状态和 HDFS 节点状态)时,针对高利用率的大型集群的扩展请求失败的问题。之所以发生这种情况,是因为集群上的进程守护程序无法将节点的运行状况数据传递给内部 Amazon EMR 组件。
改进了 EMR 集群上的进程守护程序,以便在重用 IP 地址时正确跟踪节点状态,从而提高扩缩操作期间的可靠性。
SPARK-29683
。修复了集群缩减期间出现任务失败的问题,因为 Spark 假定所有可用节点都被拒绝列出。 YARN-9011
。修复了集群尝试纵向扩展或缩减时,由于 YARN 停用中的争用条件导致任务失败的问题。 通过确保 Amazon EMR 集群上的进程守护程序和 YARN/HDFS 之间的节点状态始终一致,解决了集群扩展期间步骤或任务失败的问题。
修复了已启用 Kerberos 身份验证的 Amazon EMR 集群的诸如缩减和步骤提交等集群操作失败的问题。这是因为 Amazon EMR 集群上的进程守护程序没有续订 Kerberos 票证,而该票证是与主节点上运行的 HDFS/YARN 进行安全通信所必需的。
-
配置集群以修复 Apache YARN 时间轴服务器 1 和 1.5 版的性能问题
Apache YARN 时间轴服务器版本 1 和 1.5 可能会对非常活跃的大型 EMR 集群造成性能问题,尤其是
yarn.resourcemanager.system-metrics-publisher.enabled=true
,这是 Amazon EMR 中的默认设置。开源 YARN 时间轴服务器 v2 解决了与 YARN 时间轴服务器可扩展性相关的性能问题。此问题的其他解决方法包括:
配置 yarn.resourceManager system-metrics-publisheryarn-site.xml 中的.enabled=false。
如下所述,在创建群集时启用此问题的修复程序。
以下 Amazon EMR 发行版包含针对此 YARN 时间线服务器性能问题的修复。
EMR 5.30.2、5.31.1、5.32.1、5.33.1、5.34.x、6.0.1、6.1.1、6.2.1、6.3.1、6.4.x
要对上述任何指定的 Amazon EMR 版本启用修复程序,请使用
aws emr create-cluster
命令参数:--configurations file://./configurations.json
在传入的配置 JSON 文件中将这些属性设置为true
。或者使用重新配置控制台 UI 启用修复程序。配置 .json 文件内容的示例:
[ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
默认情况下禁用 WebHDFS 和 HTTFS 服务器。您可以使用 Hadoop 配置重新启用 WebHDFS,
dfs.webhdfs.enabled
。HTTPFS 服务器可以通过使用sudo systemctl start hadoop-httpfs
启动。-
现在,默认情况下,已启用 Amazon Linux 存储库的 HTTPS。如果您使用 Amazon S3 VPCE 策略限制对特定存储桶的访问,则必须添加新的 Amazon Linux 存储桶 ARN
arn:aws:s3:::amazonlinux-2-repos-$region/*
到策略(将$region
替换为终端节点所在的区域)。有关更多信息,请在 Amazon 讨论论坛中查看此主题。公告:Amazon Linux 2 目前支持在连接到软件包存储库时使用 HTTPS 的功能。 -
Hive:为最后任务,通过启用 HDFS 上的 scratch 目录,从而提高写入查询性能。最终任务的临时数据可写入 HDFS 而不是 Amazon S3,性能可以得到提高,因为数据从 HDFS 移动到最终表位置 (Amazon S3) 而不是在 Amazon S3 设备之间移动。
-
Hive:使用 Glue 元存储分区修剪,查询编译时间最多可缩短 2.5 倍。
-
默认情况下,当 Hive 将内置 UDFs 内容传递给 Hive Metastore 服务器时,只有内置内容的子集会传递给 Glue Metastore,因 UDFs 为 Glue 仅支持有限的表达式运算符。如果您设置
hive.glue.partition.pruning.client=true
,则所有分区修剪发生在客户端。如果您设置hive.glue.partition.pruning.server=true
,则所有分区修剪发生在服务器端。
已知问题
Hue 查询在 Amazon EMR 6.4.0 中不起作用,因为默认情况下 Apache Hadoop HTTPFS 服务器处于禁用状态。要在 Amazon EMR 6.4.0 上使用 Hue,请使用
sudo systemctl start hadoop-httpfs
在 Amazon EMR 主节点上手动启动 HTTPFS 服务器,或者使用 Amazon EMR 步骤。与 Livy 用户模拟一起使用的 Amazon EMR Notebooks 功能不起作用,因为默认情况下,HTTPFS 处于禁用状态。在这种情况下,EMR Notebook 无法连接到启用了 Livy 模拟的集群。解决方法是在将 EMR Notebook 连接到集群之前使用
sudo systemctl start hadoop-httpfs
启动 HTTPFS 服务器。在 Amazon EMR 6.4.0 版本中,Phoenix 不支持 Phoenix 连接器组件。
要将 Spark 操作与 Apache Oozie 一起使用,必须将以下配置添加到 Oozie
workflow.xml
文件中。否则,Oozie 启动的 Spark 执行器的类路径中将丢失几个诸如 Hadoop 和 EMRFS 之类的关键库。<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
当您将 Spark 与 Hive 分区位置格式化结合使用以读取 Amazon S3 中的数据,并在 Amazon EMR 版本 5.30.0 至 5.36.0 以及 6.2.0 至 6.9.0 上运行 Spark 时,可能会遇到导致集群无法正确读取数据的问题。如果您的分区具有以下所有特征,会发生这种情况:
-
从同一个表扫描两个或多个分区。
-
至少有一个分区目录路径是至少一个其他分区目录路径的前缀,例如,
s3://bucket/table/p=a
是s3://bucket/table/p=a b
的前缀。 -
另一个分区目录中前缀后面的第一个字符的 UTF-8 值小于
/
字符 (U+002F)。例如,在s3://bucket/table/p=a b
中,a 和 b 之间出现的空格字符 (U+0020) 就属于此类。请注意,还有其他 14 个非控制字符:!"#$%&‘()*+,-
。有关更多信息,请参阅 UTF-8 encoding table and Unicode characters(UTF-8 编码表和 Unicode 字符)。
解决方法是在
spark-defaults
分类中将spark.sql.sources.fastS3PartitionDiscovery.enabled
配置设置为false
。-
6.4.0 组件版本
下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emr
或 aws
开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。
Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,假设已对名为 EmrVersion
myapp-component
的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | 亚马逊 SageMaker Spark SDK |
emr-ddb | 4.16.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 3.2.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.5.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-notebook-env | 1.3.0 | 适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env |
emr-s3-dist-cp | 2.18.0 | 针对 Amazon S3 优化的分布式复制应用程序。 |
emr-s3-select | 2.1.0 | EMR S3 Select 连接器 |
emrfs | 2.47.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.13.1 | Apache Flink 命令行客户端脚本和应用程序。 |
flink-jobmanager-config | 1.13.1 | 在 EMR 节点上管理 Apache Flink 的资源。 JobManager |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 3.2.1-amzn-4 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 3.2.1-amzn-4 | 用于存储数据块的 HDFS 节点级服务。 |
hadoop-hdfs-library | 3.2.1-amzn-4 | HDFS 命令行客户端和库 |
hadoop-hdfs-namenode | 3.2.1-amzn-4 | 用于跟踪文件名和数据块位置的 HDFS 服务。 |
hadoop-hdfs-journalnode | 3.2.1-amzn-4 | 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。 |
hadoop-httpfs-server | 3.2.1-amzn-4 | 用于 HDFS 操作的 HTTP 终端节点。 |
hadoop-kms-server | 3.2.1-amzn-4 | 基于 Hadoop 的 API 的加密密钥管理服务器。 KeyProvider |
hadoop-mapred | 3.2.1-amzn-4 | MapReduce 用于运行 MapReduce 应用程序的执行引擎库。 |
hadoop-yarn-nodemanager | 3.2.1-amzn-4 | 用于管理单个节点上的容器的 YARN 服务。 |
hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | 用于分配和管理集群资源与分布式应用程序的 YARN 服务。 |
hadoop-yarn-timeline-server | 3.2.1-amzn-4 | 用于检索 YARN 应用程序的当前信息和历史信息的服务。 |
hbase-hmaster | 2.4.4-amzn-0 | 为负责协调区域和执行管理命令的 HBase 集群提供服务。 |
hbase-region-server | 2.4.4-amzn-0 | 为一个或多个 HBase 地区提供服务的服务。 |
hbase-client | 2.4.4-amzn-0 | HBase 命令行客户端。 |
hbase-rest-server | 2.4.4-amzn-0 | 为提供 RESTful HTTP 端点的服务 HBase。 |
hbase-thrift-server | 2.4.4-amzn-0 | 为其提供 Thrift 端点的 HBase服务。 |
hcatalog-client | 3.1.2-amzn-5 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 3.1.2-amzn-5 | 提供服务 HCatalog,为分布式应用程序提供表和存储管理层。 |
hcatalog-webhcat-server | 3.1.2-amzn-5 | 为其提供 REST 接口的 HTTP 端点 HCatalog。 |
hive-client | 3.1.2-amzn-5 | Hive 命令行客户端。 |
hive-hbase | 3.1.2-amzn-5 | Hive-hbase 客户端。 |
hive-metastore-server | 3.1.2-amzn-5 | 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。 |
hive-server2 | 3.1.2-amzn-5 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hudi | 0.8.0-amzn-0 | 增量处理框架,以支持低延迟和高效率的数据管道。 |
hudi-presto | 0.8.0-amzn-0 | 用于运行 Presto 以及 Hudl 的捆绑库。 |
hudi-trino | 0.8.0-amzn-0 | 用于运行 Trino 以及 Hudi 的捆绑库。 |
hudi-spark | 0.8.0-amzn-0 | 用于运行 Spark 以及 Hudi 的捆绑库。 |
hue-server | 4.9.0 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
jupyterhub | 1.4.1 | Jupyter notebook 的多用户服务器 |
livy-server | 0.7.1-incubating | 用于与 Apache Spark 交互的 REST 接口 |
nginx | 1.12.1 | nginx [引擎 x] 是 HTTP 和反向代理服务器 |
mxnet | 1.8.0 | 用于深度学习的灵活的、可扩展且高效的库。 |
mariadb-server | 5.5.68+ | MariaDB 数据库服务器。 |
nvidia-cuda | 10.1.243 | Nvidia 驱动程序和 Cuda 工具包 |
oozie-client | 5.2.1 | Oozie 命令行客户端。 |
oozie-server | 5.2.1 | 用于接受 Oozie 工作流请求的服务。 |
opencv | 4.5.0 | 开源计算机视觉库。 |
phoenix-library | 5.1.2 | 服务器和客户端的 phoenix 库 |
phoenix-query-server | 5.1.2 | 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器 |
presto-coordinator | 0.254.1-amzn-0 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.254.1-amzn-0 | 用于执行查询的各个部分的服务。 |
presto-client | 0.254.1-amzn-0 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
trino-coordinator | 359 | 用于在 trino-worker 之中接受查询并管理查询的服务。 |
trino-worker | 359 | 用于执行查询的各个部分的服务。 |
trino-client | 359 | Trino 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Trino 服务器)上。 |
pig-client | 0.17.0 | Pig 命令行客户端。 |
r | 4.0.2 | 用于统计计算的 R 项目 |
ranger-kms-server | 2.0.0 | Apache Ranger 密钥管理系统 |
spark-client | 3.1.2-amzn-0 | Spark 命令行客户端。 |
spark-history-server | 3.1.2-amzn-0 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 3.1.2-amzn-0 | 适用于 YARN 的内存中执行引擎。 |
spark-yarn-slave | 3.1.2-amzn-0 | YARN 从属项所需的 Apache Spark 库。 |
spark-rapids | 0.4.1 | Nvidia Spark RAPIDS 插件可以加速 Apache Spark GPUs |
sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
tensorflow | 2.4.1 | TensorFlow 用于高性能数值计算的开源软件库。 |
tez-on-yarn | 0.9.2 | tez YARN 应用程序和库。 |
webserver | 2.4.41+ | Apache HTTP 服务器。 |
zeppelin-server | 0.9.0 | 支持交互式数据分析的基于 Web 的 Notebook。 |
zookeeper-server | 3.5.7 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.5.7 | ZooKeeper 命令行客户端。 |
6.4.0 配置分类
配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml
)相对应。有关更多信息,请参阅配置应用程序。
为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。Amazon EMR 仅为您修改的分类启动重新配置操作。有关更多信息,请参阅 在正在运行的集群中重新配置实例组。
分类 | 描述 | 重新配置操作 |
---|---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 | Restarts the ResourceManager service. |
container-executor | 更改 Hadoop YARN 的 container-executor.cfg 文件中的值。 | Not available. |
container-log4j | 更改 Hadoop YARN 的 container-log4j.properties 文件中的值。 | Not available. |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | 更改 docker 相关设置。 | Not available. |
emrfs-site | 更改 EMRFS 设置。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | 更改 flink-conf.yaml 设置。 | Restarts Flink history server. |
flink-log4j | 更改 Flink log4j.properties 设置。 | Restarts Flink history server. |
flink-log4j-session | 为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。 | Restarts Flink history server. |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 | Restarts Flink history server. |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 | Not available. |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 | Not available. |
hbase | 亚马逊 EMR 精心策划的 Apache 设置。 HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | 更改环境 HBase中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | 更改 hbase- HBase log4j.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | 更改 hadoop-metrics2-h HBase base.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | 更改 HBase的 hbase-policy.xml 文件中的值。 | Not available. |
hbase-site | 更改 HBase的 hbase-site.xml 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | 配置 HDFS 加密区域。 | This classification should not be reconfigured. |
hdfs-env | 更改 HDFS 环境中的值。 | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | 更改 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | 更改环境 HCatalog中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | 更改 HCatalog的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | 更改 proto-hive-site .x HCatalog ml 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | 更改 HCatalog Web 环境HCat中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | 更改 HCatalog Web HCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | 更改 HCatalog Web HCat 的 webhcat-site.xml 文件中的值。 | Restarts Hive WebHCat server. |
hive | 适用于 Apache Hive 的 Amazon EMR 辅助设置。 | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 | Not available. |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 | Not available. |
hive-env | 更改 Hive 环境中的值。 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。 | Not available. |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。 | Not available. |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 | Not available. |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 | Not available. |
hue-ini | 更改 Hue 的 ini 文件中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | 更改 HTTPFS 环境中的值。 | Restarts Hadoop Httpfs service. |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 | Not available. |
hadoop-kms-env | 更改 Hadoop KMS 环境中的值。 | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 | Not available. |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | 更改 Hudi 环境中的值。 | Not available. |
hudi-defaults | 更改 Hudi 的 hudi-defaults.conf 文件中的值。 | Not available. |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 | Not available. |
jupyter-hub-conf | 更改 jupyterhub_config.py 文件 JupyterHubs中的值。 | Not available. |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 | Not available. |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 | Not available. |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 | Restarts Livy Server. |
livy-env | 更改 Livy 环境中的值。 | Restarts Livy Server. |
livy-log4j | 更改 Livy log4j.properties 设置。 | Restarts Livy Server. |
mapred-env | 更改 MapReduce 应用程序环境中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | 更改 Oozie 的环境中的值。 | Restarts Oozie. |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 | Restarts Oozie. |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 | Restarts Oozie. |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 | Not available. |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 | Not available. |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 | Restarts Phoenix-QueryServer. |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 | Not available. |
pig-env | 更改 Pig 环境中的值。 | Not available. |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 | Restarts Oozie. |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 | Not available. |
presto-log | 更改 Presto 的 log.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-config | 更改 Presto 的 config.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 | Not available. |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-node | 更改 Presto 的 node.properties 文件中的值。 | Not available. |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 | Not available. |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 | Not available. |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 | Not available. |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 | Not available. |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 | Not available. |
presto-connector-memory | 更改 Presto 的 memory.properties 文件中的值。 | Not available. |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 | Not available. |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 | Not available. |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 | Not available. |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 | Not available. |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 | Not available. |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 | Not available. |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 | Not available. |
presto-connector-tpcds | 更改 Presto 的 tpcds.properties 文件中的值。 | Not available. |
trino-log | 更改 Trino 的 log.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-config | 更改 Trino 的 config.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-password-authenticator | 更改 Trino 的 password-authenticator.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-env | 更改 Trino 的 trino-env.sh 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-node | 更改 Trino 的 node.properties 文件中的值。 | Not available. |
trino-connector-blackhole | 更改 Trino 的 blackhole.properties 文件中的值。 | Not available. |
trino-connector-cassandra | 更改 Trino 的 cassandra.properties 文件中的值。 | Not available. |
trino-connector-hive | 更改 Trino 的 hive.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-jmx | 更改 Trino 的 jmx.properties 文件中的值。 | Not available. |
trino-connector-kafka | 更改 Trino 的 kafka.properties 文件中的值。 | Not available. |
trino-connector-localfile | 更改 Trino 的 localfile.properties 文件中的值。 | Not available. |
trino-connector-memory | 更改 Trino 的 memory.properties 文件中的值。 | Not available. |
trino-connector-mongodb | 更改 Trino 的 mongodb.properties 文件中的值。 | Not available. |
trino-connector-mysql | 更改 Trino 的 mysql.properties 文件中的值。 | Not available. |
trino-connector-postgresql | 更改 Trino 的 postgresql.properties 文件中的值。 | Not available. |
trino-connector-raptor | 更改 Trino 的 raptor.properties 文件中的值。 | Not available. |
trino-connector-redis | 更改 Trino 的 redis.properties 文件中的值。 | Not available. |
trino-connector-redshift | 更改 Trino 的 redshift.properties 文件中的值。 | Not available. |
trino-connector-tpch | 更改 Trino 的 tpch.properties 文件中的值。 | Not available. |
trino-connector-tpcds | 更改 Trino 的 tpcds.properties 文件中的值。 | Not available. |
ranger-kms-dbks-site | 更改 Ranger KMS 的 dbks-site.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-site | 更改 Ranger K ranger-kms-site MS 的.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-env | 更改 Ranger KMS 环境中的值。 | Restarts Ranger KMS Server. |
ranger-kms-log4j | 更改 Ranger KMS 的 kms-log4j.properties 文件中的值。 | Not available. |
ranger-kms-db-ca | 更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。 | Not available. |
spark | 适用于 Apache Spark 的 Amazon EMR 辅助设置。 | This property modifies spark-defaults. See actions there. |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-env | 更改 Spark 环境中的值。 | Restarts Spark history server and Spark thrift server. |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 | Not available. |
spark-log4j | 更改 Spark 的 log4j.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
sqoop-env | 更改 Sqoop 的环境中的值。 | Not available. |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 | Not available. |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 | Not available. |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 | Restart Oozie and HiveServer2. |
yarn-env | 更改 YARN 环境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | 更改 YARN 的 yarn-site.xml 文件中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | 更改 Zeppelin 环境中的值。 | Restarts Zeppelin. |
zeppelin-site | 更改 zeppelin-site.xml 中的配置设置。 | Restarts Zeppelin. |
zookeeper-config | 更改 zoo.cfg 文件 ZooKeeper中的值。 | Restarts Zookeeper server. |
zookeeper-log4j | 更改 ZooKeeper的 log4j.properties 文件中的值。 | Restarts Zookeeper server. |