本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Amazon EMR 发行版 6.9.0
6.9.0 应用程序版本
此版本支持以下应用程序:Delta
下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。
有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:
emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | |
---|---|---|---|---|
Amazon 适用于 Java 的 SDK | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 |
Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | 2.1.0 | - | - | - |
Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.13 | 2.4.12 | 2.4.12 | 2.4.4 |
HCatalog | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hadoop | 3.3.3 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 |
Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 |
Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 |
JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 |
Livy | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 |
MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 |
Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.276 | 0.273 | 0.273 | 0.272 |
Spark | 3.3.0 | 3.3.0 | 3.3.0 | 3.2.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 |
Tez | 0.10.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (prestoSQL) | 398 | 388 | 388 | 378 |
Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 |
ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 |
6.9.0 发布说明
以下发布说明包括有关 Amazon EMR 发行版 6.9.0 的信息。更改与 Amazon EMR 发行版 6.8.0 有关。有关发布时间表的信息,请参阅更改日志。
新功能
Amazon EMR 发行版 6.9.0 支持 Apache Spark RAPIDS 22.08.0、Apache Hudi 0.12.1、Apache Iceberg 0.14.1、Trino 398 和 Tez 0.10.2。
Amazon EMR 发行版 6.9.0 包括一个新的开源应用程序,Delta Lake 2.1.0。
Amazon EMR 发行版 6.9.0 及更高版本包含适用于 Apache Spark 的 Amazon Redshift 集成。本地集成之前是一种开源工具,现在是 Spark 连接器,您可以将其用于构建 Apache Spark 应用程序,这些应用程序可在 Amazon Redshift 和 Amazon Redshift Serverless 中读取和写入数据。有关更多信息,请参阅 将适用于 Apache Spark 的 Amazon Redshift 集成与 Amazon EMR 结合使用 。
Amazon EMR 发行版 6.9.0 增加了对在集群缩减期间将日志存档到 Amazon S3 的支持。之前,您只能在集群终止期间将日志文件存档到 Amazon S3。这项新功能可确保即使在节点终止后,集群上生成的日志文件仍保留在 Amazon S3 上。有关更多信息,请参阅配置集群日志记录和调试。
为了支持长时间运行的查询,Trino 现在包括容错执行机制。容错执行通过重试失败的查询或其组件任务来减少查询失败。有关更多信息,请参阅 Trino 中的容错执行。
您可以在 Amazon EMR 上使用 Apache Flink 对 Apache Hive 表或任何 Flink 表源(例如 Iceberg、Kinesis 或 Kafka)的元数据进行统一的
BATCH
和STREAM
处理。您可以使用 Amazon Web Services Management Console、 Amazon CLI或 Amazon EMR API 将 Amazon Glue 数据目录指定为 Flink 的元数据库。有关更多信息,请参阅 在 Amazon EMR 中配置 Flink。现在,你可以在装有亚马逊 AI Studio 的 EC2 集群上为 Amazon EMR 上的 Apache Spark、Apache Hive 和 Presto 查询指定 Amazon Identity and Access Management (IAM) 运行时角色和 Amazon Lake Formation基于访问控制。 SageMaker 有关更多信息,请参阅为 Amazon EMR 步骤配置运行时角色。
已知问题
对于 Amazon EMR 发行版 6.9.0,Trino 不适用于为 Apache Ranger 启用的集群。如果您需要将 Trino 与 Ranger 结合使用,请联系 Amazon Web Services 支持
。 如果您使用适用于 Apache Spark 的 Amazon Redshift 集成,并且具有 Parquet 格式的时间、timetz、时间戳或 timestamptz(精度为微秒),连接器会将时间值舍入为最接近的毫秒值。解决方法是使用文本卸载格式
unload_s3_format
参数。当您将 Spark 与 Hive 分区位置格式化结合使用以读取 Amazon S3 中的数据,并在 Amazon EMR 版本 5.30.0 至 5.36.0 以及 6.2.0 至 6.9.0 上运行 Spark 时,可能会遇到导致集群无法正确读取数据的问题。如果您的分区具有以下所有特征,会发生这种情况:
-
从同一个表扫描两个或多个分区。
-
至少有一个分区目录路径是至少一个其他分区目录路径的前缀,例如,
s3://bucket/table/p=a
是s3://bucket/table/p=a b
的前缀。 -
另一个分区目录中前缀后面的第一个字符的 UTF-8 值小于
/
字符 (U+002F)。例如,在s3://bucket/table/p=a b
中,a 和 b 之间出现的空格字符 (U+0020) 就属于此类。请注意,还有其他 14 个非控制字符:!"#$%&‘()*+,-
。有关更多信息,请参阅 UTF-8 encoding table and Unicode characters(UTF-8 编码表和 Unicode 字符)。
解决方法是在
spark-defaults
分类中将spark.sql.sources.fastS3PartitionDiscovery.enabled
配置设置为false
。-
从 Amazon A SageMaker I Studio 到 Amazon EMR 集群的连接可能会间歇性失败,并显示 403 禁止的响应代码。如果在集群上设置 IAM 角色的时间超过 60 秒,就会发生此错误。解决方法是安装 Amazon EMR 补丁以启用重试,并将超时增加到至少 300 秒。启动集群时,按照以下步骤应用引导操作。
从以下 Amazon S3 URIs 下载引导脚本和 RPM 文件。
s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
将上一步中的文件上传到您自己的 Amazon S3 存储桶中。存储桶必须与您计划启动集群的 Amazon Web Services 区域 位置相同。
启动集群时,执行以下引导操作。用 Amazon S3 URIs 中的相应版本替换
bootstrap_URI
和。RPM_URI
--bootstrap-actions "Path=
bootstrap_URI
,Args=[RPM_URI
]"
在 Amazon EMR 发行版 5.36.0 和 6.6.0 到 6.9.0 中,
SecretAgent
和RecordServer
服务组件可能会因为 Log4j2 属性中的文件名模式配置不正确而出现日志数据丢失的情况。错误的配置导致组件每天只生成一个日志文件。当应用轮换策略时,它会重写现有文件,而不是按预期生成新的日志文件。应变方法是使用引导操作每小时生成一次日志文件,并在文件名中附加一个自动增量的整数来处理轮换。对于 Amazon EMR 发行版 6.6.0 到 6.9.0,启动集群时,请执行以下引导操作。
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
对于 Amazon EMR 发行版 5.36.0,启动集群时,请执行以下引导操作。
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
-
Apache Flink 提供原生 S3 FileSystem 和 Hadoop FileSystem 连接器,允许应用程序创建 FileSink 并将数据写入 Amazon S3。这 FileSink 会失败,但有以下两个例外情况之一。
java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy; at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
解决方法是安装 Amazon EMR 补丁,该补丁可以修复 Flink 中的上述问题。要在启动集群时应用引导操作,请完成以下步骤。
-
将 flink-rpm 下载到 Amazon S3 存储桶中。您的 RPM 路径是
s3://
。DOC-EXAMPLE-BUCKET
/rpms/flink/ -
使用以下 URI 从 Amazon S3 下载引导脚本和 RPM 文件。
替换为您计划启动集群 Amazon Web Services 区域 的位置。regionName
s3://emr-data-access-control-
regionName
/customer-bootstrap-actions/gcsc/replace-rpms.sh Hadoop 3.3.3 在 YARN(YARN-9608
)中引入了一项更改,即在应用程序完成之前,容器运行所在的节点一直处于停用状态。此更改可确保如随机数据等本地数据不会丢失,并且您无需重新运行作业。在 Amazon EMR 6.8.0 和 6.9.0 中,无论是否启用托管扩展,这种方法还可能导致集群的资源利用不足。 在 Amazon EMR 6.10.0 中,有一个解决此问题的方法,可以在
yarn-site.xml
中将yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications
的值设置为false
。在 Amazon EMR 版本 6.11.0 及更高版本以及 6.8.1、6.9.1 和 6.10.1 中,默认将配置设置为false
以解决此问题。
-
更改、增强和解决的问题
对于 Amazon EMR 发行版 6.9.0 及更高版本,Amazon EMR 安装的所有使用 Log4j 库的组件都使用 Log4j 版本 2.17.1 或更高版本。
-
在 Amazon EMR 版本 6.6.0、6.7.0 和 6.8.0 上将 DynamoDB 连接器与 Spark 结合使用时,即使输入拆分引用了非空数据,表中的所有读取都会返回空结果。Amazon EMR 发行版 6.9.0 修复了此问题。
在使用 Spark SQL 读取数据时,Amazon EMR 6.9.0 添加对基于 Lake Formation 的访问控制及 Apache Hudi 的有限支持。支持针对使用 Spark SQL 的 SELECT 查询,并且仅限于列级访问控制。有关更多信息,请参阅 Hudi 和 Lake Formation。
当您使用 Amazon EMR 6.9.0 创建启用了节点标签
的 Hadoop 集群时,YARN 指标 API 会返回所有分区的聚合信息,而不是默认分区。有关更多信息,请参阅 YARN-11414 。 在 Amazon EMR 6.9.0 版本中,我们已将 Trino 更新到使用 Java 17 的 398 版本。之前支持的 Amazon EMR 6.8.0 Trino 版本是在 Java 11 上运行的 Trino 388。有关此变更的更多信息,请参阅 Trino 博客上的 Trino updates to Java 17
。 此版本修复了 Apache BigTop 和 Amazon EMR 在集群启动序列上的 EC2 时间序列不匹配问题。当系统尝试同时执行两个或多个操作而不是按正确的顺序执行它们时,就会发生这种计时序列不匹配。因此,某些集群配置会遇到实例启动超时和较慢的集群启动时间。
当您使用 Amazon EMR 5.36 或更高版本、6.6 或更高版本或 7.0 或更高版本的最新补丁版本启动集群时,Amazon EMR 会使用最新的 Amazon Linux 2023 或 Amazon Linux 2 发行版作为默认 Amazon EMR AMI。如需更多信息,请参阅 Using the default Amazon Linux AMI for Amazon EMR。
注意
此版本不再获得 AMI 自动更新,因为它已被另外 1 个补丁版本取代。补丁版本以第二位小数点后的数字 (
6.8.
) 表示。要查看您是否使用的是最新补丁版本,请查看 Release Guide 中的可用版本,或者在控制台中创建集群时查看 Amazon EMR 版本下拉列表,或使用1
ListReleaseLabels
API 或list-release-labels
CLI 操作。要获取有关新版本的更新,请订阅新增功能页面上的 RSS 源。OsReleaseLabel (亚马逊 Linux 版本) Amazon Linux 内核版本 可用日期 支持的区域 2.0.20241217.0 4.14.355 2025年1月8日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) Amazon GovCloud 、(美国东部)、(美国东部) Amazon GovCloud 、中国(北京)、中国(宁夏)、中部东部(阿联酋)、亚太地区(墨尔本)、以色列(特拉维夫)、欧洲(苏黎世) 2.0.20241001.0 4.14.352 2024 年 10 月 4 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) Amazon GovCloud 、(美国东部)、(美国东部) Amazon GovCloud 、中国(北京)、中国(宁夏) 2.0.20240816.0 4.14.350 2024 年 8 月 21 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) Amazon GovCloud 、(美国东部)、(美国东部) Amazon GovCloud 、中国(北京)、中国(宁夏) 2.0.20240809.0 4.14.349 2024 年 8 月 20 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) Amazon GovCloud 、(美国东部)、(美国东部) Amazon GovCloud 、中国(北京)、中国(宁夏) 2.0.20240719.0 4.14.348 2024 年 7 月 25 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) Amazon GovCloud 、(美国东部)、(美国东部) Amazon GovCloud 、中国(北京)、中国(宁夏) 2.0.20240709.1 4.14.348 2024 年 7 月 23 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡))、亚太地区(悉尼)、亚太地区(雅加达)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、(美国西部) Amazon GovCloud 、(美国东部)、(美国东部) Amazon GovCloud 、中国(北京)、中国(宁夏)、亚洲太平洋(海得拉巴)、中东(阿联酋)、欧洲(西班牙)、欧洲(苏黎世)、亚太地区(墨尔本)、以色列(特拉维夫)、加拿大西部(卡尔加里) 2.0.20230808.0 4.14.320 2023 年 8 月 24 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲地区(法兰克福)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、加拿大(中部)、以色列(特拉维夫) 2.0.20230727.0 4.14.320 2023 年 8 月 14 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫) 2.0.20230719.0 4.14.320 2023 年 8 月 2 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、欧洲地区(斯德哥尔摩)、欧洲地区(米兰)、欧洲(西班牙)、欧洲地区(法兰克福)、欧洲(苏黎世)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫) 2.0.20230628.0 4.14.318 2023 年 7 月 12 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20230612.0 4.14.314 2023 年 6 月 23 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20230504.1 4.14.313 2023 年 5 月 16 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20230418.0 4.14.311 2023 年 5 月 3 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20230404.1 4.14.311 2023 年 4 月 18 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20230404.0 4.14.311 2023 年 4 月 10 日 美国东部(弗吉尼亚州北部)、欧洲地区(巴黎) 2.0.20230320.0 4.14.309 2023 年 3 月 30 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20230307.0 4.14.305 2023 年 3 月 15 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20230207.0 4.14.304 2023 年 2 月 22 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20221210.1 4.14.301 2023 年 1 月 12 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林) 2.0.20221103.3 4.14.296 2022 年 12 月 5 日 美国东部(弗吉尼亚州北部)、美国东部(俄亥俄州)、美国西部(北加利福尼亚)、美国西部(俄勒冈州)、加拿大(中部)、欧洲地区(斯德哥尔摩)、欧洲地区(爱尔兰)、欧洲地区(伦敦)、欧洲地区(巴黎)、欧洲地区(法兰克福)、欧洲地区(米兰)、亚太地区(香港)、亚太地区(孟买)、亚太地区(雅加达)、亚太地区(东京)、亚太地区(首尔)、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)
6.9.0 组件版本
下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emr
或 aws
开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。
Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,假设已对名为 EmrVersion
myapp-component
的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.2 | 亚马逊 SageMaker Spark SDK |
delta | 2.1.0 | Delta lake 是一种适用于超大型分析数据集的开放表格式。 |
emr-ddb | 4.16.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 3.3.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.6.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-notebook-env | 1.7.0 | 适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env |
emr-s3-dist-cp | 2.23.0 | 针对 Amazon S3 优化的分布式复制应用程序。 |
emr-s3-select | 2.2.0 | EMR S3 Select 连接器 |
emrfs | 2.54.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.15.2 | Apache Flink 命令行客户端脚本和应用程序。 |
flink-jobmanager-config | 1.15.2 | 在 EMR 节点上管理 Apache Flink 的资源。 JobManager |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 3.3.3-amzn-1 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 3.3.3-amzn-1 | 用于存储数据块的 HDFS 节点级服务。 |
hadoop-hdfs-library | 3.3.3-amzn-1 | HDFS 命令行客户端和库 |
hadoop-hdfs-namenode | 3.3.3-amzn-1 | 用于跟踪文件名和数据块位置的 HDFS 服务。 |
hadoop-hdfs-journalnode | 3.3.3-amzn-1 | 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。 |
hadoop-httpfs-server | 3.3.3-amzn-1 | 用于 HDFS 操作的 HTTP 终端节点。 |
hadoop-kms-server | 3.3.3-amzn-1 | 基于 Hadoop 的 API 的加密密钥管理服务器。 KeyProvider |
hadoop-mapred | 3.3.3-amzn-1 | MapReduce 用于运行 MapReduce 应用程序的执行引擎库。 |
hadoop-yarn-nodemanager | 3.3.3-amzn-1 | 用于管理单个节点上的容器的 YARN 服务。 |
hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | 用于分配和管理集群资源与分布式应用程序的 YARN 服务。 |
hadoop-yarn-timeline-server | 3.3.3-amzn-1 | 用于检索 YARN 应用程序的当前信息和历史信息的服务。 |
hbase-hmaster | 2.4.13-amzn-0 | 为负责协调区域和执行管理命令的 HBase 集群提供服务。 |
hbase-region-server | 2.4.13-amzn-0 | 为一个或多个 HBase 地区提供服务的服务。 |
hbase-client | 2.4.13-amzn-0 | HBase 命令行客户端。 |
hbase-rest-server | 2.4.13-amzn-0 | 为提供 RESTful HTTP 端点的服务 HBase。 |
hbase-thrift-server | 2.4.13-amzn-0 | 为其提供 Thrift 端点的 HBase服务。 |
hbase-operator-tools | 2.4.13-amzn-0 | 适用于 Apache HBase 集群的修复工具。 |
hcatalog-client | 3.1.3-amzn-2 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 3.1.3-amzn-2 | 提供服务 HCatalog,为分布式应用程序提供表和存储管理层。 |
hcatalog-webhcat-server | 3.1.3-amzn-2 | 为其提供 REST 接口的 HTTP 端点 HCatalog。 |
hive-client | 3.1.3-amzn-2 | Hive 命令行客户端。 |
hive-hbase | 3.1.3-amzn-2 | Hive-hbase 客户端。 |
hive-metastore-server | 3.1.3-amzn-2 | 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。 |
hive-server2 | 3.1.3-amzn-2 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hudi | 0.12.1-amzn-0 | 增量处理框架,以支持低延迟和高效率的数据管道。 |
hudi-presto | 0.12.1-amzn-0 | 用于运行 Presto 以及 Hudl 的捆绑库。 |
hudi-trino | 0.12.1-amzn-0 | 用于运行 Trino 以及 Hudi 的捆绑库。 |
hudi-spark | 0.12.1-amzn-0 | 用于运行 Spark 以及 Hudi 的捆绑库。 |
hue-server | 4.10.0 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
iceberg | 0.14.1-amzn-0 | Apache Iceberg 是一种适用于超大型分析数据集的开放表格式。 |
jupyterhub | 1.4.1 | Jupyter notebook 的多用户服务器 |
livy-server | 0.7.1-incubating | 用于与 Apache Spark 交互的 REST 接口 |
nginx | 1.12.1 | nginx [引擎 x] 是 HTTP 和反向代理服务器 |
mxnet | 1.9.1 | 用于深度学习的灵活的、可扩展且高效的库。 |
mariadb-server | 5.5.68+ | MariaDB 数据库服务器。 |
nvidia-cuda | 11.7.0 | Nvidia 驱动程序和 Cuda 工具包 |
oozie-client | 5.2.1 | Oozie 命令行客户端。 |
oozie-server | 5.2.1 | 用于接受 Oozie 工作流请求的服务。 |
opencv | 4.5.0 | 开源计算机视觉库。 |
phoenix-library | 5.1.2 | 服务器和客户端的 phoenix 库 |
phoenix-connectors | 6.0.0-SNAPSHOT | Apache Phoenix-Connectors for Spark-3 |
phoenix-query-server | 6.0.0 | 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器 |
presto-coordinator | 0.276-amzn-0 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.276-amzn-0 | 用于执行查询的各个部分的服务。 |
presto-client | 0.276-amzn-0 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
trino-coordinator | 398-amzn-0 | 用于在 trino-worker 之中接受查询并管理查询的服务。 |
trino-worker | 398-amzn-0 | 用于执行查询的各个部分的服务。 |
trino-client | 398-amzn-0 | Trino 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Trino 服务器)上。 |
pig-client | 0.17.0 | Pig 命令行客户端。 |
r | 4.0.2 | 用于统计计算的 R 项目 |
ranger-kms-server | 2.0.0 | Apache Ranger 密钥管理系统 |
spark-client | 3.3.0-amzn-1 | Spark 命令行客户端。 |
spark-history-server | 3.3.0-amzn-1 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 3.3.0-amzn-1 | 适用于 YARN 的内存中执行引擎。 |
spark-yarn-slave | 3.3.0-amzn-1 | YARN 从属项所需的 Apache Spark 库。 |
spark-rapids | 22.08.0-amzn-0 | Nvidia Spark RAPIDS 插件可以加速 Apache Spark GPUs |
sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
tensorflow | 2.10.0 | TensorFlow 用于高性能数值计算的开源软件库。 |
tez-on-yarn | 0.10.2-amzn-0 | tez YARN 应用程序和库。 |
webserver | 2.4.41+ | Apache HTTP 服务器。 |
zeppelin-server | 0.10.1 | 支持交互式数据分析的基于 Web 的 Notebook。 |
zookeeper-server | 3.5.10 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.5.10 | ZooKeeper 命令行客户端。 |
6.9.0 配置分类
配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml
)相对应。有关更多信息,请参阅配置应用程序。
为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。Amazon EMR 仅为您修改的分类启动重新配置操作。有关更多信息,请参阅 在正在运行的集群中重新配置实例组。
分类 | 描述 | 重新配置操作 |
---|---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 | Restarts the ResourceManager service. |
container-executor | 更改 Hadoop YARN 的 container-executor.cfg 文件中的值。 | Not available. |
container-log4j | 更改 Hadoop YARN 的 container-log4j.properties 文件中的值。 | Not available. |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | 更改 docker 相关设置。 | Not available. |
emrfs-site | 更改 EMRFS 设置。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | 更改 flink-conf.yaml 设置。 | Restarts Flink history server. |
flink-log4j | 更改 Flink log4j.properties 设置。 | Restarts Flink history server. |
flink-log4j-session | 为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。 | Restarts Flink history server. |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 | Restarts Flink history server. |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 | Not available. |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 | Not available. |
hbase | 亚马逊 EMR 精心策划的 Apache 设置。 HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | 更改环境 HBase中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | 更改 hbase- HBase log4j.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | 更改 hadoop-metrics2-h HBase base.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | 更改 HBase的 hbase-policy.xml 文件中的值。 | Not available. |
hbase-site | 更改 HBase的 hbase-site.xml 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | 配置 HDFS 加密区域。 | This classification should not be reconfigured. |
hdfs-env | 更改 HDFS 环境中的值。 | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | 更改 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | 更改环境 HCatalog中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | 更改 HCatalog的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | 更改 proto-hive-site .x HCatalog ml 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | 更改 HCatalog Web 环境HCat中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | 更改 HCatalog Web HCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | 更改 HCatalog Web HCat 的 webhcat-site.xml 文件中的值。 | Restarts Hive WebHCat server. |
hive | 适用于 Apache Hive 的 Amazon EMR 辅助设置。 | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 | Not available. |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 | Not available. |
hive-env | 更改 Hive 环境中的值。 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。 | Not available. |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。 | Not available. |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 | Not available. |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 | Not available. |
hue-ini | 更改 Hue 的 ini 文件中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | 更改 HTTPFS 环境中的值。 | Restarts Hadoop Httpfs service. |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 | Not available. |
hadoop-kms-env | 更改 Hadoop KMS 环境中的值。 | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 | Not available. |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | 更改 Hudi 环境中的值。 | Not available. |
hudi-defaults | 更改 Hudi 的 hudi-defaults.conf 文件中的值。 | Not available. |
iceberg-defaults | 更改 Iceberg 的 iceberg-defaults.conf 文件中的值。 | Not available. |
delta-defaults | 更改 Delta 的 delta-defaults.conf 文件中的值。 | Not available. |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 | Not available. |
jupyter-hub-conf | 更改 jupyterhub_config.py 文件 JupyterHubs中的值。 | Not available. |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 | Not available. |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 | Not available. |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 | Restarts Livy Server. |
livy-env | 更改 Livy 环境中的值。 | Restarts Livy Server. |
livy-log4j2 | 更改 Livy log4j2.properties 设置。 | Restarts Livy Server. |
mapred-env | 更改 MapReduce 应用程序环境中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | 更改 Oozie 的环境中的值。 | Restarts Oozie. |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 | Restarts Oozie. |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 | Restarts Oozie. |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 | Not available. |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 | Not available. |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 | Restarts Phoenix-QueryServer. |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 | Not available. |
pig-env | 更改 Pig 环境中的值。 | Not available. |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 | Restarts Oozie. |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 | Not available. |
presto-log | 更改 Presto 的 log.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-config | 更改 Presto 的 config.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 | Not available. |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-node | 更改 Presto 的 node.properties 文件中的值。 | Not available. |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 | Not available. |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 | Not available. |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 | Not available. |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 | Not available. |
presto-connector-lakeformation | 更改 Presto 的 lakeformation.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 | Not available. |
presto-connector-memory | 更改 Presto 的 memory.properties 文件中的值。 | Not available. |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 | Not available. |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 | Not available. |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 | Not available. |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 | Not available. |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 | Not available. |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 | Not available. |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 | Not available. |
presto-connector-tpcds | 更改 Presto 的 tpcds.properties 文件中的值。 | Not available. |
trino-log | 更改 Trino 的 log.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-config | 更改 Trino 的 config.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-password-authenticator | 更改 Trino 的 password-authenticator.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-env | 更改 Trino 的 trino-env.sh 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-node | 更改 Trino 的 node.properties 文件中的值。 | Not available. |
trino-connector-blackhole | 更改 Trino 的 blackhole.properties 文件中的值。 | Not available. |
trino-connector-cassandra | 更改 Trino 的 cassandra.properties 文件中的值。 | Not available. |
trino-connector-delta | 更改 Trino 的 delta.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-hive | 更改 Trino 的 hive.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-exchange-manager | 更改 Trino 的 exchange-manager.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-iceberg | 更改 Trino 的 iceberg.properties 文件中的值。 | Restarts Trino-Server (for Trino) |
trino-connector-jmx | 更改 Trino 的 jmx.properties 文件中的值。 | Not available. |
trino-connector-kafka | 更改 Trino 的 kafka.properties 文件中的值。 | Not available. |
trino-connector-localfile | 更改 Trino 的 localfile.properties 文件中的值。 | Not available. |
trino-connector-memory | 更改 Trino 的 memory.properties 文件中的值。 | Not available. |
trino-connector-mongodb | 更改 Trino 的 mongodb.properties 文件中的值。 | Not available. |
trino-connector-mysql | 更改 Trino 的 mysql.properties 文件中的值。 | Not available. |
trino-connector-postgresql | 更改 Trino 的 postgresql.properties 文件中的值。 | Not available. |
trino-connector-raptor | 更改 Trino 的 raptor.properties 文件中的值。 | Not available. |
trino-connector-redis | 更改 Trino 的 redis.properties 文件中的值。 | Not available. |
trino-connector-redshift | 更改 Trino 的 redshift.properties 文件中的值。 | Not available. |
trino-connector-tpch | 更改 Trino 的 tpch.properties 文件中的值。 | Not available. |
trino-connector-tpcds | 更改 Trino 的 tpcds.properties 文件中的值。 | Not available. |
ranger-kms-dbks-site | 更改 Ranger KMS 的 dbks-site.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-site | 更改 Ranger K ranger-kms-site MS 的.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-env | 更改 Ranger KMS 环境中的值。 | Restarts Ranger KMS Server. |
ranger-kms-log4j | 更改 Ranger KMS 的 kms-log4j.properties 文件中的值。 | Not available. |
ranger-kms-db-ca | 更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。 | Not available. |
spark | 适用于 Apache Spark 的 Amazon EMR 辅助设置。 | This property modifies spark-defaults. See actions there. |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-env | 更改 Spark 环境中的值。 | Restarts Spark history server and Spark thrift server. |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 | Not available. |
spark-log4j2 | 更改 Spark 的 log4j2.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
sqoop-env | 更改 Sqoop 的环境中的值。 | Not available. |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 | Not available. |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 | Not available. |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 | Restart Oozie and HiveServer2. |
yarn-env | 更改 YARN 环境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | 更改 YARN 的 yarn-site.xml 文件中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | 更改 Zeppelin 环境中的值。 | Restarts Zeppelin. |
zeppelin-site | 更改 zeppelin-site.xml 中的配置设置。 | Restarts Zeppelin. |
zookeeper-config | 更改 ZooKeeper的 zoo.cfg 文件中的值。 | Restarts Zookeeper server. |
zookeeper-log4j | 更改 ZooKeeper的 log4j.properties 文件中的值。 | Restarts Zookeeper server. |
6.9.0 更改日志
Date | 事件 | 描述 |
---|---|---|
2023-08-30 | 更新发行说明 | 添加了对定时序列不匹配问题的修复 |
2023-08-21 | 更新发行说明 | 在 Hadoop 3.3.3 中添加了一个已知问题。 |
2023-07-26 | 更新 | 新的操作系统版本标签 2.0.20230612.0 和 2.0.20230628.0 。 |
2022-12-13 | 发布说明已更新 | 为使用 SageMaker AI 的运行时添加了功能和已知问题 |
2022-11-29 | 发布说明和文档已更新 | 添加了适用于 Apache Spark 的 Amazon Redshift 集成功能 |
2022-11-23 | 发布说明已更新 | Log4j 条目已删除 |
2022-11-18 | 部署完成 | Amazon EMR 6.9 已全面部署到所有支持的区域 |
2022-11-18 | 文档发布 | Amazon EMR 6.9 发布说明首次发布 |
2022-11-14 | 初始版本 | Amazon EMR 6.9 面向部分商业区域部署 |