Amazon EMR 发行版 7.0.0 - Amazon EMR
Amazon Web Services 文档中描述的 Amazon Web Services 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅 中国的 Amazon Web Services 服务入门 (PDF)

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Amazon EMR 发行版 7.0.0

7.0.0 应用程序版本

此发行版支持以下应用程序:AmazonCloudWatchAgentDeltaFlinkHBaseHCatalogHadoopHiveHudiHueIcebergJupyterEnterpriseGatewayJupyterHubLivyMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezTrinoZeppelinZooKeeper

下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。

有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:

应用程序版本信息
emr-7.1.0 emr-7.0.0
Amazon 适用于 Java 的 SDK 2.23.18、1.12.6562.20.160-amzn-0, 1.12.569
Python 3.93.9
Scala 2.12.172.12.17
AmazonCloudWatchAgent1.300032.21.300031.1
Delta3.0.03.0.0
Flink1.18.11.18.0
Ganglia - -
HBase2.4.172.4.17
HCatalog3.1.33.1.3
Hadoop3.3.63.3.6
Hive3.1.33.1.3
Hudi0.14.1-amzn-00.14.0-amzn-1
Hue4.11.04.11.0
Iceberg1.4.3-amzn-01.4.2-amzn-0
JupyterEnterpriseGateway2.6.02.6.0
JupyterHub1.5.01.5.0
Livy0.8.00.7.1
MXNet1.9.11.9.1
Mahout - -
Oozie5.2.15.2.1
Phoenix5.1.35.1.3
Pig0.17.00.17.0
Presto0.2840.283
Spark3.5.03.5.0
Sqoop1.4.71.4.7
TensorFlow2.11.02.11.0
Tez0.10.20.10.2
Trino (PrestoSQL)435426
Zeppelin0.10.10.10.1
ZooKeeper3.9.13.5.10

7.0.0 发布说明

以下发布说明包括有关 Amazon EMR 发行版 7.0.0 的信息。更改与 6.15.0 有关。

新功能
  • 应用程序升级 – Amazon EMR 7.0.0 application upgrades include Python 3.9, Spark 3.5, Flink 1.18, and Delta 3.0。此版本还增加了对 亚马逊 CloudWatch 代理 应用程序的支持,并取消了对 Ganglia 的支持。

  • Amazon Corretto 17 – 对于支持 Corretto 17(JDK 17)的应用程序,默认情况下,Amazon EMR 发行版 7.0 及更高版本随 Amazon Corretto 17(在 OpenJDK 上构建)一起发出,Apache Livy 除外。有关此版本中的应用程序支持的 JDK 版本的更多信息,请参阅 7.0.0 默认 Java 版本

  • Amazon Linux 2023 – 对于 7.0 版本,Amazon EMR 集群现在默认在 AL2023 上运行。有关这如何影响默认 AMI 版本的信息,请参阅《Amazon EMR 管理指南》中的软件更新注意事项。另请注意,AL2023 已移除了 Python 2.7,因此现在任何需要 Python 的组件都应该使用 Python 3 编写。

  • 带有 s3a 的 S3 on Outposts – Amazon EMR 现在使用 s3a 文件系统支持 Amazon S3 on Outposts 存储桶。有关 S3 on Outposts 的更多信息,请参阅《Amazon Simple Storage Service 用户指南》中的什么是 S3 on Outposts?

已知问题
  • 请注意,如果您使用的是 Python 版本 3.10 或更高版本 PySpark ,则一次只能运行一行。必须逐行运行每行。

更改、增强功能和解决的问题
  • 为了维护集群中所有实例的状态,Amazon EMR 与 Apache YARN、Apache HDFS 和 Kerberos 集成。在 7.0 中,我们增强了这些集成,以便可靠地移除因扩展或其他操作而终止的实例的状态。这对于启用了托管扩展功能的长使用寿命集群尤其重要,因为它们经常扩展,并在生命周期内累积成千上万个终止的实例。

  • 此版本改进了 Kerberos 配置,以仅支持基于 AES 的密码。Amazon EMR 7.0.0 及更高版本上运行的 EMR 集群不再支持使用非基于 AES 的密码的 Kerberos KDC。基于 AES 的密码为您的集群提供了最强的安全。

  • 作为 Amazon SDK 2.x 迁移的一部分,亚马逊 EMR 7.0 包括对 Spark Kinesis 连接器的更新以实现兼容性。此更新在 Apache Spark 社区版本中不可用。如果您使用低于 7.0 的 Amazon EMR 版本中的 Spark Kinesis 连接器,则必须先将应用程序代码迁移到在 SDK 2.x 上运行,然后才能将工作负载迁移到 Amazon EMR 7.0。有关更多信息,请参阅 将 Spark Kinesis 连接器迁移到适用于 Amazon EMR 7.0 的 SDK 2.x

  • 当您启动最新补丁版本为亚马逊 EMR 5.36 或更高版本、6.6 或更高版本、7.0 或更高版本的集群时,亚马逊 EMR 使用最新的亚马逊 Linux 2023 或亚马逊 Linux 2 版本作为默认亚马逊 EMR AMI。如需更多信息,请参阅 Using the default Amazon Linux AMI for Amazon EMR

    OsReleaseLabel (亚马逊 Linux 版本) Amazon Linux 内核版本 可用日期 支持的区域
    2023.3.20240304.0 6.1.79-99.164.amzn2023 2024 年 3 月 12 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(西班牙)、欧洲(法兰克福)、欧洲(苏黎世)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(东京)、亚太地区(首尔))、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、加拿大西部(卡尔加里)、 Amazon GovCloud (美国西部)、 Amazon GovCloud (美国东部)、中国(北京)、中国(宁夏)
    2023.3.20240219.0 6.1.77-99.164.amzn2023 2024 年 3 月 1 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(西班牙)、欧洲(法兰克福)、欧洲(苏黎世)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(东京)、亚太地区(首尔))、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、加拿大西部(卡尔加里)、 Amazon GovCloud (美国西部)、 Amazon GovCloud (美国东部)、中国(北京)、中国(宁夏)
    2023.3.20240205.0 6.1.75-99.163.amzn2023 2024年2月19日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(西班牙)、欧洲(法兰克福)、欧洲(苏黎世)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(东京)、亚太地区(首尔))、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、加拿大西部(卡尔加里)、 Amazon GovCloud (美国西部)、 Amazon GovCloud (美国东部)、中国(北京)、中国(宁夏)
    2023.3.20240122.0 6.1.72-96.166.amzn2023 2024年2月5日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(西班牙)、欧洲(法兰克福)、欧洲(苏黎世)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(东京)、亚太地区(首尔))、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、加拿大西部(卡尔加里)、 Amazon GovCloud (美国西部)、 Amazon GovCloud (美国东部)、中国(北京)、中国(宁夏)
    2023.3.20240108.0 6.1.72-96.166.amzn2023 2024 年 1 月 24 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(西班牙)、欧洲(法兰克福)、欧洲(苏黎世)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(东京)、亚太地区(首尔))、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、加拿大西部(卡尔加里)、 Amazon GovCloud (美国西部)、 Amazon GovCloud (美国东部)、中国(北京)、中国(宁夏)
    2023.3.20231211.4 6.1.66-91.160.amzn2023 2023 年 12 月 19 日 美国东部(弗吉尼亚北部)、美国东部(俄亥俄州)、美国西部(加利福尼亚北部)、美国西部(俄勒冈)、欧洲(斯德哥尔摩)、欧洲(米兰)、欧洲(西班牙)、欧洲(法兰克福)、欧洲(苏黎世)、欧洲(伦敦)、欧洲(巴黎)、亚太地区(香港)、亚太地区(孟买)、亚太地区(海得拉巴)、亚太地区(东京)、亚太地区(东京)、亚太地区(首尔))、亚太地区(大阪)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(雅加达)、亚太地区(墨尔本)、非洲(开普敦)、南美洲(圣保罗)、中东(巴林)、中东(阿联酋)、加拿大(中部)、以色列(特拉维夫)、 Amazon GovCloud (美国西部)、 Amazon GovCloud (美国东部)、中国(北京)、中国(宁夏)

7.0.0 默认 Java 版本

对于支持 Corretto 17(JDK 17)的应用程序,默认情况下,Amazon EMR 发行版 7.0 及更高版本随 Amazon Corretto 17(在 OpenJDK 上构建)一起发出,Apache Livy 除外。

下表显示 Amazon EMR 7.0.0 中的应用程序的默认 Java 版本。如果要更改集群上的默认 JVM,请按照在集群上运行的每个应用程序的 配置应用程序来使用特定 Java 虚拟机 中的说明进行操作。一个集群只能使用一个 Java 运行时系统版本。Amazon EMR 不支持在同一集群的不同运行时系统版本上运行不同的节点或应用程序。

应用程序 Java/Amazon Corretto 版本(默认为粗体)
Delta 17、11、8
Flink 11、8
Ganglia 8
HBase 11、8
HCatalog 17、11、8
Hadoop 17、11、8
Hive 17、11、8
Hudi 17、11、8
Iceberg 17、11、8
Livy 17、11、8
Oozie 17、11、8
Phoenix 8
PrestoDB 8
Spark 17、11、8
Spark RAPIDS 17、11、8
Sqoop 8
Tez 17、11、8
Trino 17
Zeppelin 8
Pig 8
Zookeeper 8

7.0.0 组件版本

下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的发行版标注。EmrVersion 从 0 开始。例如,假设已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2

组件 版本 描述
adot-java-agent1.31.0从应用程序进程守护程序收集指标的 Java 代理。
delta3.0.0Delta lake 是一种适用于超大型分析数据集的开放表格式。
delta-standalone-connectors0.6.0Delta Connectors 提供不同的运行时,将 Delta Lake 与 Flink、Hive 和 Presto 等引擎集成。
emr-amazon-cloudwatch-agent1.300031.1-amzn-0从 Amazon EC2 实例中收集内部系统级别指标和自定义应用程序指标的应用程序。
emr-ddb5.2.0适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies3.9.0适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis3.13.0适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-notebook-env1.7.0适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env
emr-s3-dist-cp2.30.0针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select2.9.0EMR S3 Select 连接器
emr-wal-cli1.2.1用于 emrwal 列表/删除的 cli。
emrfs2.61.0适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client1.18.0-amzn-0Apache Flink 命令行客户端脚本和应用程序。
flink-jobmanager-config1.18.0-amzn-0在 EMR 节点上管理 Apache Flink 的资源。 JobManager
hadoop-client3.3.6-amzn-2Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode3.3.6-amzn-2用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library3.3.6-amzn-2HDFS 命令行客户端和库
hadoop-hdfs-namenode3.3.6-amzn-2用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode3.3.6-amzn-2用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server3.3.6-amzn-2用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server3.3.6-amzn-2基于 Hadoop 的 API 的加密密钥管理服务器。 KeyProvider
hadoop-mapred3.3.6-amzn-2MapReduce 用于运行 MapReduce 应用程序的执行引擎库。
hadoop-yarn-nodemanager3.3.6-amzn-2用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager3.3.6-amzn-2用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server3.3.6-amzn-2用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster2.4.17-amzn-4适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server2.4.17-amzn-4用于服务于一个或多个 HBase 区域的服务。
hbase-client2.4.17-amzn-4HBase 命令行客户端。
hbase-rest-server2.4.17-amzn-4用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server2.4.17-amzn-4用于向 HBase 提供 Thrift 终端节点的服务。
hbase-operator-tools2.4.17-amzn-4Apache HBase 集群的修复工具。
hcatalog-client3.1.3-amzn-9用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server3.1.3-amzn-9用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server3.1.3-amzn-9用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client3.1.3-amzn-9Hive 命令行客户端。
hive-hbase3.1.3-amzn-9Hive-hbase 客户端。
hive-metastore-server3.1.3-amzn-9用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server23.1.3-amzn-9用于将 Hive 查询作为 Web 请求接受的服务。
hudi0.14.0-amzn-1增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto0.14.0-amzn-1用于运行 Presto 以及 Hudl 的捆绑库。
hudi-trino0.14.0-amzn-1用于运行 Trino 以及 Hudi 的捆绑库。
hudi-spark0.14.0-amzn-1用于运行 Spark 以及 Hudi 的捆绑库。
hue-server4.11.0用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
iceberg1.4.2-amzn-0Apache Iceberg 是一种适用于超大型分析数据集的开放表格式。
jupyterhub1.5.0Jupyter notebook 的多用户服务器
livy-server0.7.1-incubating用于与 Apache Spark 交互的 REST 接口
nginx1.12.1nginx [引擎 x] 是 HTTP 和反向代理服务器
mxnet1.9.1用于深度学习的灵活的、可扩展且高效的库。
mariadb-server5.5.68+MariaDB 数据库服务器。
nvidia-cuda11.8.0Nvidia 驱动程序和 Cuda 工具包
oozie-client5.2.1Oozie 命令行客户端。
oozie-server5.2.1用于接受 Oozie 工作流请求的服务。
opencv4.7.0开源计算机视觉库。
phoenix-library5.1.3服务器和客户端的 phoenix 库
phoenix-connectors5.1.3Apache Phoenix-Connectors for Spark-3
phoenix-query-server5.1.3向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator0.283-amzn-1用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker0.283-amzn-1用于执行查询的各个部分的服务。
presto-client0.283-amzn-1Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
trino-coordinator426-amzn-1用于在 trino-worker 之中接受查询并管理查询的服务。
trino-worker426-amzn-1用于执行查询的各个部分的服务。
trino-client426-amzn-1Trino 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Trino 服务器)上。
pig-client0.17.0Pig 命令行客户端。
r4.1.3用于统计计算的 R 项目
ranger-kms-server2.0.0Apache Ranger 密钥管理系统
spark-client3.5.0-amzn-0Spark 命令行客户端。
spark-history-server3.5.0-amzn-0用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn3.5.0-amzn-0适用于 YARN 的内存中执行引擎。
spark-yarn-slave3.5.0-amzn-0YARN 从属项所需的 Apache Spark 库。
spark-rapids23.10.0-amzn-0加速 Apache Spark 和 GPU 的 Nvidia Spark RAPIDS。
sqoop-client1.4.7Apache Sqoop 命令行客户端。
tensorflow2.11.0TensorFlow 用于高性能数值计算的开源软件库。
tez-on-yarn0.10.2-amzn-7tez YARN 应用程序和库。
tez-on-worker0.10.2-amzn-7用于 Worker 节点的 tez YARN 应用程序和库。
webserver2.4.58Apache HTTP 服务器。
zeppelin-server0.10.1支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server3.5.10用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client3.5.10ZooKeeper 命令行客户端。

7.0.0 配置分类

配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml)相对应。有关更多信息,请参阅 配置应用程序

emr-7.0.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-executor

更改 Hadoop YARN 的 container-executor.cfg 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

docker-conf

更改 docker 相关设置。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-session

为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-env

更改 HDFS 环境中的值。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 hCatalog 的 proto-hive-site .xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive

适用于 Apache Hive 的 Amazon EMR 辅助设置。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-java-home

更改 Hadoop 的 KMS java 主页

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

hudi-env

更改 Hudi 环境中的值。

hudi-defaults

更改 Hudi 的 hudi-defaults.conf 文件中的值。

iceberg-defaults

更改 Iceberg 的 iceberg-defaults.conf 文件中的值。

delta-defaults

更改 Delta 的 delta-defaults.conf 文件中的值。

jupyter-notebook-conf

更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 jupyterhub_config.py 文件 JupyterHubs中的值。

jupyter-s3-conf

配置 Jupyter notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j2

更改 Livy log4j2.properties 设置。

mapred-env

更改 MapReduce 应用程序环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-lakeformation

更改 Presto 的 lakeformation.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

trino-log

更改 Trino 的 log.properties 文件中的值。

trino-config

更改 Trino 的 config.properties 文件中的值。

trino-password-authenticator

更改 Trino 的 password-authenticator.properties 文件中的值。

trino-env

更改 Trino 的 trino-env.sh 文件中的值。

trino-node

更改 Trino 的 node.properties 文件中的值。

trino-connector-blackhole

更改 Trino 的 blackhole.properties 文件中的值。

trino-connector-cassandra

更改 Trino 的 cassandra.properties 文件中的值。

trino-connector-delta

更改 Trino 的 delta.properties 文件中的值。

trino-connector-hive

更改 Trino 的 hive.properties 文件中的值。

trino-exchange-manager

更改 Trino 的 exchange-manager.properties 文件中的值。

trino-connector-iceberg

更改 Trino 的 iceberg.properties 文件中的值。

trino-connector-hudi

更改 Trino 的 hudi.properties 文件中的值。

trino-connector-jmx

更改 Trino 的 jmx.properties 文件中的值。

trino-connector-kafka

更改 Trino 的 kafka.properties 文件中的值。

trino-connector-localfile

更改 Trino 的 localfile.properties 文件中的值。

trino-connector-memory

更改 Trino 的 memory.properties 文件中的值。

trino-connector-mongodb

更改 Trino 的 mongodb.properties 文件中的值。

trino-connector-mysql

更改 Trino 的 mysql.properties 文件中的值。

trino-connector-postgresql

更改 Trino 的 postgresql.properties 文件中的值。

trino-connector-raptor

更改 Trino 的 raptor.properties 文件中的值。

trino-connector-redis

更改 Trino 的 redis.properties 文件中的值。

trino-connector-redshift

更改 Trino 的 redshift.properties 文件中的值。

trino-connector-tpch

更改 Trino 的 tpch.properties 文件中的值。

trino-connector-tpcds

更改 Trino 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger K ranger-kms-site MS 的.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-logback

更改 Ranger KMS 的 kms-logback.xml 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j2

更改 Spark 的 log4j2.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zeppelin-site

更改 zeppelin-site.xml 中的配置设置。

zookeeper-config

更改 zoo.cfg 文件 ZooKeeper中的值。

zookeeper-log4j

更改 ZooKeeper的 log4j.properties 文件中的值。

7.0.0 更改日志

7.0.0 发行版的更改日志和发布说明
Date 事件 描述

2023-12-29

部署完成 Amazon EMR 7.0.0 已全面部署到所有支持的区域
2023-12-28 文档发布 首次发布 Amazon EMR 7.0.0 发布说明
2023-12-19 初始版本 Amazon EMR 7.0.0 首次部署到初始商业区域