Amazon EMR 5.x 发布版本 - Amazon EMR
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 AWS 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Amazon EMR 5.x 发布版本

下方的每个选项卡列出了每个 Amazon EMR 5.x 发布版本中可用的应用程序版本、发布说明、组件版本和配置分类。

有关每个发布版本中的应用程序版本的综合图,请参阅 Amazon EMR 5.x 版本中的应用程序版本 (PNG)

当您启动集群时,有多个 Amazon EMR 发布版可供选择。这允许您测试和使用满足您的兼容性要求的应用程序版本。可使用版本标签指定版本。版本标签的格式是 emr-x.x.x. For example, emr-5.31.0.

New Amazon EMR release versions are made available in different regions over a period of several days, beginning with the first region on the initial release date. The latest release version may not be available in your region during this period.

5.31.0

版本5.31.0应用程序版本

此版本支持以下应用程序: 闪闪, 港利亚, Hadoop(Hadoop), HBase, HCatalog, 荨麻疹, 色调, JupyterHub, 利维, 麻布, MXNet, 奥齐, 凤凰城, , 普雷斯托, 闪光, 青草色, TensorFlow, 泰兹, 齐柏林,和 ZooKeeper.

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

版本5.31.0版本说明

以下发布说明包含有关 Amazon EMR 发布版本 5.31.0 的信息。更改是相对于 5.30.1 而言的。

首次发布日期:2020 年 10 月 9 日

上次更新日期:2020 年 10 月 15 日

升级

  • 已将 Amazon Glue 连接器升级到版本 1.13.0

  • 已将 Amazon SageMaker Spark 开发工具包升级到版本 1.4.0

  • 已将 Amazon Kinesis 连接器升级到版本 3.5.9

  • 已将 AWS Java 开发工具包升级到版本 1.11.852

  • 已将 Bigtop-tomcat 升级到版本 8.5.56

  • 已将 EMR FS 升级到版本 2.43.0

  • 已将 EMR MetricsAndEventsApiGateway Client 升级到版本 1.4.0

  • 已将 EMR S3 Dist CP 升级到版本 2.15.0

  • 已将 EMR S3 Select 升级到版本 1.6.0

  • 已将 Flink 升级到版本 1.11.0

  • 已将 Hadoop 升级到版本 2.10.0

  • 已将 Hive 升级到版本 2.3.7

  • 已将 Hudi 升级到版本 0.6.0

  • 已将 Hue 升级到版本 4.7.1

  • 已将 JupyterHub 升级到版本 1.1.0

  • 已将 MXNet 升级到版本 1.6.0

  • 已将 OpenCV 升级到版本 4.3.0

  • 已将 Presto 升级到版本 0.238.3

  • 已将 TensorFlow 升级到版本 2.1.0

更改、增强和解决的问题

  • 升级了组件版本。

  • 5.31.0 中对 EMRFS S3EC V2 的支持。在 S3 Java 开发工具包 1.11.837 及更高版本中,引入了加密客户端版本 2 (S3EC V2) 以及各种安全增强功能。有关更多信息,请参阅下列内容:

    为了实现向后兼容,加密客户端 V1 仍在开发工具包中可用。

新功能

  • 利用 Amazon EMR 5.31.0,您可以启动与 Lake Formation 集成的集群。这种集成可提供对 AWS Glue Data Catalog 中数据库和表的细粒度列级数据筛选。此外,它可实现从企业身份系统对 EMR 笔记本或 Apache Zeppelin 的联合身份单点登录。有关更多信息,请参阅 Amazon EMR 管理指南中的将 Amazon EMR 与 AWS Lake Formation 集成

    带有 Lake Formation 的 Amazon EMR 目前在 16 个 AWS 区域提供:美国东部(俄亥俄州和弗吉尼亚州)、美国西部(加利福尼亚州和俄勒冈州)、亚太地区(孟买、首尔、新加坡、悉尼和东京)、加拿大(中部)、欧洲(法兰克福、爱尔兰、伦敦、巴黎和斯德哥尔摩)、南美洲(圣保罗)。

已知问题

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

版本5.31.0组件版本

下面列出了Amazon EMR 随此发布版本一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其他组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发布版本中的大数据应用程序包通常是在社区中找到的最新版本。我们尽快在 Amazon EMR 中提供社区发布版本。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的版本标签。EmrVersion 从 0 开始。例如,如果已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改以包含在不同的 Amazon EMR 发布版本中,则其发布版本将列出为 2.2-amzn-2

组件 版本 Description
aws-sagemaker-spark-sdk 1.4.0 亚马逊 SageMaker SparkSDK(SparkSDK)
emr-ddb 4.15.0年 亚马逊 DynamoDB Hadoop生态系统应用程序的连接器。
emr-goodies 2.13.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.5.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp 2.15.0 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.6.0 另国运 S3Select 连接器
emrfs 2.43.0和 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.11.0 Apache Flink 命令行客户端脚本和应用程序。
flink-jobmanager-配置 1.11.0 管理ApacheFlink的EMR节点上的资源 JobManager.
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.10.0-amzn-0(安森-0) Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.10.0-amzn-0(安森-0) 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.10.0-amzn-0(安森-0) HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.10.0-amzn-0(安森-0) 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.10.0-amzn-0(安森-0) 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.10.0-amzn-0(安森-0) 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.10.0-amzn-0(安森-0) 基于Hadoop的加密密钥管理服务器 KeyProvider API。
hadoop-mapred 2.10.0-amzn-0(安森-0) MapReduce 用于运行的执行引擎库 MapReduce 应用程序。
hadoop-yarn-nodemanager 2.10.0-amzn-0(安森-0) 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.10.0-amzn-0(安森-0) 用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.10.0-amzn-0(安森-0) 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.13 服务,用于 HBase 群集,负责区域协调和管理命令的执行。
hbase-region-server 1.4.13 提供一个或多个服务的服务 HBase 区域。
hbase-client 1.4.13 HBase 命令行客户端。
hbase-rest-server 1.4.13 提供 RESTful 的HTTP端点 HBase.
hbase-thrift-server 1.4.13 提供Thrift端点的服务 HBase.
hcatalog-client 2.3.7-amzn-1(安森-1) 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.7-amzn-1(安森-1) 提供服务 HCatalog,分布式应用程序的表和存储管理层。
hcatalog-webhcat-server 2.3.7-amzn-1(安森-1) 提供REST接口的HTTP端点 HCatalog.
hive-client 2.3.7-amzn-1(安森-1) Hive 命令行客户端。
hive-hbase 2.3.7-amzn-1(安森-1) Hive-hbase 客户端。
hive-metastore-server 2.3.7-amzn-1(安森-1) 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.7-amzn-1(安森-1) 用于将 Hive 查询作为 Web 请求接受的服务。
hudi 0.6.0-amzn-0的 增量处理框架,以支持低延迟和高效率的数据管道。
胡迪公园 0.6.0-amzn-0的 捆绑库,用于通过Hudi运行Spark。
hudi-presto 0.6.0-amzn-0的 用于运行 Presto 以及 Hudl 的捆绑库。
hue-server 4.7.1/4.7.1 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 1.1.0 Jupyter 笔记本的多用户服务器
livy-server 0.7.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet 1.6.0 用于深度学习的灵活的、可扩展且高效的库。
mariadb-server 5.5.64 MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.2.0 Oozie 命令行客户端。
oozie-server 5.2.0 用于接受 Oozie 工作流请求的服务。
opencv 4.3.0 开源计算机视觉库。
phoenix-library 4.14.3-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.3-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.238.3-amzn-0(0.238.3-amzn-0) 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.238.3-amzn-0(0.238.3-amzn-0) 用于执行查询的各个部分的服务。
presto-client 0.238.3-amzn-0(0.238.3-amzn-0) Presto 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Presto 服务器)上。
pig-client 0.17.0 Pig 命令行客户端。
r 3.4.3 用于统计计算的 R 项目
ranger-kms-server 1.2.0 Apache Ranger 密钥管理系统
spark-client 2.4.6-amzn-0(安森-0) Spark 命令行客户端。
spark-history-server 2.4.6-amzn-0(安森-0) 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.6-amzn-0(安森-0) 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.6-amzn-0(安森-0) YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 2.1.0 TensorFlow 用于高性能数字计算的开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.2 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

版本5.31.0配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.31.0分类
分类 Description

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

Apache的AmazonEMR固化设置 HBase.

hbase-env

在中更改值 HBase的环境。

hbase-log4j

在中更改值 HBase的hbase-log4j.properties文件。

hbase-metrics

在中更改值 HBase的hapoop-metrics2-hbase.properties文件。

hbase-policy

在中更改值 HBase的hbase-policy.xml文件。

hbase-site

在中更改值 HBase的hbase-site.xml文件。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

在中更改值 HCatalog的环境。

hcatalog-server-jndi

在中更改值 HCatalog的jndi.properties。

hcatalog-server-proto-hive-site

在中更改值 HCatalog的proto-hive-site.xml。

hcatalog-webhcat-env

在中更改值 HCatalog WebHCat的环境。

hcatalog-webhcat-log4j2

在中更改值 HCatalog WebHCat的log4j2.properties。

hcatalog-webhcat-site

在中更改值 HCatalog WebHCat的webhcat-site.xml文件。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

hudi-env

更改 HDFS 环境中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

在中更改值 JupyterHubs的jupyterhub_config.py文件。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改中的值 MapReduce 应用程序的环境。

mapred-site

更改中的值 MapReduce 应用程序的mapred-site.xml文件。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改S3上的CA文件的值 MySQL 与RangerKMS的SSL连接。

recordserver-env

更改EMR中的值 RecordServer 环境。

recordserver-conf

更改EMR中的值 RecordServer的erver.properties文件。

recordserver-log4j

更改EMR中的值 RecordServer的log4j.properties文件。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

在Sqoop中更改值 OraOop的oraoop-site.xml文件。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

在中更改值 ZooKeeper的zoo.cfg文件。

zookeeper-log4j

在中更改值 ZooKeeper的log4j.properties文件。

5.30.x

5.30系列中有多个版本。选择下方的链接以在此选项卡内查看特定发布版本的信息。

5.30.1 (最新)| 5.30.0

Amazon EMR 版本5.30.1

版本5.30.1应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

版本5.30.1版本说明

以下发布说明包括有关 Amazon EMR 发布版本 5.30.1 的信息。更改是相对于 5.30.0 而言的。

首次发布日期:2020 年 6 月 30 日

上次更新日期:2020 年 8 月 24 日

更改、增强和解决的问题

  • 修复了实例控制器进程产生不限数量的进程的问题。

  • 修复了 Hue 无法运行 Hive 查询,同时显示“数据库已锁定”消息并阻止查询执行的问题。

  • 修复了 Spark 问题,以便在 EMR 集群上同时运行更多任务。

  • 修复了一个 Jupyter 笔记本问题,该问题导致 Jupyter 服务器中“打开的文件过多”。

  • 修复了集群启动时间的问题。

新功能

  • Tez UI 和 YARN 时间线服务器持久性应用程序接口可用于 Amazon EMR 6.x 版本和 EMR 版本 5.30.1 及更高版本。通过一键式链接访问永久应用程序历史记录,您可以快速访问作业历史记录,而无需通过 SSH 连接设置 Web 代理。活动的集群和终止的集群的日志在应用程序结束后 30 天内提供。有关更多信息,请参阅 Amazon EMR 管理指南 中的查看持久性应用程序用户界面

  • 可使用 EMR 笔记本执行 API 通过脚本或命令行执行 EMR 笔记本。无需通过 AWS 控制台即可启动、停止、列出和描述 EMR 笔记本执行,可让您通过编程方式控制 EMR 笔记本。使用参数化的笔记本单元格,可以将不同的参数值传递给笔记本,而无需为每组新的参数值创建笔记本的副本。请参阅 EMR API 操作。 有关示例代码,请参阅以编程方式执行 EMR 笔记本的示例命令

已知问题

  • EMR 笔记本

    默认情况下,在 EMR 版本 5.30.1 上禁用允许您在集群主节点上安装内核和其他 Python 库的功能。有关此功能的更多信息,请参阅在集群主节点上安装内核和 Python 库

    要启用此功能,请执行以下操作:

    1. 确保附加到 EMR Notebooks 的服务角色的权限策略允许以下操作:

      elasticmapreduce:ListSteps

      有关更多信息,请参阅 EMR 笔记本的服务角色

    2. 使用 AWS CLI 在集群上运行一个步骤来设置 EMR 笔记本,如以下示例中所示。有关更多信息,请参阅使用 AWS CLI 向集群添加步骤

      aws emr add-steps --cluster-id MyClusterID --steps 'Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]'
  • 托管扩展

    在未安装 Presto 的 5.30.0 和 5.30.1 集群上执行托管扩展操作可能会导致应用程序故障或导致统一的实例组或实例队列保持 ARRESTED 状态,特别是在执行扩展操作后快速执行缩减操作的情况下。

    作为一种解决方法,选择 Presto 作为要在创建集群时安装的应用程序,即使您的作业不需要 Presto 也是如此。

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

版本5.30.1组件版本

下面列出了Amazon EMR 随此发布版本一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其他组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发布版本中的大数据应用程序包通常是在社区中找到的最新版本。我们尽快在 Amazon EMR 中提供社区发布版本。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的版本标签。EmrVersion 从 0 开始。例如,如果已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改以包含在不同的 Amazon EMR 发布版本中,则其发布版本将列出为 2.2-amzn-2

组件 版本 Description
aws-sagemaker-spark-sdk 1.3.0 Amazon SageMaker Spark 开发工具包
emr-ddb 4.14.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.13.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.5.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp emrfs 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.5.0 EMR S3 Select 连接器
emrfs 2.40.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.10.0 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-6 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-6 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-6 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-6 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-6 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-6 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-6 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-6 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-6 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-6 用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-6 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.13 适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server 1.4.13 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.13 HBase 命令行客户端。
hbase-rest-server 1.4.13 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.13 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.6-amzn-2 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.6-amzn-2 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.6-amzn-2 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.6-amzn-2 Hive 命令行客户端。
hive-hbase 2.3.6-amzn-2 Hive-hbase 客户端。
hive-metastore-server 2.3.6-amzn-2 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.6-amzn-2 用于将 Hive 查询作为 Web 请求接受的服务。
hudi 0.5.2-incubating 增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto 0.5.2-incubating 用于运行 Presto 以及 Hudl 的捆绑库。
hue-server 4.6.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 1.1.0 Jupyter 笔记本的多用户服务器
livy-server 0.7.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet。 1.5.1 用于深度学习的灵活的、可扩展且高效的库。
mariadb-server 5.5.64 MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.2.0 Oozie 命令行客户端。
oozie-server 5.2.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.3-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.3-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.232 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.232 用于执行查询的各个部分的服务。
presto-client 0.232 Presto 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Presto 服务器)上。
pig-client 0.17.0 Pig 命令行客户端。
-r 3.4.3 用于统计计算的 R 项目
ranger-kms-server 1.2.0 Apache Ranger 密钥管理系统
spark-client 2.4.5-amzn-0 Spark 命令行客户端。
spark-history-server 2.4.5-amzn-0 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.5-amzn-0 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.5-amzn-0 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.14.0 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.2 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

版本5.30.1配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.30.1 分类
分类 Description

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

hudi-env

更改 HDFS 环境中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

Amazon EMR 版本5.30.0

版本5.30.0应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

版本5.30.0版本说明

以下发布说明包括有关 Amazon EMR 发布版本 5.30.0 的信息。更改是相对于 5.29.0 而言的。

首次发布日期:2020 年 5 月 13 日

上次更新日期:2020 年 6 月 25 日

升级

  • 已将 AWS SDK for Java 升级到版本 1.11.759

  • 已将 Amazon SageMaker Spark SDK 升级到版本 1.3.0

  • 已将 EMR 记录服务器升级到版本 1.6.0

  • 已将 Flink 升级到版本 1.10.0

  • 已将 Ganglia 升级到版本 3.7.2

  • 已将 HBase 升级到版本 1.4.13

  • 已将 Hudi 升级到 0.5.2-incubating

  • 已将 Hue 升级到版本 4.6.0

  • 已将 JupyterHub 升级到版本 1.1.0

  • 已将升级 Livy 到版本 0.7.0-incubating

  • 已将 Oozie 升级到版本 5.2.0

  • 已将 Presto 升级到版本 0.232

  • 已将 Spark 升级到版本 2.4.5

  • 升级的连接器和驱动程序:Amazon Glue Connector 1.12.0;Amazon Kinesis Connector 3.5.0;EMR DynamoDB Connector 4.14.0

新功能

  • EMR Notebooks – 当与使用 5.30.0 创建的 EMR 集群结合使用时,EMR 笔记本 内核在集群上运行。这可以提高笔记本的性能,并允许您安装和自定义内核。您还可以在集群主节点上安装 Python 库。有关详细信息,请参阅《EMR 管理指南》中的安装并使用内核和库

  • 托管扩展 – 使用 Amazon EMR 版本 5.30.0 及更高版本时,您可以启用 EMR 托管扩展,以根据工作负载自动增加或减少集群中实例或单元的数量。EMR 会持续评估集群指标,以便做出扩展决策,从而优化集群的成本和速度。有关更多信息,请参阅 Amazon EMR 管理指南 中的扩展集群资源

  • 加密 Amazon S3 中存储的日志文件 – 使用 Amazon EMR 版本 5.30.0 及更高版本时,您可以使用 AWS KMS 客户管理的密钥对 Amazon S3 中存储的日志文件进行加密。有关详细信息,请参阅Amazon EMR 管理指南 中的加密 Amazon S3 中存储的日志文件

  • 亚马逊 Linux 2 支持 – 在 EMR 版本 5.30.0 及更高版本中,EMR 使用 Amazon Linux 2 操作系统。新的自定义 AMI(Amazon 系统映像)必须基于 Amazon Linux 2 AMI。有关更多信息,请参阅使用自定义 AMI

  • Presto 正常自动扩展 – 使用 5.30.0 的 EMR 集群可以设置自动扩展超时时段,以便 Presto 任务在其节点停用之前有时间完成运行。有关更多信息,请参阅使用 Presto Auto Scaling with Graceful Decommission

  • 使用新的分配策略选项创建队列实例 – 在 EMR 版本 5.12.1 及更高版本中提供了新的分配策略选项。它提供了更快的集群预置、更准确的 Spot 分配和更少的 Spot 实例中断。需要更新非默认 EMR 服务角色。请参阅配置实例队列

  • sudo systemctl stop 和 sudo systemctl start 命令 – 在使用 Amazon Linux 2 操作系统的 EMR 版本 5.30.0 及更高版本中,EMR 使用 sudo systemctl stopsudo systemctl start 命令来重新启动服务。有关更多信息,请参阅如何在 Amazon EMR 中重启服务?

更改、增强和解决的问题

  • 默认情况下,EMR 版本 5.30.0 不安装 Ganglia。您可以在创建集群时明确选择 Ganglia 进行安装。

  • Spark 性能优化。

  • Presto 性能优化。

  • Python 3 是对于 Amazon EMR 版本 5.30.0 及更高版本的默认设置。

  • 用于私有子网中服务访问的默认托管安全组已使用新规则进行更新。如果使用自定义安全组进行服务访问,则必须包含与默认托管安全组相同的规则。有关详细信息,请参阅适用于服务访问(私有子网)的 Amazon EMR 托管安全组。如果您对 Amazon EMR 使用自定义服务角色,则必须向 ec2:describeSecurityGroups 授予权限,以便 EMR 可以验证安全组是否已正确创建。如果您使用 EMR_DefaultRole,则此权限已包含在默认托管策略中。

已知问题

  • 托管扩展

    在未安装 Presto 的 5.30.0 和 5.30.1 集群上执行托管扩展操作可能会导致应用程序故障或导致统一的实例组或实例队列保持 ARRESTED 状态,特别是在执行扩展操作后快速执行缩减操作的情况下。

    作为一种解决方法,选择 Presto 作为要在创建集群时安装的应用程序,即使您的作业不需要 Presto 也是如此。

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

版本5.30.0组件版本

组件 版本 Description
aws-sagemaker-spark-sdk 1.3.0 Amazon SageMaker Spark 开发工具包
emr-ddb 4.14.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.13.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.5.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-notebook-env 1.0.0 适用于emr notebook 的 Conda env
emr-s3-dist-cp emrfs 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.5.0 EMR S3 Select 连接器
emrfs 2.40.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.10.0 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-6 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-6 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-6 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-6 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-6 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-6 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-6 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-6 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-6 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-6 用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-6 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.13 适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server 1.4.13 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.13 HBase 命令行客户端。
hbase-rest-server 1.4.13 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.13 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.6-amzn-2 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.6-amzn-2 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.6-amzn-2 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.6-amzn-2 Hive 命令行客户端。
hive-hbase 2.3.6-amzn-2 Hive-hbase 客户端。
hive-metastore-server 2.3.6-amzn-2 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.6-amzn-2 用于将 Hive 查询作为 Web 请求接受的服务。
hudi 0.5.2-incubating 增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto 0.5.2-incubating 用于运行 Presto 以及 Hudl 的捆绑库。
hue-server 4.6.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 1.1.0 Jupyter 笔记本的多用户服务器
livy-server 0.7.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet。 1.5.1 用于深度学习的灵活的、可扩展且高效的库。
mariadb-server 5.5.64 MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.2.0 Oozie 命令行客户端。
oozie-server 5.2.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.3-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.3-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.232 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.232 用于执行查询的各个部分的服务。
presto-client 0.232 Presto 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Presto 服务器)上。
pig-client 0.17.0 Pig 命令行客户端。
-r 3.4.3 用于统计计算的 R 项目
ranger-kms-server 1.2.0 Apache Ranger 密钥管理系统
spark-client 2.4.5-amzn-0 Spark 命令行客户端。
spark-history-server 2.4.5-amzn-0 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.5-amzn-0 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.5-amzn-0 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.14.0 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.2 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

版本5.30.0配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.30.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

hudi-env

更改 HDFS 环境中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

5.29.0

5.29.0应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

5.29.0发行说明

以下发布说明包括有关 Amazon EMR 发布版本 5.29.0 的信息。所述更改是相对于 5.28.1 而言的。

首次发布日期:2020 年 1 月 17 日

升级

  • 已将 AWS Java 开发工具包升级到版本 1.11.682

  • 已将 Hive 升级到版本 2.3.6

  • 已将 Flink 升级到版本 1.9.1

  • 已将 EmrFS 升级到版本 2.38.0

  • 已将 EMR DynamoDB Connector 升级到版本 4.13.0

更改、增强和解决的问题

  • Spark

    • Spark 性能优化。

  • EMRFS

    • 管理指南更新为 emrfs-site.xml 默认设置,以实现一致视图。

已知问题

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

5.29.0组件版本

下面列出了Amazon EMR 随此发布版本一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其他组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发布版本中的大数据应用程序包通常是在社区中找到的最新版本。我们尽快在 Amazon EMR 中提供社区发布版本。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的版本标签。EmrVersion 从 0 开始。例如,如果已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改以包含在不同的 Amazon EMR 发布版本中,则其发布版本将列出为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk 1.2.6 Amazon SageMaker Spark 开发工具包
emr-ddb 4.13.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.12.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.4.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp 2.13.0 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.4.0 EMR S3 Select 连接器
emrfs 2.38.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.9.1 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-5 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-5 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-5 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-5 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-5 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-5 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-5 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-5 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-5 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-5 用于分配和管理群集资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-5 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.10 适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server 1.4.10 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.10 HBase 命令行客户端。
hbase-rest-server 1.4.10 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.10 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.6-amzn-1 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.6-amzn-1 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.6-amzn-1 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.6-amzn-1 Hive 命令行客户端。
hive-hbase 2.3.6-amzn-1 Hive-hbase 客户端。
hive-metastore-server 2.3.6-amzn-1 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.6-amzn-1 用于将 Hive 查询作为 Web 请求接受的服务。
hudi 0.5.0-incubating 增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto 0.5.0-incubating 用于运行 Presto 以及 Hudl 的捆绑库。
hue-server 4.4.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 1.0.0 Jupyter 笔记本的多用户服务器
livy-server 0.6.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet 1.5.1 用于深度学习的灵活的、可扩展且高效的库。
mysql-server 5.5.54+ MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.1.0 Oozie 命令行客户端。
oozie-server 5.1.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.3-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.3-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.227 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.227 用于执行查询的各个部分的服务。
presto-client 0.227 Presto 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Presto 服务器)上。
pig-client 0.17.0 Pig 命令行客户端。
r 3.4.1 用于统计计算的 R 项目
spark-client 2.4.4 Spark 命令行客户端。
spark-history-server 2.4.4 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.4 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.4 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.14.0 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.2 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

5.29.0配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.29.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

5.28.x

5.28 系列中有多个版本。选择下方的链接以在此选项卡内查看特定发布版本的信息。

5.28.1 (最新)| 5.28.0

Amazon EMR 版本 5.28.1

版本5.28.1应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

版本5.28.1版本说明

以下发布说明包括有关 Amazon EMR 发布版本 5.28.1 的信息。所述更改是相对于 5.28.0 而言的。

首次发布日期:2020 年 1 月 10 日

更改、增强和解决的问题

  • Spark

    • 修复了 Spark 兼容性问题。

  • CloudWatch 指标

    • 修复了在具有多个主节点的 EMR 集群上发布的 Amazon CloudWatch Metrics。

  • 已禁用日志消息

    • 已禁用错误的日志消息“...using old version (<4.5.8) of Apache http client. (...使用旧版本(<4.5.8)的 Apache http 客户端。)”

已知问题

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

版本5.28.1组件版本

下面列出了Amazon EMR 随此发布版本一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其他组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发布版本中的大数据应用程序包通常是在社区中找到的最新版本。我们尽快在 Amazon EMR 中提供社区发布版本。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的版本标签。EmrVersion 从 0 开始。例如,如果已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改以包含在不同的 Amazon EMR 发布版本中,则其发布版本将列出为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk 1.2.6 Amazon SageMaker Spark 开发工具包
emr-ddb 4.12.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.11.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.4.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp 2.13.0 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.3.0 EMR S3 Select 连接器
emrfs 2.37.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.9.0 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-5 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-5 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-5 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-5 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-5 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-5 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-5 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-5 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-5 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-5 用于分配和管理群集资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-5 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.10 适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server 1.4.10 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.10 HBase 命令行客户端。
hbase-rest-server 1.4.10 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.10 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.6-amzn-0 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.6-amzn-0 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.6-amzn-0 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.6-amzn-0 Hive 命令行客户端。
hive-hbase 2.3.6-amzn-0 Hive-hbase 客户端。
hive-metastore-server 2.3.6-amzn-0 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.6-amzn-0 用于将 Hive 查询作为 Web 请求接受的服务。
hudi 0.5.0-incubating 增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto 0.5.0-incubating 用于运行 Presto 以及 Hudl 的捆绑库。
hue-server 4.4.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 1.0.0 Jupyter 笔记本的多用户服务器
livy-server 0.6.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet 1.5.1 用于深度学习的灵活的、可扩展且高效的库。
mysql-server 5.5.54+ MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.1.0 Oozie 命令行客户端。
oozie-server 5.1.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.3-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.3-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.227 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.227 用于执行查询的各个部分的服务。
presto-client 0.227 Presto 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Presto 服务器)上。
pig-client 0.17.0 Pig 命令行客户端。
r 3.4.1 用于统计计算的 R 项目
spark-client 2.4.4 Spark 命令行客户端。
spark-history-server 2.4.4 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.4 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.4 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.14.0 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.2 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

版本5.28.1配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.28.1 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

Amazon EMR 版本 5.28.0

版本5.28.0应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

版本5.28.0版本说明

以下发布说明包括有关 Amazon EMR 发布版本 5.28.0 的信息。所述更改是相对于 5.27.0 而言的。

首次发布日期:2019 年 11 月 12 日

升级

  • 已将 Flink 升级到版本 1.9.0

  • 已将 Hive 升级到版本 2.3.6

  • 已将 MXNet 升级到版本 1.5.1

  • 已将 Phoenix 升级到版本 4.14.3

  • 已将 Presto 升级到版本 0.227

  • 已将 Zeppelin 升级到版本 0.8.2

新功能

  • 创建集群时,Amazon EMR 现在可以使用 Apache Hudi 进行安装。有关更多信息,请参阅 Hudi(孵化版)

  • (2019 年 11 月 25 日)您现在可以选择并行运行多个步骤以提高集群利用率并节省成本。您还可以取消待处理和正在运行的步骤。有关更多信息,请参阅使用 AWS CLI 和控制台执行步骤

  • (2019 年 12 月 3 日)您现在可以在 AWS Outposts 上创建和运行 EMR 集群。AWS Outposts 可在本地设施中启用本地 AWS 服务、基础设施和运营模型。在 AWS Outposts 环境中,您可以使用与 AWS 云中相同的 AWS API、工具和基础设施。有关更多信息,请参阅 AWS Outposts 上的 EMR 集群

  • (2020 年 3 月 11 日)从 Amazon EMR 版本 5.28.0 开始,您可以在 AWS 本地扩展区 子网上创建和运行 Amazon EMR 集群,作为支持本地区域的 AWS 区域的逻辑扩展。本地区域使得 Amazon EMR 功能和 AWS 服务的子集(如计算和存储服务)在位置上与用户更近,对本地运行的应用程序提供非常低的延迟访问。有关可用 本地区域 的列表,请参阅 AWS 本地扩展区。有关访问可用 AWS 本地扩展区 的信息,请参阅区域、可用区和本地区域

    本地区域目前不支持 Amazon EMR 笔记本,也不支持使用接口 VPC 终端节点 (AWS PrivateLink) 直接连接到 Amazon EMR。

更改、增强和解决的问题

已知问题

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

版本5.28.0组件版本

组件 版本 描述
aws-sagemaker-spark-sdk 1.2.6 Amazon SageMaker Spark 开发工具包
emr-ddb 4.12.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.11.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.4.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp 2.13.0 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.3.0 EMR S3 Select 连接器
emrfs 2.37.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.9.0 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-5 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-5 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-5 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-5 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-5 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-5 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-5 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-5 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-5 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-5 用于分配和管理群集资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-5 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.10 适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server 1.4.10 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.10 HBase 命令行客户端。
hbase-rest-server 1.4.10 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.10 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.6-amzn-0 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.6-amzn-0 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.6-amzn-0 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.6-amzn-0 Hive 命令行客户端。
hive-hbase 2.3.6-amzn-0 Hive-hbase 客户端。
hive-metastore-server 2.3.6-amzn-0 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.6-amzn-0 用于将 Hive 查询作为 Web 请求接受的服务。
hudi 0.5.0-incubating 增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto 0.5.0-incubating 用于运行 Presto 以及 Hudl 的捆绑库。
hue-server 4.4.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 1.0.0 Jupyter 笔记本的多用户服务器
livy-server 0.6.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet 1.5.1 用于深度学习的灵活的、可扩展且高效的库。
mysql-server 5.5.54+ MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.1.0 Oozie 命令行客户端。
oozie-server 5.1.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.3-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.3-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.227 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.227 用于执行查询的各个部分的服务。
presto-client 0.227 Presto 命令行客户端,安装在 HA 集群的备用主服务器(未启动 Presto 服务器)上。
pig-client 0.17.0 Pig 命令行客户端。
r 3.4.1 用于统计计算的 R 项目
spark-client 2.4.4 Spark 命令行客户端。
spark-history-server 2.4.4 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.4 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.4 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.14.0 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.2 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

版本5.28.0配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.28.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

5.27.0

5.27.0应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

5.27.0发行说明

以下发布说明包括有关 Amazon EMR 发布版本 5.27.0 的信息。更改是相对于 5.26.0 而言的。

首次发布日期:2019 年 9 月 23 日

升级

  • AWS SDK for Java 1.11.615

  • Flink 1.8.1

  • JupyterHub 1.0.0

  • Spark 2.4.4

  • Tensorflow 1.14.0

  • 连接器和驱动程序:

    • DynamoDB Connector 4.12.0

新功能

  • (2019 年 10 月 24 日)所有 Amazon EMR 版本都提供 EMR 笔记本中的以下新功能。

    • 您现在可以将 Git 存储库与 EMR 笔记本关联,以将笔记本存储在版本控制的环境中。您可以通过远程 Git 存储库与同行共享代码,并重复使用现有 Jupyter 笔记本。有关更多信息,请参阅 Amazon EMR 管理指南 中的将 Git 存储库与 Amazon EMR 笔记本关联

    • EMR 笔记本中现在提供了 nbdime 实用程序,可简化笔记的比较与合并。 

    • EMR 笔记本现在支持 JupyterLab。JupyterLab 是与 Jupyter 笔记本完全兼容的基于 Web 的交互式开发环境。您现在可以选择在 JupyterLab 或 Jupyter 笔记本编辑器中打开笔记本。 

  • (2019 年 10 月 30 日)利用 5.25.0 版及更高版本的 Amazon EMR,您可以从控制台中的集群 Summary (摘要) 页面或 Application history (应用程序历史记录) 选项卡连接到 Spark 历史记录服务器 UI。无需通过 SSH 连接设置 Web 代理,您就可以快速访问 Spark 历史记录服务器 UI 来查看应用程序指标并访问活动和终止集群的相关日志文件。有关更多信息,请参阅 Amazon EMR 管理指南 中的对永久应用程序用户界面的集群外访问

更改、增强和解决的问题

已知问题

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

5.27.0组件版本

下面列出了Amazon EMR 随此发布版本一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其他组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发布版本中的大数据应用程序包通常是在社区中找到的最新版本。我们尽快在 Amazon EMR 中提供社区发布版本。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的版本标签。EmrVersion 从 0 开始。例如,如果已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改以包含在不同的 Amazon EMR 发布版本中,则其发布版本将列出为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk 1.2.4 Amazon SageMaker Spark 开发工具包
emr-ddb 4.12.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.11.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.4.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp 2.13.0 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.3.0 EMR S3 Select 连接器
emrfs 2.36.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.8.1 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-4 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-4 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-4 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-4 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-4 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-4 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-4 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-4 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-4 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-4 用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-4 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.10 适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server 1.4.10 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.10 HBase 命令行客户端。
hbase-rest-server 1.4.10 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.10 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.5-amzn-1 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.5-amzn-1 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.5-amzn-1 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.5-amzn-1 Hive 命令行客户端。
hive-hbase 2.3.5-amzn-1 Hive-hbase 客户端。
hive-metastore-server 2.3.5-amzn-1 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.5-amzn-1 用于将 Hive 查询作为 Web 请求接受的服务。
hue-server 4.4.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 1.0.0 Jupyter 笔记本的多用户服务器
livy-server 0.6.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet 1.4.0 用于深度学习的灵活的、可扩展且高效的库。
mysql-server 5.5.54+ MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.1.0 Oozie 命令行客户端。
oozie-server 5.1.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.2-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.2-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.224 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.224 用于执行查询的各个部分的服务。
pig-client 0.17.0 Pig 命令行客户端。
r 3.4.1 用于统计计算的 R 项目
spark-client 2.4.4 Spark 命令行客户端。
spark-history-server 2.4.4 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.4 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.4 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.14.0 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.1 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

5.27.0配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.27.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。

ranger-kms-env

更改 Ranger KMS 环境中的值。

ranger-kms-log4j

更改 Ranger KMS 的 kms-log4j.properties 文件中的值。

ranger-kms-db-ca

更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

5.26.0

5.26.0应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

5.26.0版本说明

以下发布说明包括有关 Amazon EMR 发布版本 5.26.0 的信息。与 5.25.0 相关的更改。

首次发布日期:2019 年 8 月 8 日

上次更新日期:2019 年 8 月 19 日

升级

  • AWS SDK for Java 1.11.595

  • HBase 1.4.10

  • Phoenix 4.14.2

  • 连接器和驱动程序:

    • DynamoDB 连接器 4.11.0

    • MariaDB 连接器 2.4.2

    • Amazon Redshift JDBC 驱动程序 1.2.32.1056

新功能

  • (测试版)从 Amazon EMR 5.26.0 开始,您可以启动与 Lake Formation 集成的集群。此集成提供对 AWS Glue Data Catalog 中的数据库和表的细粒度列级别访问。此外,它可实现从企业身份系统对 EMR 笔记本或 Apache Zeppelin 的联合身份单点登录。有关更多信息,请参阅将 Amazon EMR 与 AWS Lake Formation(测试版)集成

  • (2019 年 8 月 19 日)Amazon EMR 阻止公有访问现在适用于所有支持安全组的 Amazon EMR 版本。阻止公有访问是适用于每个 AWS 区域的账户范围内的设置。当与集群关联的任何安全组具有一个允许端口上来自 IPv4 0.0.0.0/0 或 IPv6 ::/0(公有访问)的入站流量的规则时,阻止公有访问将阻止集群启动,除非将端口指定为例外。默认情况下,端口 22 是一个例外。有关更多信息,请参阅 Amazon EMR 管理指南 中的使用 Amazon EMR 阻止公有访问

更改、增强和解决的问题

  • EMR 笔记本

    • 借助 EMR 5.26.0 及更高版本,除了默认 Python 库以外,EMR 笔记本 还支持笔记本范围的 Python 库。您可以从笔记本编辑器中安装笔记本范围的库,而无需重新创建集群或将笔记本重新附加到集群。笔记本范围的库是在 Python 虚拟环境中创建的,因此它们只适用于当前笔记本会话。这样使您能够隔离笔记本依赖项。有关更多信息,请参阅 Amazon EMR 管理指南 中的使用笔记本范围的库

  • EMRFS

    • 您可以通过将 fs.s3.consistent.metadata.etag.verification.enabled 设置为 true 来启用 ETag 验证功能(测试版)。借助此功能,EMRFS 使用 Amazon S3 ETag 验证所读取的对象是否为最新可用版本。此功能对更新后读取使用案例很有帮助,此时 Amazon S3 上的文件将覆盖但保留相同名称。此 ETag 验证功能当前不可用于 S3 Select。有关更多信息,请参阅配置一致视图

  • Spark

    • 默认情况下,现在启用了以下优化:动态分区修剪、DISTINCT before INTERSECT、后跟 DISTINCT 查询的 JOIN 的 SQL 计划统计推断改进、展平标量子查询、优化的联接重新排序和 bloom 筛选条件联接。有关更多信息,请参阅优化 Spark 性能

    • 改进了排序合并联接的整个阶段的代码生成。

    • 改进了查询片段和子查询重用。

    • Spark 启动时预先分配执行程序的改进。

    • 当联接的较小一侧包含广播提示时,不再应用 bloom 筛选条件联接。

  • Tez

    • 解决了 Tez 的问题。Tez UI 现在适用于 具有多个主节点的 EMR 集群。

已知问题

  • 对于面向排序合并联接的改进的全阶段代码生成功能,在启用时会增加内存压力。此优化改进了性能,但是如果 spark.yarn.executor.memoryOverheadFactor 没有调优以提供足够的内存,则可能导致作业重试或失败。要禁用此功能,请将 spark.sql.sortMergeJoinExec.extendedCodegen.enabled 设置为 false。

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

5.26.0组件版本

下面列出了Amazon EMR 随此发布版本一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其他组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发布版本中的大数据应用程序包通常是在社区中找到的最新版本。我们尽快在 Amazon EMR 中提供社区发布版本。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的版本标签。EmrVersion 从 0 开始。例如,如果已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改以包含在不同的 Amazon EMR 发布版本中,则其发布版本将列出为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk 1.2.4 Amazon SageMaker Spark 开发工具包
emr-ddb 4.11.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.10.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.4.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp 2.12.0 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.3.0 EMR S3 Select 连接器
emrfs 2.35.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.8.0 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-4 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-4 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-4 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-4 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-4 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-4 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-4 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-4 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-4 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-4 用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-4 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.10 适用于负责协调区域和执行管理命令的 HBase 集群的服务。
hbase-region-server 1.4.10 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.10 HBase 命令行客户端。
hbase-rest-server 1.4.10 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.10 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.5-amzn-0 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.5-amzn-0 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.5-amzn-0 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.5-amzn-0 Hive 命令行客户端。
hive-hbase 2.3.5-amzn-0 Hive-hbase 客户端。
hive-metastore-server 2.3.5-amzn-0 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.5-amzn-0 用于将 Hive 查询作为 Web 请求接受的服务。
hue-server 4.4.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 0.9.6 Jupyter 笔记本的多用户服务器
livy-server 0.6.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet 1.4.0 用于深度学习的灵活的、可扩展且高效的库。
mysql-server 5.5.54+ MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.1.0 Oozie 命令行客户端。
oozie-server 5.1.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.2-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.2-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.220 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.220 用于执行查询的各个部分的服务。
pig-client 0.17.0 Pig 命令行客户端。
r 3.4.1 用于统计计算的 R 项目
spark-client 2.4.3 Spark 命令行客户端。
spark-history-server 2.4.3 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.3 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.3 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.13.1 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.1 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

5.26.0配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.16.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

5.25.0

5.25.0应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

5.25.0版本说明

以下发布说明包括有关 Amazon EMR 发布版本 5.25.0 的信息。更改是相对于 5.24.1 而言的。

首次发布日期:2019 年 7 月 17 日

上次更新日期:2019 年 10 月 30 日

Amazon EMR 5.25.0

升级

  • AWS SDK for Java 1.11.566

  • Hive 2.3.5

  • Presto 0.220

  • Spark 2.4.3

  • TensorFlow 1.13.1

  • Tez 0.9.2

  • Zookeeper 3.4.14

新功能

  • (2019 年 10 月 30 日)从 5.25.0 版本的 Amazon EMR 开始,您可以从控制台中的集群 Summary (摘要) 页面或 Application history (应用程序历史记录) 选项卡连接到 Spark 历史记录服务器 UI。无需通过 SSH 连接设置 Web 代理,您就可以快速访问 Spark 历史记录服务器 UI 来查看应用程序指标并访问活动和终止集群的相关日志文件。有关更多信息,请参阅 Amazon EMR 管理指南 中的对永久应用程序用户界面的集群外访问

更改、增强和解决的问题

  • Spark

    • 通过使用 Bloom 筛选器预筛选输入,改进了某些连接的性能。默认情况下禁用此优化,可以通过将 Spark 配置参数 spark.sql.bloomFilterJoin.enabled 设置为 true 来启用此优化。

    • 改进了按字符串类型列分组的性能。

    • 改进了未安装 HBase 的集群的 R4 实例类型的默认 Spark 执行器内存和内核配置。

    • 解决了动态分区修剪功能的上一个问题,其中修剪的表必须位于联接的左侧。

    • 改进了“在 INTERSECT 前执行 DISTINCT”优化,以应用于涉及别名的其他情况。

    • 改进了 JOIN 后面跟随 DISTINCT 查询的 SQL 计划统计推断。默认情况下禁用此改进,可以通过将 Spark 配置参数 spark.sql.statsImprovements.enabled 设置为 true 来启用此改进。“在 INTERSECT 前执行 DISTINCT”功能需要进行此优化,并且当 spark.sql.optimizer.distinctBeforeIntersect.enabled 设置为 true 时将自动启用此优化。

    • 已根据表大小和筛选器优化连接顺序。默认情况下禁用此优化,可以通过将 Spark 配置参数 spark.sql.optimizer.sizeBasedJoinReorder.enabled 设置为 true 来启用此优化。

    有关更多信息,请参阅优化 Spark 性能

  • EMRFS

    • EMRFS 设置 fs.s3.buckets.create.enabled 现在默认情况下是禁用的。通过测试,我们发现禁用此设置可以提高性能并防止无意中创建 S3 存储桶。如果您的应用程序依赖于此功能,则可以通过在 emrfs-site 配置分类中将属性 fs.s3.buckets.create.enabled 设置为 true 来启用它。有关信息,请参阅在创建集群时提供配置

  • 安全配置中的本地磁盘加密和 S3 加密改进(2019 年 8 月 5 日)

    • 在安全配置设置中将 Amazon S3 加密设置与本地磁盘加密设置分隔开。

    • 在版本 5.24.0 或更高版本中添加了启用 EBS 加密的选项。选择此选项将加密根设备卷以及存储卷。以前的版本需要使用自定义 AMI 来加密根设备卷。

    • 有关更多信息,请参阅 Amazon EMR 管理指南 中的加密选项

已知问题

  • Known issue in clusters with multiple master nodes and Kerberos authentication

    If you run clusters with multiple master nodes and Kerberos authentication in EMR releases 5.20.0 and later, you may encounter problems with cluster operations such as scale down or step submission, after the cluster has been running for some time. The time period depends on the Kerberos ticket validity period that you defined. The scale-down problem impacts both automatic scale-down and explicit scale down requests that you submitted. Additional cluster operations can also be impacted.

    Workaround:

    • SSH as hadoop user to the lead master node of the EMR cluster with multiple master nodes.

    • Run the following command to renew Kerberos ticket for hadoop user.

      kinit -kt <keytab_file> <principal>

      Typically, the keytab file is located at /etc/hadoop.keytab and the principal is in the form of hadoop/<hostname>@<REALM>.

    注意

    This workaround will be effective for the time period the Kerberos ticket is valid. This duration is 10 hours by default, but can configured by your Kerberos settings. You must re-run the above command once the Kerberos ticket expires.

5.25.0组件版本

下面列出了Amazon EMR 随此发布版本一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其他组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emraws 开头。最新的 Amazon EMR 发布版本中的大数据应用程序包通常是在社区中找到的最新版本。我们尽快在 Amazon EMR 中提供社区发布版本。

Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的版本标签。EmrVersion 从 0 开始。例如,如果已对名为 myapp-component 的版本 2.2 的开源社区组件进行三次修改以包含在不同的 Amazon EMR 发布版本中,则其发布版本将列出为 2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk 1.2.4 Amazon SageMaker Spark 开发工具包
emr-ddb 4.10.0 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies 2.9.0 适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis 3.4.0 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-s3-dist-cp 2.11.0 针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select 1.3.0 EMR S3 Select 连接器
emrfs 2.34.0 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client 1.8.0 Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor 3.7.2 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector 3.7.2 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web 3.7.1 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client 2.8.5-amzn-4 Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode 2.8.5-amzn-4 用于存储数据块的 HDFS 节点级服务。
hadoop-hdfs-library 2.8.5-amzn-4 HDFS 命令行客户端和库
hadoop-hdfs-namenode 2.8.5-amzn-4 用于跟踪文件名和数据块位置的 HDFS 服务。
hadoop-hdfs-journalnode 2.8.5-amzn-4 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。
hadoop-httpfs-server 2.8.5-amzn-4 用于 HDFS 操作的 HTTP 终端节点。
hadoop-kms-server 2.8.5-amzn-4 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。
hadoop-mapred 2.8.5-amzn-4 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。
hadoop-yarn-nodemanager 2.8.5-amzn-4 用于管理单个节点上的容器的 YARN 服务。
hadoop-yarn-resourcemanager 2.8.5-amzn-4 用于分配和管理集群资源与分布式应用程序的 YARN 服务。
hadoop-yarn-timeline-server 2.8.5-amzn-4 用于检索 YARN 应用程序的当前信息和历史信息的服务。
hbase-hmaster 1.4.9 适用于负责协调区域和执行管理命令的 HBase 群集的服务。
hbase-region-server 1.4.9 用于服务于一个或多个 HBase 区域的服务。
hbase-client 1.4.9 HBase 命令行客户端。
hbase-rest-server 1.4.9 用于向 HBase 提供 RESTful HTTP 终端节点的服务。
hbase-thrift-server 1.4.9 用于向 HBase 提供 Thrift 终端节点的服务。
hcatalog-client 2.3.5-amzn-0 用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server 2.3.5-amzn-0 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。
hcatalog-webhcat-server 2.3.5-amzn-0 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。
hive-client 2.3.5-amzn-0 Hive 命令行客户端。
hive-hbase 2.3.5-amzn-0 Hive-hbase 客户端。
hive-metastore-server 2.3.5-amzn-0 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。
hive-server2 2.3.5-amzn-0 用于将 Hive 查询作为 Web 请求接受的服务。
hue-server 4.4.0 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub 0.9.6 Jupyter 笔记本的多用户服务器
livy-server 0.6.0-incubating 用于与 Apache Spark 交互的 REST 接口
nginx 1.12.1 nginx [引擎 x] 是 HTTP 和反向代理服务器
mahout-client 0.13.0 用于机器学习的库。
mxnet 1.4.0 用于深度学习的灵活的、可扩展且高效的库。
mysql-server 5.5.54+ MySQL 数据库服务器。
nvidia-cuda 9.2.88 Nvidia 驱动程序和 Cuda 工具包
oozie-client 5.1.0 Oozie 命令行客户端。
oozie-server 5.1.0 用于接受 Oozie 工作流请求的服务。
opencv 3.4.0 开源计算机视觉库。
phoenix-library 4.14.1-HBase-1.4 服务器和客户端的 phoenix 库
phoenix-query-server 4.14.1-HBase-1.4 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器
presto-coordinator 0.220 用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker 0.220 用于执行查询的各个部分的服务。
pig-client 0.17.0 Pig 命令行客户端。
r 3.4.1 用于统计计算的 R 项目
spark-client 2.4.3 Spark 命令行客户端。
spark-history-server 2.4.3 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn 2.4.3 适用于 YARN 的内存中执行引擎。
spark-yarn-slave 2.4.3 YARN 从属项所需的 Apache Spark 库。
sqoop-client 1.4.7 Apache Sqoop 命令行客户端。
tensorflow 1.13.1 适用于高性能数值计算的 TensorFlow 开源软件库。
tez-on-yarn 0.9.2 tez YARN 应用程序和库。
webserver 2.4.25+ Apache HTTP 服务器。
zeppelin-server 0.8.1 支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server 3.4.14 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client 3.4.14 ZooKeeper 命令行客户端。

5.25.0配置分类

配置分类使您能够自定义应用程序。这些分类通常对应于应用程序的配置 XML 文件,例如 hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.25.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop YARN 的 container-log4j.properties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改 EMRFS 设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4j-yarn-session.properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

适用于 Apache HBase 的 Amazon EMR 辅助设置。

hbase-env

更改 HBase 环境中的值。

hbase-log4j

更改 HBase 的 hbase-log4j.properties 文件中的值。

hbase-metrics

更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。

hbase-policy

更改 HBase 的 hbase-policy.xml 文件中的值。

hbase-site

更改 HBase 的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置 HDFS 加密区域。

hdfs-site

更改 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

更改 HCatalog 的环境中的值。

hcatalog-server-jndi

更改 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 HCatalog 的 proto-hive-site.xml 中的值。

hcatalog-webhcat-env

更改 HCatalog WebHCat 的环境中的值。

hcatalog-webhcat-log4j2

更改 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改 HTTPFS 环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

更改 Hadoop KMS 环境中的值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

jupyter-notebook-conf

更改 Jupyter Notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter Notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序的环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

recordserver-env

更改 EMR RecordServer 环境中的值。

recordserver-conf

更改 EMR RecordServer erver.properties 文件中的值。

recordserver-log4j

更改 EMR RecordServer log4j.properties 文件中的值。

spark

适用于 Apache Spark 的 Amazon EMR 辅助设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改 YARN 环境中的值。

yarn-site

更改 YARN 的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper 的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper 的 log4j.properties 文件中的值。

5.24.x

5.24 系列中有多个发布版本。选择下方的链接以在此选项卡内查看特定发布版本的信息。

5.24.1 (最新)| 5.24.0

Amazon EMR 版本 5.24.1

版本5.24.1应用程序版本

此版本支持以下应用程序:FlinkGangliaHadoopHBaseHCatalogHiveHueJupyterHubLivyMahoutMXNetOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下图描述了此版本的 Amazon EMR 中提供的应用程序版本以及前四个 Amazon EMR 发布版本中的应用程序版本。

有关每个发布版本的 Amazon EMR 的应用程序版本的全面历史记录,请参见下面的示意图:

版本5.24.1版本说明

以下发布说明包括有关 Amazon EMR 发布版本 5.24.1 的信息。与 5.24.0 相关的更改。

首次发布日期:2019 年 6 月 26 日

更改、增强和解决的问题

  • Updated the default Amazon Linux AMI f