Amazon EKS 故障排除 - Amazon EKS
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 AWS 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Amazon EKS 故障排除

本章介绍使用 Amazon EKS 时可能遇到的一些常见错误以及相应的错误处理方式。

容量不足

如果您在尝试创建 Amazon EKS 集群时收到以下错误,则表示所指定的可用区之一的容量不足,无法支持集群。

Cannot create cluster 'example-cluster' because region-1d, the targeted 可用区, does not currently have sufficient capacity to support the cluster. Retry and choose from these 可用区s: region-1a, region-1b, region-1c

在集群 VPC 中使用此错误消息所返回的可用区中托管的子网重新尝试创建集群。

节点无法加入集群

有几个常见原因会阻止节点加入集群:

  • 文件没有适用于您的节点的正确 aws-auth-cm.yaml 角色 IAM。ARN确保在 IAM 文件中指定了节点 ARN 角色 ARN(而不是实例配置文件 aws-auth-cm.yaml)。有关更多信息,请参阅启动自管理 Amazon Linux 节点

  • 节点 模板中的 ClusterNameAWS CloudFormation 与您希望节点加入的集群的名称不完全匹配。将不正确的值传递到此字段会导致节点的 /var/lib/kubelet/kubeconfig 文件配置不正确,并且节点不会加入集群。

  • 节点不会标记为集群拥有。您的节点必须应用了以下标签,其中 <cluster-name> 替换为集群的名称。

    Key

    kubernetes.io/cluster/<cluster-name>

    owned

  • 这些节点可能无法使用公有 IP 地址访问集群。确保向部署在公有子网中的节点分配了公有 IP 地址。如果没有,您可以在节点启动后为其关联弹性 IP 地址。有关更多信息,请参阅将弹性 IP 地址与正在运行的实例或网络接口关联。如果公有子网未设置为自动将公有 IP 地址分配给部署到其中的实例,我们建议启用该设置。有关更多信息,请参阅修改子网的公有 IPv4 寻址属性。如果节点部署到私有子网,则该子网必须具有指向分配了公有 IP 地址的 NAT 网关的路由。

  • 未为您的账户启用您要将节点部署到的区域的 STS 终端节点。要启用该区域,请参阅在 AWS 区域中激活和停用 AWS STS

未经授权或访问被拒绝 (kubectl)

如果您在运行 kubectl 命令时收到以下错误之一,则表示未为 正确配置 kubectl ,或者您使用的 Amazon EKS 用户或角色凭证未映射到在 IAM 集群中具有足够权限的 Kubernetes RBAC 用户。Amazon EKS

  • could not get token: AccessDenied: Access denied

  • error: You must be logged in to the server (Unauthorized)

  • error: the server doesn't have a resource type "svc"

这可能是因为集群是使用一组 AWS 凭证(来自 IAM 用户或角色)创建的,而 kubectl 使用的是另一组凭证。

创建 Amazon EKS 集群后,创建集群的 IAM 实体(用户或角色)将添加到 Kubernetes RBAC 授权表作为管理员(具有 system:masters 权限)。最初,仅该 IAM 用户可以使用 kubectl 调用 Kubernetes API 服务器。有关更多信息,请参阅管理集群的用户或 IAM 角色. 如果您使用控制台创建集群,则必须确保在集群上运行 IAM AWS 命令时相同的 kubectl 用户凭证位于 开发工具包凭证链中。

如果您安装和配置 AWS CLI,则可以为您的用户配置 IAM 凭证。有关更多信息,请参阅 AWS CLI 中的配置 AWS Command Line Interface 用户指南

如果您担任创建 Amazon EKS 集群的角色,则必须确保将 kubectl 配置为代入同一角色。使用以下命令更新您的 kubeconfig 文件以使用 IAM 角色。有关更多信息,请参阅为 Amazon EKS 创建 kubeconfig

aws --region <region-code> eks update-kubeconfig --name <cluster_name> --role-arn arn:aws:iam::<aws_account_id>:role/<role_name>

要将 IAM 用户映射到 Kubernetes RBAC 用户,请参阅 管理集群的用户或 IAM 角色 或观看有关如何映射用户的视频

未找到 aws-iam-authenticator

如果您收到错误 "aws-iam-authenticator": executable file not found in $PATH,则表示未为 配置 kubectl Amazon EKS。有关更多信息,请参阅安装aws-iam-authenticator

注意

如果安装了 AWS CLI 版本 1.16.156 或更高版本,则不需要 aws-iam-authenticator

hostname doesn't match

系统的 Python 版本必须为 2.7.9 或更高版本。否则,在 AWS CLI 调用 Amazon EKS 时会收到 hostname doesn't match 错误。有关更多信息,请参阅“Python 请求常见问题”中的什么是“主机名不匹配”错误?

getsockopt: no route to host

Docker 在 Amazon EKS 集群中的 172.17.0.0/16 CIDR 范围内运行。我们建议您的集群的 VPC 子网不重叠此范围。否则,您将收到以下错误:

Error: : error upgrading connection: error dialing backend: dial tcp 172.17.<nn>.<nn>:10250: getsockopt: no route to host

托管节点组错误

如果您在 AWS 管理控制台中收到“Instances failed to join the kubernetes cluster (实例无法加入 kubernetes 集群)”错误,请确保已启用集群的私有终端节点访问,或者您已正确配置 CIDR 块以用于公有终端节点访问。有关更多信息,请参阅Amazon EKS 集群终端节点访问控制

如果您的托管节点组遇到运行状况问题,则 Amazon EKS 返回错误消息以帮助诊断问题。以下错误消息及其相关描述如下所示。

  • AccessDenied: 或一个或多个托管节点无法对 Kubernetes 集群 API 服务器进行身份验证或授权。Amazon EKS有关解决此错误的更多信息,请参阅修复了托管节点组的 AccessDenied 错误

  • AutoScalingGroupNotFound:我们找不到与托管节点组关联的 Auto Scaling 组。您可以重新创建具有相同设置的 Auto Scaling 组进行恢复。

  • ClusterUnreachable: 或一个或多个托管节点无法与 Kubernetes 集群 API 服务器通信。Amazon EKS如果网络中断或 API 服务器超时处理请求,则可能会发生这种情况。

  • Ec2SecurityGroupNotFound:我们无法找到集群的集群安全组。您必须重新创建集群。

  • Ec2SecurityGroupDeletionFailure:我们无法删除托管节点组的远程访问安全组。从安全组中删除所有依赖关系。

  • Ec2LaunchTemplateNotFound:我们无法找到托管节点组的 Amazon EC2 启动模板。您可以重新创建具有相同设置的启动模板进行恢复。

  • Ec2LaunchTemplateVersionMismatch:托管节点组的 Amazon EC2 启动模板版本与 Amazon EKS 创建的版本不匹配。您可以恢复到 Amazon EKS 创建用于进行恢复的版本。

  • IamInstanceProfileNotFound:我们无法找到您的托管节点组的 IAM 实例配置文件。您可以重新创建具有相同设置的实例配置文件进行恢复。

  • IamNodeRoleNotFound:我们无法为您的托管节点组找到 IAM 角色。您可以重新创建具有相同设置的 IAM 角色进行恢复。

  • AsgInstanceLaunchFailures:您的 Auto Scaling 组在尝试启动实例时出现故障。

  • NodeCreationFailure:您启动的实例无法向 Amazon EKS 集群注册。此失败的常见原因是节点 IAM 角色权限不足或节点缺少出站 Internet 访问。您的节点必须能够使用公有 IP 地址访问 Internet 才能正常工作。有关更多信息,请参阅VPC IP 寻址。您的节点还必须具有对 Internet 开放的端口。有关更多信息,请参阅Amazon EKS 安全组注意事项

  • InstanceLimitExceeded:您的 AWS 账户无法启动指定实例类型的更多实例。您可以请求提高 Amazon EC2 实例限制以进行恢复。

  • InsufficientFreeAddresses:与您托管节点组关联的一个或多个子网没有足够的可用 IP 地址供新节点使用。

  • InternalFailure:这些错误通常由 Amazon EKS 服务器端问题导致。

在对托管节点组执行操作时出现 AccessDenied 错误的最常见原因是缺少 eks:node-manager ClusterRoleClusterRoleBinding。在开始使用托管节点组的过程中,Amazon EKS 会在您的集群中设置这些资源,这些资源是管理节点组所必需的。

可能会随着时间的推移而更改,但它应类似于以下示例:ClusterRole

apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: eks:node-manager rules: - apiGroups: - '' resources: - pods verbs: - get - list - watch - delete - apiGroups: - '' resources: - nodes verbs: - get - list - watch - patch - apiGroups: - '' resources: - pods/eviction verbs: - create

可能会随着时间的推移而更改,但它应类似于以下示例:ClusterRoleBinding

apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: eks:node-manager roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: eks:node-manager subjects: - apiGroup: rbac.authorization.k8s.io kind: User name: eks:node-manager

验证 eks:node-manager ClusterRole 是否存在。

kubectl describe clusterrole eks:node-manager

如果存在,请将输出与上一个 ClusterRole 示例进行比较。

验证 eks:node-manager ClusterRoleBinding 是否存在。

kubectl describe clusterrolebinding eks:node-manager

如果存在,请将输出与上一个 ClusterRoleBinding 示例进行比较。

如果您在请求托管节点组操作时发现 ClusterRoleClusterRoleBinding 缺失或损坏是导致 AcessDenied 错误的原因,则可以还原它们。将以下内容保存到名为 eks-node-manager-role.yaml 的文件中。

apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRole metadata: name: eks:node-manager rules: - apiGroups: - '' resources: - pods verbs: - get - list - watch - delete - apiGroups: - '' resources: - nodes verbs: - get - list - watch - patch - apiGroups: - '' resources: - pods/eviction verbs: - create --- apiVersion: rbac.authorization.k8s.io/v1 kind: ClusterRoleBinding metadata: name: eks:node-manager roleRef: apiGroup: rbac.authorization.k8s.io kind: ClusterRole name: eks:node-manager subjects: - apiGroup: rbac.authorization.k8s.io kind: User name: eks:node-manager

应用文件。

kubectl apply -f eks-node-manager-role.yaml

重试节点组操作,查看这是否已解决您的问题。

CNI 日志收集工具

适用于 Kubernetes 的 Amazon VPC CNI 插件有自己的故障排除脚本(在节点上的 /opt/cni/bin/aws-cni-support.sh 提供),您可以使用该脚本收集诊断日志以支持案例和一般故障排除。

使用以下命令在节点上运行脚本:

sudo bash /opt/cni/bin/aws-cni-support.sh
注意

如果脚本在该位置不存在,CNI 容器将无法运行。可以使用以下命令手动下载并运行脚本:

curl -O https://raw.githubusercontent.com/awslabs/amazon-eks-ami/master/log-collector-script/linux/eks-log-collector.sh sudo bash eks-log-collector.sh

该脚本收集以下诊断信息。您已部署的 CNI 版本可以早于脚本版本。

This is version 0.6.1. New versions can be found at https://github.com/awslabs/amazon-eks-ami Trying to collect common operating system logs... Trying to collect kernel logs... Trying to collect mount points and volume information... Trying to collect SELinux status... Trying to collect iptables information... Trying to collect installed packages... Trying to collect active system services... Trying to collect Docker daemon information... Trying to collect kubelet information... Trying to collect L-IPAMD information... Trying to collect sysctls information... Trying to collect networking information... Trying to collect CNI configuration information... Trying to collect running Docker containers and gather container data... Trying to collect Docker daemon logs... Trying to archive gathered information... Done... your bundled logs are located in /var/log/eks_i-0717c9d54b6cfaa19_2020-03-24_0103-UTC_0.6.1.tar.gz

诊断信息收集并存储在

/var/log/eks_i-0717c9d54b6cfaa19_2020-03-24_0103-UTC_0.6.1.tar.gz

容器运行时网络未准备就绪

您可能会收到类似于以下内容的 Container runtime network not ready 错误和授权错误:

4191 kubelet.go:2130] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
4191 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:452: Failed to list *v1.Service: Unauthorized
4191 kubelet_node_status.go:106] Unable to register node "ip-10-40-175-122.ec2.internal" with API server: Unauthorized
4191 reflector.go:205] k8s.io/kubernetes/pkg/kubelet/kubelet.go:452: Failed to list *v1.Service: Unauthorized

这些错误最可能与 AWS IAM 身份验证器配置映射未应用于节点有关。配置映射提供 system:bootstrapperssystem:nodes Kubernetes RBAC 权限供节点注册到集群。有关更多信息,请参阅 自行管理节点选项卡上的启用节点以加入集群启动自管理 Amazon Linux 节点。确保您在配置映射中指定实例角色的 Role ARN (角色 ARN) ,而不是 Instance Profile ARN (实例配置文件 ARN)

如果身份验证器包含 之外的路径,则身份验证器无法识别角色 ARN/,如以下示例所示:

arn:aws:iam::<111122223333>:role/<development/apps/prod-iam-role-NodeInstanceRole-621LVEXAMPLE>

在配置映射中指定包含 以外的路径的 Role ARN (角色 ARN)/ 时,必须删除该路径。将以上 ARN 指定为以下内容:

arn:aws:iam::<111122223333>:role/<prod-iam-role-NodeInstanceRole-621LVEXAMPLE>

TLS 握手超时

当节点无法建立与公有 API 服务器终端节点的连接时,您可能会遇到类似于以下错误的错误。

server.go:233] failed to run Kubelet: could not init cloud provider "aws": error finding instance i-1111f2222f333e44c: "error listing AWS instances: \"RequestError: send request failed\\ncaused by: Post  net/http: TLS handshake timeout\""

kubelet 进程将持续重新生成并测试 API 服务器终端节点。在控制层面中执行集群滚动更新(例如配置更改或版本更新)的任何过程中,也可能临时发生此错误。

要解决此问题,请检查路由表和安全组,以确保来自节点的流量可以到达公有终端节点。

InvalidClientTokenId

如果您对部署到 IAM 区域中集群的 pod 或守护程序集的服务账户使用 中国 角色,并且未在规范中设置 AWS_DEFAULT_REGION 环境变量,则 pod 或守护程序集可能会收到以下错误:

An error occurred (InvalidClientTokenId) when calling the GetCallerIdentity operation: The security token included in the request is invalid

要解决此问题,您需要将 AWS_DEFAULT_REGION 环境变量添加到您的 Pod 或 daemonset 规范中,如以下示例 Pod 规范中所示。

apiVersion: v1 kind: Pod metadata: name: envar-demo labels: purpose: demonstrate-envars spec: containers: - name: envar-demo-container image: gcr.io/google-samples/node-hello:1.0 env: - name: AWS_DEFAULT_REGION value: "<region-code>"