IP 见解超参数 - Amazon SageMaker
AWS 文档中描述的 AWS 服务或功能可能因区域而异。要查看适用于中国区域的差异,请参阅中国的 AWS 服务入门

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

IP 见解超参数

CreateTransformJob 请求中,您可以指定训练算法。您还可以指定算法特定的超参数作为字符串到字符串映射。下表列出了 Amazon SageMaker IP 见解算法的超参数。

参数名称 描述
num_entity_vectors

要训练的实体向量表示形式(实体嵌入向量)的数量。训练集中的每个实体都使用哈希函数随机分配到其中一个向量。由于哈希碰撞,可能会将多个实体分配给同一向量。这将导致同一向量表示多个实体。这通常对模型性能影响微乎其微,只要碰撞率不太严重。要保持较低的碰撞率,请尽可能设置此值。但是,模型大小以及用于训练和推理的内存要求使用此超参数线性扩展。我们建议您将此值设置为唯一实体标识符数的两倍。

必需

有效值:1 ≤ 正整数 ≤ 250,000,000

vector_dim

用于表示实体和 IP 地址的嵌入向量的大小。值越大,可使用这些表示形式进行编码的信息就越大。实际上,模型大小使用该参数线性缩放并限制维度可以大多少。此外,使用过大的向量表示形式可能会导致模型过度拟合,特别是对于小型训练数据集。当模型不学习数据中的任何模式,但有效记住训练数据,因此无法很好地归纳并在推理期间执行效果不佳时,会出现过度拟合。建议的值为 128。

必需

有效值:4 ≤ 正整数 ≤ 4096

batch_metrics_publish_interval

Apache Speedometer 函数MXNet输出网络训练速度(采样数/秒)的间隔(每 X 个批次)。

可选

有效值:正整数 ≥ 1

默认值:1000

epochs

训练数据的传递次数。最佳值取决于您的数据大小和学习率。典型值范围为 5 到 100。

可选

有效值:正整数 ≥ 1

默认值:10

learning_rate

优化程序的学习率。IP 见解使用基于梯度下降的 Adam 优化程序。学习速率有效地控制步骤大小,以在每次迭代时更新模型参数。太大的学习速率可能会导致模型差异,因为训练可能会覆盖最小值。另一方面,学习速率过小会减慢收敛。典型值范围从 1e-4 到 1e-1。

可选

有效值:1e-6 ≤ 浮点值 ≤ 10.0

默认值:0.001

mini_batch_size

每个小批量中的示例数。训练过程按小批量处理数据。最佳值取决于数据集中唯一账户标识符的数量。通常,mini_batch_size 越大,训练越快,可能的随机负采样组合的数量也越多。但是,对于大型 mini_batch_size,训练更有可能收敛到局部最小值不佳,并且对推理执行相对较差的操作。

可选

有效值:1 ≤ 正整数 ≤ 500000

默认值:10000

num_ip_encoder_layers

用于对 IP 地址嵌入进行编码的完全连接的层的数量。层数越大,模型在 IP 地址之间捕获模式的容量越大。但是,使用大量层会增加过度拟合的几率。

可选

有效值:0 ≤ 正整数 ≤ 100

默认值:1

random_negative_sampling_rate

针对每个输入示例生成的随机负采样的数量 R。训练过程依赖于负采样来防止模型的向量表示折叠到单个点。随机负采样为小批量中的每个输入账户生成 R 个随机 IP 地址。(R) 和 random_negative_sampling_rate (S) 之和必须采用此时间间隔:shuffled_negative_sampling_rate1 ≤ R + S ≤ 500。

可选

有效值:0 ≤ 正整数 ≤ 500

默认值:1

shuffled_negative_sampling_rate

针对每个输入示例生成的随机负采样的数量 S。在某些情况下,它有助于使用从训练数据本身随机挑选的更真实的负采样。这种负采样是通过在小批量中对数据进行随机排序来实现的。随机排列负采样通过在小批量内随机排列 IP 地址和账户对来生成 S 负 IP 地址。(R) 和 random_negative_sampling_rate (S) 之和必须采用此时间间隔:shuffled_negative_sampling_rate1 ≤ R + S ≤ 500。

可选

有效值:0 ≤ 正整数 ≤ 500

默认值:1

weight_decay

权重衰减系数。此参数添加防止模型过度拟合训练数据所需的 L2 正则化因子。

可选

有效值:0.0 ≤ 浮点值 ≤ 10.0

默认值:0.00001