阅读(8.2k) 书签 (0)

TensorFlow函数教程:tf.nn.softmax_cross_entropy_with_logits_v2

2019-02-02 15:36 更新

tf.nn.softmax_cross_entropy_with_logits_v2函数

tf.nn.softmax_cross_entropy_with_logits_v2(
    _sentinel=None,
    labels=None,
    logits=None,
    dim=-1,
    name=None
)

定义在:tensorflow/python/ops/nn_ops.py。

计算logits和labels之间的softmax交叉熵。

测量离散分类任务中的概率误差,其中类是互斥的(每个条目恰好在一个类中)。例如,每个CIFAR-10图像都标有一个且只有一个标签:图像可以是dog或truck,但不能同时是两者。

注意:虽然这些类是互斥的,但它们的概率不一定如此。所需要的只是每一行labels是有效的概率分布。如果不是,则梯度的计算将是不正确的。

如果使用专属labels(其中一次只有一个类为true),请参阅sparse_softmax_cross_entropy_with_logits。

警告:此操作需要未缩放的日志,因为它在内部的logits执行logmax以提高效率。不要使用softmax的输出调用此操作,因为它会产生不正确的结果。

常见的用例是具有shape [batch_size,num_classes]的logits和labels,但支持更高的维度,dim参数指定类维度。

logits和labels必须具有相同的类型(可以是float16,float32,或float64)。

反向传播将发生在logits和labels。为了禁止反向传播labels,请先将标签张量传递给tf.stop_gradient,然后再将其传递给此函数。

请注意,为避免混淆,需要仅将命名参数传递给此函数。

参数:

  • _sentinel:用于防止positional参数。内部的,不要使用。
  • labels:沿着类维度的每个向量应该保持有效的概率分布,例如:对于标签的shape为[batch_size, num_classes]的情况,labels[i]的每一行必须是有效的概率分布。
  • logits:未缩放的日志概率。
  • dim:班级维度。默认为-1,这是最后一个维度。
  • name:操作的名称(可选)。

返回:

一个Tensor,包含softmax交叉熵损失。它的类型与logits相同,它的shape与labels是相同的,除了它没有labels的最后一个维度。