损失函数Losses - Keras 中文文档
文章推薦指數: 80 %
from keras import losses model.compile(loss=losses.mean_squared_error, optimizer='sgd'). 你可以传递一个现有的损失函数名,或者一个TensorFlow/Theano 符号函数 ...
Keras中文文档
主页
为什么选择Keras?
快速开始
Sequential顺序模型指引
函数式API指引
FAQ常见问题解答
模型
关于Keras模型
Sequential顺序模型API
函数式API
Layers
关于Keras网络层
核心网络层
卷积层Convolutional
池化层Pooling
局部连接层Locally-connected
循环层Recurrent
嵌入层Embedding
融合层Merge
高级激活层AdvancedActivations
标准化层Normalization
噪声层Noise
层封装器wrappers
编写你自己的层
数据预处理
序列预处理
文本预处理
图像预处理
损失函数Losses
损失函数的使用
可用损失函数
mean_squared_error
mean_absolute_error
mean_absolute_percentage_error
mean_squared_logarithmic_error
squared_hinge
hinge
categorical_hinge
logcosh
categorical_crossentropy
sparse_categorical_crossentropy
binary_crossentropy
kullback_leibler_divergence
poisson
cosine_proximity
评估标准Metrics
优化器Optimizers
激活函数Activations
回调函数Callbacks
常用数据集Datasets
应用Applications
后端Backend
初始化Initializers
正则化Regularizers
约束Constraints
可视化Visualization
Scikit-learnAPI
工具
贡献
经典样例
AdditionRNN
BabyRNN
BabyMemNN
CIFAR-10CNN
CIFAR-10CNN-Capsule
CIFAR-10CNNwithaugmentation(TF)
CIFAR-10ResNet
Convolutionfiltervisualization
ImageOCR
BidirectionalLSTM
Keras中文文档
Docs»
损失函数Losses
EditonGitHub
损失函数的使用
损失函数(或称目标函数、优化评分函数)是编译模型时所需的两个参数之一:
model.compile(loss='mean_squared_error',optimizer='sgd')
fromkerasimportlosses
model.compile(loss=losses.mean_squared_error,optimizer='sgd')
你可以传递一个现有的损失函数名,或者一个TensorFlow/Theano符号函数。
该符号函数为每个数据点返回一个标量,有以下两个参数:
y_true:真实标签。
TensorFlow/Theano张量。
y_pred:预测值。
TensorFlow/Theano张量,其shape与y_true相同。
实际的优化目标是所有数据点的输出数组的平均值。
有关这些函数的几个例子,请查看lossessource。
可用损失函数
mean_squared_error
mean_squared_error(y_true,y_pred)
mean_absolute_error
mean_absolute_error(y_true,y_pred)
mean_absolute_percentage_error
mean_absolute_percentage_error(y_true,y_pred)
mean_squared_logarithmic_error
mean_squared_logarithmic_error(y_true,y_pred)
squared_hinge
squared_hinge(y_true,y_pred)
hinge
hinge(y_true,y_pred)
categorical_hinge
categorical_hinge(y_true,y_pred)
logcosh
logcosh(y_true,y_pred)
预测误差的双曲余弦的对数。
对于小的x,log(cosh(x))近似等于(x**2)/2。
对于大的x,近似于abs(x)-log(2)。
这表示'logcosh'与均方误差大致相同,但是不会受到偶尔疯狂的错误预测的强烈影响。
参数
y_true:目标真实值的张量。
y_pred:目标预测值的张量。
返回
每个样本都有一个标量损失的张量。
categorical_crossentropy
categorical_crossentropy(y_true,y_pred)
sparse_categorical_crossentropy
sparse_categorical_crossentropy(y_true,y_pred)
binary_crossentropy
binary_crossentropy(y_true,y_pred)
kullback_leibler_divergence
kullback_leibler_divergence(y_true,y_pred)
poisson
poisson(y_true,y_pred)
cosine_proximity
cosine_proximity(y_true,y_pred)
注意:当使用categorical_crossentropy损失时,你的目标值应该是分类格式(即,如果你有10个类,每个样本的目标值应该是一个10维的向量,这个向量除了表示类别的那个索引为1,其他均为0)。
为了将整数目标值转换为分类目标值,你可以使用Keras实用函数to_categorical:
fromkeras.utils.np_utilsimportto_categorical
categorical_labels=to_categorical(int_labels,num_classes=None)
GitHub
«Previous
Next»
延伸文章資訊
- 1keras/losses.py at master · keras-team/keras - GitHub
fn: The loss function to wrap, with signature `fn(y_true, y_pred,. **kwargs)`. reduction: Type of...
- 2Losses - Keras
Losses. The purpose of loss functions is to compute the quantity that a model should seek to mini...
- 3How to create a custom loss function in Keras | by Dhiraj K - Heartbeat
- 4Source code for tensorflow.python.keras.losses
You can implement 'SUM_OVER_BATCH_SIZE' using global batch size like: ``` with strategy.scope(): ...
- 5Losses - Keras