损失函数Losses - Keras 中文文档

文章推薦指數: 80 %
投票人數:10人

from keras import losses model.compile(loss=losses.mean_squared_error, optimizer='sgd'). 你可以传递一个现有的损失函数名,或者一个TensorFlow/Theano 符号函数 ... Keras中文文档 主页 为什么选择Keras? 快速开始 Sequential顺序模型指引 函数式API指引 FAQ常见问题解答 模型 关于Keras模型 Sequential顺序模型API 函数式API Layers 关于Keras网络层 核心网络层 卷积层Convolutional 池化层Pooling 局部连接层Locally-connected 循环层Recurrent 嵌入层Embedding 融合层Merge 高级激活层AdvancedActivations 标准化层Normalization 噪声层Noise 层封装器wrappers 编写你自己的层 数据预处理 序列预处理 文本预处理 图像预处理 损失函数Losses 损失函数的使用 可用损失函数 mean_squared_error mean_absolute_error mean_absolute_percentage_error mean_squared_logarithmic_error squared_hinge hinge categorical_hinge logcosh categorical_crossentropy sparse_categorical_crossentropy binary_crossentropy kullback_leibler_divergence poisson cosine_proximity 评估标准Metrics 优化器Optimizers 激活函数Activations 回调函数Callbacks 常用数据集Datasets 应用Applications 后端Backend 初始化Initializers 正则化Regularizers 约束Constraints 可视化Visualization Scikit-learnAPI 工具 贡献 经典样例 AdditionRNN BabyRNN BabyMemNN CIFAR-10CNN CIFAR-10CNN-Capsule CIFAR-10CNNwithaugmentation(TF) CIFAR-10ResNet Convolutionfiltervisualization ImageOCR BidirectionalLSTM   Keras中文文档 Docs» 损失函数Losses EditonGitHub 损失函数的使用 损失函数(或称目标函数、优化评分函数)是编译模型时所需的两个参数之一: model.compile(loss='mean_squared_error',optimizer='sgd') fromkerasimportlosses model.compile(loss=losses.mean_squared_error,optimizer='sgd') 你可以传递一个现有的损失函数名,或者一个TensorFlow/Theano符号函数。

该符号函数为每个数据点返回一个标量,有以下两个参数: y_true:真实标签。

TensorFlow/Theano张量。

y_pred:预测值。

TensorFlow/Theano张量,其shape与y_true相同。

实际的优化目标是所有数据点的输出数组的平均值。

有关这些函数的几个例子,请查看lossessource。

可用损失函数 mean_squared_error mean_squared_error(y_true,y_pred) mean_absolute_error mean_absolute_error(y_true,y_pred) mean_absolute_percentage_error mean_absolute_percentage_error(y_true,y_pred) mean_squared_logarithmic_error mean_squared_logarithmic_error(y_true,y_pred) squared_hinge squared_hinge(y_true,y_pred) hinge hinge(y_true,y_pred) categorical_hinge categorical_hinge(y_true,y_pred) logcosh logcosh(y_true,y_pred) 预测误差的双曲余弦的对数。

对于小的x,log(cosh(x))近似等于(x**2)/2。

对于大的x,近似于abs(x)-log(2)。

这表示'logcosh'与均方误差大致相同,但是不会受到偶尔疯狂的错误预测的强烈影响。

参数 y_true:目标真实值的张量。

y_pred:目标预测值的张量。

返回 每个样本都有一个标量损失的张量。

categorical_crossentropy categorical_crossentropy(y_true,y_pred) sparse_categorical_crossentropy sparse_categorical_crossentropy(y_true,y_pred) binary_crossentropy binary_crossentropy(y_true,y_pred) kullback_leibler_divergence kullback_leibler_divergence(y_true,y_pred) poisson poisson(y_true,y_pred) cosine_proximity cosine_proximity(y_true,y_pred) 注意:当使用categorical_crossentropy损失时,你的目标值应该是分类格式(即,如果你有10个类,每个样本的目标值应该是一个10维的向量,这个向量除了表示类别的那个索引为1,其他均为0)。

为了将整数目标值转换为分类目标值,你可以使用Keras实用函数to_categorical: fromkeras.utils.np_utilsimportto_categorical categorical_labels=to_categorical(int_labels,num_classes=None) GitHub «Previous Next»



請為這篇文章評分?