PyTorchの損失関数には何がありますか?
PyTorchでよく使用される損失関数は以下の通りです:
- nn.CrossEntropyLossは、多クラス問題でよく使用される交差エントロピー損失関数です。
- nn.MSELossは、回帰問題に使用される平均二乗誤差損失関数です。
- nn.BCELossは、2クラス分類問題でよく使われるバイナリクロスエントロピー損失関数です。
- nn.NLLLossは、通常LogSoftmax活性化関数と一緒に使用される、負の対数尤度損失関数です。
- nn.KLDivLossは、Kullback-Leiblerダイバージェンス損失関数であり、2つの確率分布の違いを測定するために使用されます。
- nn.BCEWithLogitsLoss:シグモイド活性化関数とバイナリクロスエントロピー損失関数を組み合わせたもの。
- nn.SmoothL1Lossは、通常、回帰問題に使用される平滑なL1損失関数です。
- nn.MarginRankingLoss:ランク付けのタスクにおけるマージン損失関数。
- nn.MultiLabelSoftMarginLossは、マルチラベル分類問題におけるソフトマージン損失関数です。
- nn.TripletMarginLossは、類似性の高いサンプル間の距離を学習するための三つ組損失関数です。