Neural Network Libraries v1.0.18をリリースしました!今回のリリースでは非常に多くの新機能が追加されました!ここではひとつひとつの説明は割愛させていただきますが、のちほど主要な新機能については個別に紹介記事が公開される予定です。お楽しみに!
スポットライト
LSTM/GRUに関するバグ修正 (CPU / CUDA)
LSTMおよびGRUの出力のShapeがドキュメントと一致していなかった問題が修正されました。
また、Parametric Functions
におけるLSTMとGRUのバグであった、重みパラメータのメモリレイアウトがCuDNNで用いられるものと異なっていた問題も修正されました。
以前にPF.lstm
またはPF.gru
を用いたモデルを学習し、その結果得られた重みパラメータを保存していた場合、本バージョンでもそのモデル・パラメータは問題なく動作しますが、念のため今回リリースされたバージョンを使って再学習させることを推奨します。ご不便をおかけしてしまいますが、私たちは今後も改善を続けていき、より良いディープラーニングフレームワークを提供していきます。
その他の変更
コア機能の追加・改善
レイヤー関数の新規追加・改善
- 2D/3D Nearest Neighbor Interpolation (CPU / CUDA)
- LogSoftmaxの追加、及び半精度を用いたSoftmaxの廃止 (CPU CUDA)
- NHWCメモリレイアウトを用いたConvolution及びPoolingを実行可能に(CPU / CUDA)
- 各種正規化関数追加
- 3D Linear Interpolation (CPU / CUDA)
- Fused Batch Normalizationの追加及びCuDNN使用時のBatch Normalizationの高速化
- log_sigmoidの計算効率化
ユーティリティの機能改善
- DICOMフォーマットのサポート
- Data Source Loader: DICOMフォーマットにも対応
- Data Iterator: .npy cacheのサポート
- AdaBound/AMSBoundの学習率調整機能 (CPU / CUDA)
- NNabla CLI: Callback機能の追加
ビルド関連
新規追加モデル
バグ修正
- 活性化関数の微分の修正 (CPU / CUDA)
- PF.lstmとPF.gruの重みパラメータに関する修正 (CPU / CUDA)
- create_cache.pyの修正
- 明示的なメモリ全解放によるValgrindの警告対応
- nnp::Monitorにget_network()を追加