|
長沼大樹 研究業績一覧 (17件)
論文
国際会議発表 (査読有り)
-
Hiroki Naganuma,
Kartik Ahuja,
Ioannis Mitliagkas,
Shiro Takagi,
Tetsuya Motokawa,
Rio Yokota,
Kohta Ishikawa,
Ikuro Sato.
Empirical Study on Optimizer Selection for Out-of-Distribution Generalization,
NeurIPS 2022 Workshop on Distribution Shift,
Proc. NeurIPS 2022,
Nov. 2022.
公式リンク
-
Hiroki Naganuma,
Rio Yokota.
On Empirical Analysis of Layer-wised Learning Rate Schedule,
ACML 2019 Workshop on Statistics & Machine Learning Researchers,
Nov. 2019.
-
Hiroki Naganuma,
Rio Yokota.
A Performance Improvement Approach for Second-Order Optimization in Large Mini-batch Training,
2nd High Performance Machine Learning Workshop CCGrid2019 (HPML2019),
May 2019.
-
Hiroki Naganuma,
Rio Yokota.
Accelerating Convolutional Neural Networks Using Low Precision Arithmetic,
HPC Asia,
Jan. 2018.
-
Kazuki Oosawa,
Akira Sekiya,
Hiroki Naganuma,
Rio Yokota.
Accelerating Matrix Multiplication in Deep Learning by Using Low-Rank Approximation,
The 2017 International Conference on High Performance Computing & Simulation,
July 2017.
国内会議発表 (査読有り)
-
長沼 大樹,
横田 理央.
ラージバッチ学習のための自然勾配学習法におけるSmoothingの有効性,
The 3rd Cross-disciplinary Workshop on Computing Systems, Infrastructures, and Programming (xSIG),
May 2019.
-
長沼大樹,
岩瀬 駿,
郭 林昇,
中田 光,
横田 理央.
自然勾配近似法を用いた大規模並列深層学習におけるハイパーパラメータ最適化,
第17回情報科学技術フォーラム 2018,
Sept. 2018.
-
長沼大樹,
横田理央.
畳み込みニューラル ネットワークにおける低精度演算を用いた高速化の検証,
GTC Japan,
Dec. 2017.
-
大沢和樹,
関谷翠,
長沼大樹,
横田理央.
低ランクテンソル分解を用いた畳み込みニューラルネットワークの高速化,
パターン認識・メディア理解研究会,
Oct. 2017.
-
長沼大樹,
関谷翠,
大沢和樹,
大友広幸,
桑村裕二,
横田理央.
深層学習における低精度演算を用いた高速化及びアクセラレーターの性能評価,
パターン認識・メディア理解研究会,
Oct. 2017.
-
長沼大樹,
大沢和樹,
関谷翠,
横田理央.
深層学習における半精度演算を用いた圧縮モデルの高速化,
日本応用数理学会年会,
Sept. 2017.
-
大沢和樹,
関谷翠,
長沼大樹,
横田理央.
畳み込みニューラルネットワークの低ランク近似を用いた高速化,
第22回計算工学講演会,
計算工学講演会論文集 Vol.22,
May 2017.
国内会議発表 (査読なし・不明)
-
所畑貴大,
長沼大樹,
横田理央.
確率的重み付け平均法のラージバッチ学習における有用性の検証,
第82回情報処理学会全国大会,
Mar. 2020.
-
長沼 大樹,
横田 理央.
ノイズ注入による平均化を用いたラージバッチ学習の汎化性能改善手法の検討,
電子情報通信学会総合大会,
Mar. 2019.
-
長沼大樹,
横田理央.
大規模並列深層学習のための目的関数の平滑化,
第81回情報処理学会全国大会,
Mar. 2019.
-
関谷翠,
大沢和樹,
長沼大樹,
横田理央.
低ランク近似を用いた深層学習の行列積の高速化,
第158回ハイパフォーマンスコンピューティング研究発表会,
Mar. 2017.
[ BibTeX 形式で保存 ]
[ 論文・著書をCSV形式で保存
]
[ 特許をCSV形式で保存
]
|