|
大山洋介 研究業績一覧 (27件)
論文
-
Yosuke Oyama,
Naoya Maruyama,
Nikoli Dryden,
Erin McCarthy,
Peter Harrington,
Jan Balewski,
Satoshi Matsuoka,
Peter Nugent,
Brian Van Essen.
The Case for Strong Scaling in Deep Learning: Training Large 3D CNNs with Hybrid Parallelism,
IEEE Transactions on Parallel & Distributed Systems (TPDS),
vol. 32,
no. 7,
pp. 1641-1652,
July 2021.
国際会議発表 (査読有り)
-
Jens Domke,
Emil Vatai,
Alexsandr Drozd,
Peng Chen,
Yosuke Oyama,
Lingqi Zhang,
Shweta Salaria,
Daichi Mukunoki,
Artur Podobas,
Mohamed Wahib,
Satoshi Matsuoka.
Matrix Engines for High Performance Computing: A Paragon of Performance or Grasping at Straws?,
International Parallel and Distributed Processing Symposium (IPDPS 2021),
May 2021.
-
Yosuke Oyama,
Naoya Maruyama,
Nikoli Dryden,
Peter Harrington,
Jan Balewski,
Satoshi Matsuoka,
Marc Snir,
Peter Nugent,
Brian Van Essen.
Toward Training a Large 3D Cosmological CNN with Hybrid Parallelization,
48th International Conference on Parallel Processing (ICPP 2019),
Aug. 2019.
-
Yosuke Oyama,
Tal Ben-Nun,
Torsten Hoefler,
Satoshi Matsuoka.
u-cuDNN: Accelerating Deep Learning Frameworks with Micro-Batches,
GPU Technology Conference 2019 (GTC2019),
Mar. 2019.
-
Yosuke Oyama,
Tal Ben-Nun,
Torsten Hoefler,
Satoshi Matsuoka.
Accelerating Deep Learning Frameworks with Micro-batches,
IEEE Cluster 2018,
Sept. 2018.
-
Ikuro Sato,
Ryo Fujisaki,
Yosuke Oyama,
Akihiro Nomura,
Satoshi Matsuoka.
Asynchronous, data-parallel deep convolutional neural network training with linear prediction model for parameter transition,
The 24th International Conference On Neural Information Processing (ICONIP 2017),
International Conference on Neural Information Processing,
volume 10635,
pp. 305-314,
Nov. 2017.
-
Yosuke Oyama,
Akihiro Nomura,
Ikuro Sato,
Hiroki Nishimura,
Yukimasa Tamatsu,
Satoshi Matsuoka.
Predicting Probabilistic Parameters of a Large-Scale Asynchronous SGD Deep Learning System,
GPU Technology Conference 2017 (GTC 2017),
May 2017.
-
Yosuke Oyama,
Akihiro Nomura,
Ikuro Sato,
Hiroki Nishimura,
Yukimasa Tamatsu,
Satoshi Matsuoka.
Predicting Statistics of Asynchronous SGD Parameters for a Large-Scale Distributed Deep Learning System on GPU Supercomputers,
2016 IEEE International Conference on Big Data (IEEE BigData 2016),
Dec. 2016.
-
Yosuke Oyama,
Akihiro Nomura,
Ikuro Sato,
Hiroki Nishimura,
Yukimasa Tamatsu,
SATOSHI MATSUOKA.
Training Condition Conscious Performance Modeling of an Asynchronous Data-Parallel Deep Learning System,
ACM Symposium on High-Performance Parallel and Distributed Computing,
May 2016.
国際会議発表 (査読なし・不明)
-
Yosuke Oyama,
Naoya Maruyama,
Nikoli Dryden,
Peter Harrington,
Jan Balewski,
Satoshi Matsuoka,
Marc Snir,
Peter Nugent,
Brian Van Essen.
Toward Training a Large 3D Cosmological CNN with Hybrid Parallelization,
The 1st Workshop on Parallel and Distributed Machine Learning 2019 (PDML'19),
Aug. 2019.
-
Yosuke Oyama,
Hiroki Ohtsuji,
Jun Kato,
Kosuke Suzuki,
Mitsuru Sato,
Eiji Yoshida.
Partially-Decompressible Dictionary Based Compression Format for All Flash Array,
1st Joint International Workshop on Parallel Data Storage & Data Intensive Scalable Computing Systems (PDSW-DISCS’16),
Nov. 2016.
国内会議発表 (査読なし・不明)
-
Yosuke Oyama,
Naoya Maruyama,
Nikoli Dryden,
Peter Harrington,
Jan Balewski,
Satoshi Matsuoka,
Marc Snir,
Peter Nugent,
Brian Van Essen.
Toward Training a Large 3D Cosmological CNN with Hybrid Parallelization,
第170回ハイパフォーマンスコンピューティング研究発表会,
July 2019.
-
土川 稔生,
遠藤 敏夫,
野村 哲弘,
近藤正章,
大山 洋介,
松岡 聡.
メモリアクセスデータを用いた機械学習によるアプリケーションの類型化,
並列/分散/協調処理に関するサマーワークショップ(SWoPP2019), 情報処理学会研究報告, 2019-HPC-170 No.12,
July 2019.
-
土川稔生,
大山洋介,
野村哲弘,
松岡聡.
機械学習による計算機トレースの自動生成,
並列/分散/協調処理に関するサマーワークショップ (SWoPP2018),
Aug. 2018.
-
八島慶汰,
大山洋介,
松岡聡.
深層学習におけるBatchNormalization使用時の計算時間と精度の関係性,
並列/分散/協調処理に関するサマーワークショップ (SWoPP2018),
July 2018.
-
Yosuke Oyama,
Tal Ben-Nun,
Torsten Hoefler,
Satoshi Matsuoka.
Less is More: Accelerating Deep Neural Networks with Micro-Batching,
第162回ハイパフォーマンスコンピューティング研究発表会,
Dec. 2017.
-
大山洋介,
野村哲弘,
佐藤育郎,
松岡聡.
ディープラーニングのデータ並列学習における少精度浮動小数点数を用いた通信量の削減,
第158回ハイパフォーマンスコンピューティング研究発表会,
Mar. 2017.
-
大山洋介,
野村哲弘,
佐藤育郎,
西村裕紀,
玉津幸政,
松岡聡.
学習条件を考慮した大規模非同期ディープラーニングシステムの性能モデリング,
並列/分散/協調処理に関するサマーワークショップ(SWoPP2016),
Aug. 2016.
その他の論文・著書など
-
Jens Domke,
Emil Vatai,
Alexsandr Drozd,
Peng Chen,
Yosuke Oyama,
Lingqi Zhang,
Shweta Salaria,
Daichi Mukunoki,
Artur Podobas,
Mohamed Wahib,
Satoshi Matsuoka.
Matrix Engines for High Performance Computing: A Paragon of Performance or Grasping at Straws?,
Oct. 2020.
公式リンク
-
Yosuke Oyama,
Naoya Maruyama,
Nikoli Dryden,
Erin McCarthy,
Peter Harrington,
Jan Balewski,
Satoshi Matsuoka,
Peter Nugent,
Brian Van Essen.
The Case for Strong Scaling in Deep Learning: Training Large 3D CNNs with Hybrid Parallelism,
July 2020.
公式リンク
-
Yosuke Oyama,
Tal Ben-Nun,
Torsten Hoefler,
Satoshi Matsuoka.
μ-cuDNN,
July 2018.
公式リンク
-
Yosuke Oyama,
Tal Ben-Nun,
Torsten Hoefler,
SATOSHI MATSUOKA.
μ-cuDNN: Accelerating Deep Learning Frameworks with Micro-Batching,
Apr. 2018.
公式リンク
特許など
-
松岡聡,
野村哲弘,
大山洋介,
佐藤 育郎,
藤崎 亮.
学習システムおよび学習方法.
特許.
登録.
国立大学法人東京工業大学, 株式会社デンソーアイティーラボラトリ.
2016/12/27.
特願2016-253169.
2018/07/05.
特開2018-106489.
特許第6704583号.
2020/05/15
2020.
-
松岡聡,
野村哲弘,
大山洋介,
佐藤 育郎 ,
西村 裕紀 .
予測装置、予測方法および予測プログラム.
特許.
登録.
国立大学法人東京工業大学, 株式会社デンソー, 株式会社デンソーアイティーラボラトリ.
2016/07/29.
特願2016-150221.
2018/02/01.
特開2018-018422.
特許第6635265号.
2019/12/27
2019.
学位論文
-
Hierarchical Hybrid Parallel Training of Large-Scale Convolutional Neural Networks,
Exam Summary,
Doctor (Science),
Tokyo Institute of Technology,
2021/03/26,
-
Hierarchical Hybrid Parallel Training of Large-Scale Convolutional Neural Networks,
Summary,
Doctor (Science),
Tokyo Institute of Technology,
2021/03/26,
-
Hierarchical Hybrid Parallel Training of Large-Scale Convolutional Neural Networks,
Thesis,
Doctor (Science),
Tokyo Institute of Technology,
2021/03/26,
[ BibTeX 形式で保存 ]
[ 論文・著書をCSV形式で保存
]
[ 特許をCSV形式で保存
]
|