電子情報通信学会 研究会発表申込システム
研究会 開催スケジュール
技報閲覧サービス
技報オンライン
‥‥ (ESS/通ソ/エレソ/ISS)
技報アーカイブ
‥‥ (エレソ/通ソ)
    [Japanese] / [English] 
研究会名/開催地/テーマ  )→
 
講演検索  検索語:  /  範囲:題目 著者 所属 抄録 キーワード )→

すべての研究会開催スケジュール  (すべての年度)

講演検索結果
 登録講演(開催プログラムが公開されているもの)  (日付・降順)
 5件中 1~5件目  /   
研究会 発表日時 開催地 タイトル・著者 抄録 資料番号
IPSJ-MPS, IPSJ-BIO
(共催)
NC, IBISML
(併催)
(連催) [詳細]
2019-06-18
13:55
沖縄 沖縄科学技術大学院大学 古典的なニューラルネットワークの問題点と加算型及び結合型ショートカットによる改善
古庄泰隆池田和司奈良先端大
多層パーセプトロン(MLP)などの古典的なニューラルネットワークは層を積み上げ過ぎると訓練誤差ですら悪化する問題がある.... [more] NC2019-17 IBISML2019-15
pp.75-80(NC), pp.97-102(IBISML)
IPSJ-MPS, IPSJ-BIO
(共催)
NC, IBISML
(併催)
(連催) [詳細]
2019-06-18
14:20
沖縄 沖縄科学技術大学院大学 ResNetとbatch-normalizationによるデータ分離能力の向上
古庄泰隆池田和司奈良先端大
ResNetのショートカットとbatch-normalization(BN)は膨大な数の層を持つディープニューラルネット... [more] NC2019-18 IBISML2019-16
pp.81-86(NC), pp.103-108(IBISML)
IPSJ-MPS, IPSJ-BIO
(共催)
NC, IBISML
(併催)
(連催) [詳細]
2019-06-18
14:45
沖縄 沖縄科学技術大学院大学 Fixup initializationの理論解析: 学習の高速化とResNetの汎化能力向上
古庄泰隆池田和司奈良先端大
FixupはResNetのパラメータの新しい初期化方法で,確率的勾配降下法で大きな学習率を設定できるため学習が高速化し,... [more] NC2019-19 IBISML2019-17
pp.87-92(NC), pp.109-114(IBISML)
IBISML 2019-03-06
10:00
東京 理研AIP Batch-normalizationがResNetのフィッシャー情報行列に与える影響の理論解析
古庄泰隆池田和司奈良先端大
ResNetを学習する際に様々なテクニックが使われている.
Batch-normalization(BN)はその1つで... [more]
IBISML2018-110
pp.39-44
IBISML 2019-03-06
10:30
東京 理研AIP ニューラルネットワークの隠れ層のユニット数とReLU関数が汎化能力に与える影響の理論解析
古庄泰隆池田和司奈良先端大
一般的に大きすぎる学習モデルは訓練データに過学習するが,驚くべきことに活性化関数にReLU関数を持つニューラルネットワー... [more] IBISML2018-111
pp.45-50
 5件中 1~5件目  /   
ダウンロード書式の初期値を指定してください NEW!!
テキスト形式 pLaTeX形式 CSV形式 BibTeX形式


[研究会発表申込システムのトップページに戻る]

[電子情報通信学会ホームページ]


IEICE / 電子情報通信学会