講演名 2000/12/1
スケール変換を伴わない基底関数の線形独立性と神経回路網による有限集合の写像
伊藤 嘉房,
PDFダウンロードページ PDFダウンロードページへ
抄録(和) 活性化関数の概念を高次元に拡張して、一次元空間Rで定義されたシグモイド関数やd-次元空間R^dで定義されたラジアル基底関数を共通の基盤の上で扱い、n個の隠れ層素子をもつ三層神経回路網によるR^dのn個の点からRへの有限写像を扱う.隠れ層素子の入出力関数は活性化関数の線形変換として得られ、出力の基底関数となる.活性化関数がスケール変換されないという条件下でも、三層神経回路網はR^dからRへの有限写像を実現することが出来る.そのような条件下で活性化関数となり得る関数のクラスも十分に広い。この報告は、任意のシグモイド関数にたいして得られている結果((Ito and Saito(1996))を拡張するものである。
抄録(英) In this paper, activation functions of neural networks are extended to higher dimensional functions. Accordingly, the sigmoid function and the radial basis function can be treated on the common base. We show that a three layered feedforward neural network having n hidden layer units can implement a mapping of n points of R^d into R without scaling the activation function. Even under this restriction, still wide is the class of functions which can be used as activation functions for the finite mapping b the neural network. However, they must be slowly increasing because theory of distribution is the proofs. The result extends Ito and Saito(1996b), where sigmoidal activations function are not scaled.
キーワード(和) 三層神経回路網 / 高次元活性化関数 / スケール変換を伴わない活性化関数 / 有限写像
キーワード(英) Three Layered Neural Network / Higher Dimensional Activation Function / Unscaled Activation Function / Finite Mapping
資料番号 NC2000-73
発行日

研究会情報
研究会 NC
開催期間 2000/12/1(から1日開催)
開催地(和)
開催地(英)
テーマ(和)
テーマ(英)
委員長氏名(和)
委員長氏名(英)
副委員長氏名(和)
副委員長氏名(英)
幹事氏名(和)
幹事氏名(英)
幹事補佐氏名(和)
幹事補佐氏名(英)

講演論文情報詳細
申込み研究会 Neurocomputing (NC)
本文の言語 JPN
タイトル(和) スケール変換を伴わない基底関数の線形独立性と神経回路網による有限集合の写像
サブタイトル(和)
タイトル(英) IMDEPENDENCE OF UNSCALED BASIS FUNCTIONS AND FINITE MAPPINGS BY NEURAL NETWORKS
サブタイトル(和)
キーワード(1)(和/英) 三層神経回路網 / Three Layered Neural Network
キーワード(2)(和/英) 高次元活性化関数 / Higher Dimensional Activation Function
キーワード(3)(和/英) スケール変換を伴わない活性化関数 / Unscaled Activation Function
キーワード(4)(和/英) 有限写像 / Finite Mapping
第 1 著者 氏名(和/英) 伊藤 嘉房 / Yoshifusa Ito
第 1 著者 所属(和/英) 愛知学院大学 情報社会政策学部
Aichi-Gakui University
発表年月日 2000/12/1
資料番号 NC2000-73
巻番号(vol) vol.100
号番号(no) 490
ページ範囲 pp.-
ページ数 7
発行日