Extreme Learning Machineとは何ですか?なぜ体重の調整が必要ないのですか?

ウィキペディアによれば、

エクストリーム学習機は分類、回帰、       クラスタ化、スパース近似、圧縮および特徴学習を単一の層で行うか、または       隠れたノードのマルチレイヤー。隠れノードのパラメータ(重みだけでなく       入力を隠れノードに接続する)を調整する必要はありません。

どのようにトレーニングセットを実際に見なくてもリンクに値を割り当てることは可能ですか?

今まで私の研究からこれを理解するまで、私は先導しましたが、下の段落から何もできないので満足できません。

任意の不定数のピース単位の連続関数   それは活性化関数として使用されます。   隠れたニューロンが調整されていると、関数は   SLFNは、任意の目標連続関数f(x)を近似する。   そして、任意の連続分布確率に従って、   関数列{h subscript i(x)}は、1からLまでの範囲でランダムに生成できます。   それは普遍的な近似能力を有し、これは   $$ \ lim_ {L→\ infty} || L i =1βihi(x)-f(x)|| = 0 $$   確率で成立する   適切な出力重み$β$を持つものを選択します。

SOURCE:大規模並列並列化アルゴリズム エクストリームラーニングマシンを用いたデータ、神経回路網上のIEEEトランザクション2017

誰かが例を挙げてこれを証明したり説明したりできますか?

また極端な学習機械に関する余分な知識は非常に歓迎されます。

2
このリンクが参考になるかもしれません。
追加された 著者 Eugene Lazutkin,
あなたの見積もりに式を修正できますか?それは正しく見えません...
追加された 著者 oW_,

1 答え

ELMは実際には一般化線形問題を解決しています。

\ begin {equation} H \β= Y \ end {方程式}

ここで$ H $は隠れ層出力の行列、$ \ beta $は隠れ層と出力層を結ぶ重みベクトル(または行列)、$ Y $は学習の目標を表しています。

目標は、Hの疑似逆行列を使って$ \ beta $を見つけることです。

この問題を解くことは、最小二乗問題$ || H \ beta - T || $の最小値を達成する$ \ beta $を見つけることと同じです: \ begin {equation} \ beta = \ underset {\ text {min}} \ left \ vert \ left \ vert H \ beta - T \ right \ vert \ right \ vert \ end {方程式} あなたの質問に答える

実際にトレーニングセットを見ずにリンクに値を割り当てることは可能ですか?

$ H $は活性化関数に依存するので、入力層と隠れ層をつなぐ初期化された重み行列と各隠れノードバイアスにはすべての入力情報が含まれ、$ \ beta $を一貫して調整することによって学習が保証される。

詳しくは、 ELM理論と応用またはこの ELMプレゼンテーションなどです。

2
追加された