トップダウン転送のディープラーニングモデル

(だけではなく、訓練中)トップダウンの情報伝達のいくつかの並べ替えを利用深い学習モデルはありますか?

たとえば、モデルが音声認識に使用されている場合。下層はサンプルを聴き、「1つの単語」、「2つの単語」、このサンプルが何であるか理解できません。そして、上層部は次のように示唆しています。「3つの言葉がありますが、それは「1つ」と「2つの」の後には珍しくありません。そして、下層は次のようになります: "あなたが言ったので、もちろんそれは" 3 "です

このようなアーキテクチャは、特に騒々しい環境での信頼性の高い音声認識の要件であると私は確信しています。

2
このようなモデルがありますが、通常、下位レイヤーはフィードバックに基づいて初期の予測を調整するために「戻る」ことはありません。代わりに、上位レイヤーによって解釈される可能性があります。例えば。 p( 'one'、 'two'、 'foray')は、低レベルで最も可能性が高いと考えられますが、その発話の可能性に基づくより高いレベルは( 'one'、 'two'、 'three'個々の単語マッチングに基づいている可能性は低くなりましたが、言語的にはより合理的でした。
追加された 著者 Jeff Ferland,
しかし、ディープ・ラーニング・スピーチ・モデルが実際にこれを明示的に行うかどうかはわかりません。誰かがそのような評価レイヤーを組み込んだり、2つの別々のモデルを訓練して、より複雑なパイプラインに参加させたりします。エンドツーエンドモデルでは内部的に発生する可能性がありますが、表示/定量化は困難です。
追加された 著者 Jeff Ferland,

答えはありません

0