ネットワークは、一般に、生成モデルの情報なしで識別することを学ぶ。これが、不変ではないことを学ぶ傾向がある理由です。これは、きめ細かな分類作業でも非常に優れたパフォーマンスを発揮する理由です。それらの不変性のレベルは、提供されるデータによって大きく左右されます。したがって、すべてのローテーションをカバーするようにデータを増やすと、ネットワークはローテーションに対して不変であるようになります。これは他のタイプの非自明な変換でも同様です。このような特性は、我々には示されていない変形に対して不変であることを望まないので望ましい。
彼らは、本質的に一定の不変性を発達させていると言っています。これは、主にプールメカニズムによるものです。だから、あなたが(特定の基準に対応して)あなたのプール法を設計するならば、より多くの不変性を達成することができます。
また、$ L ^ 2(R ^ d)$上のMallatの翻訳変換不変式演算子は、Lipschitz - diffeomorphismsの動作に連続しています。彼らは理論的にはコンパクトの行動に対して不変であるようにすることができる
嘘つきのグループ。
Goodfellow et。他の不変性については、ネットワークが発展する可能性があります。