2021年11月29日 第10回

  1. ニューラルネットワークの同期更新や非同期更新,エネルギー関数について理解することができた.

    理解してくれたようで良かったと思います.

  2. 今回の授業では,ニューラルネットワークが状態更新をするとか必ずエネルギー関数は減少することを知りました.
    次回の授業でこのことを最適化問題にどう応用するか気になりました.

    最適化については次回説明します.

  3. 今日の講義でニューラルネットワークの構造について大きくフィードバック型とフィードフォワード型に分類して
    その仕組みについて図式化や式の導出によってよく学べたので良かったです.

    よろしいと思います.

  4. ニューロン数やエネルギー関数についての講義を聞きました.
    今回は状態更新を非同期としたが,同期更新の場合についても知りたいです.

    講義では説明したと思いますが,次回,再度触れたいと思います.

  5. エネルギー関数の差分を考えたときに,ニューロンの式が出来てきたのはうまく考えられているなと思った.

    確かにうまくできていますね.

  6. 講義中はわかったつもりになっているが,
    後から見直してみると自分で説明することができず(特にエネルギー関数)復習をしなければならないと感じた.

    自分で説明できるかどうかは,大切ですね.

  7. エネルギーについて実際の数式でその動きを確認することでより理解が深まったと感じた.

    よろしいと思います.

  8. ニューラルネットワークのFeed fowardとFeed backについて知り,
    特にFeed backにおけるエネルギー関数としての捉え方を知ることができました.
    ネットワークが状態更新するとエネルギー関数は必ず減少するというところに対して,
    数式的には理解できたのですが,実際具体的にどのような状況が生じているのかうまく想像ができず引っかかってしまいました.

    次回,お話しします.

  9. ニューラルネットワークが対称性を持ち,自己結合しないという仮定がある事で,
    エネルギー関数はニューラルネットワークの状態更新によって減少するが,
    この性質はどのように利用されるのかが気になった.

    講義でも述べましたが,一つの応用として最適化問題があります.

  10. ニュートンの形式モデルを勉強したときに対して式の形が複雑になってきているので学習しなおしたいと思いました.
    最適化などほかの講義で学んだ単語が出てきたりそれぞれつながっているのだなと思いました.

    ニュートン?