2022年11月21日 第11回

  1. 離散時間に対して離散的に変化し,相互結合型である点で,巡回セールスマン問題とホップフィールドニューラルネットワークは関係があり,巡回セールスマン問題のような最適化問題の解が,エネルギー関数が最も小さくなったときに得られることが分かりました.
    また,本日の講義で非同期更新による状態更新の理解も深まりました.

    よろしいと思います.

  2. エネルギー関数について質問があります.
    エネルギー関数は常に減少させるように動作させるが,結局は局所最適解になってしまう可能性があるという認識であっていますか?

    講義でもお話ししたと思いますが,その通りです.

  3. 初めの授業では脳や脳における神経細胞の仕組みについて学んでいたが,今日の授業ではそれに基づいたモデルを用いたTSPの解法について学んでいて,モデルの応用の広さに驚いた.

    確かに広いですね.

  4. 今日はエネルギー関数を導入することで構成されたHNNについてとTSPへの応用の触りまでを学んだ.
    先週質問したFeedback型がなぜフィードバックなのかという点について,相互結合により他のニューロンを介して過去の履歴が影響する点がわかってスッキリした.
    HNNでは全結合状態から結合係数を更新していくとのことであったが,人間も生後すぐはニューロン同士の結合に差がなく全結合的であるのに対して成長と共に結合強度が変化したり結合がなくなったりすることで学習が行われるので,HNNはまさに脳の成長のモデルなのではないかと思った.
    また,初めにエネルギー関数と聞いた時は,自由エネルギー原理と似たようなものなのかと思ったが,実際は全然様子が違ったので紛らわしいと思った.
    ただ,どちらも(自由)エネルギーと称される指標の最小化問題を行う脳神経のモデルなので,何かしら対応関係がありそうだとも思った.

    色々と考えているようで,よろしいと思います.

  5. 本日の講義ではエネルギー関数についてまなんだ.
    エネルギー関数の部分では,式変形がややこしかったが,先生の説明がわかりやすかったので理解できた.
    最短経路問題やナップザック問題は今までに習ったことがあったので話の流れがつかみやすかった.

    わかりやすかったのであればよかったと思います.

  6. エネルギー関数が巡回セールスマン問題などに対し効果があることなどに驚いた

    うまくできていますね.ただ,TSPへの応用についてはまだ話していないですが...

  7. エネルギー関数の展開式の構成についていけなかったので,自分で展開をして復習します.

    自分でやってみるのは大切ですね.

  8. 他授業でやった巡回セールスマン問題の考え方が使えて面白いなと思いました.

    そうですか.他でもやっているのですね.

  9. HNNが時間が経過するにつれ減少していく関数であることはわかったのですが,どうあいてエネルギーがあのように定義されるのでしょうか?気になりました.

    元々はスピンの話から来ていると思います.元論文を紹介するので調べてみたらどうだろうか.

  10. 今日はTSPについて少し触れました. まさかTSPの解法がエネルギー関数の考えから出てきているとは思いませんでした. HNNをどのように応用してTSPを解くのかとても気になりました.

    それは次回ですね.

  11. エネルギー関数の定義,そしてエネルギー関数がなぜ状態更新に依存せずに必ず減少するのかを,定義式からとグラフを用いて幾何学的に考えることで理解することができた.
    行列の部分やエネルギー関数の減少の証明の時の定義式の途中の変形など自宅でもう一度自分で導けるか試してみようと思う.
    離散最適化,連結最適化のナップザック問題の話も面白かった.
    久しぶりに巡回セールスマン問題に触れて懐かしかった.
    基礎科目で習ったことがニューラルネットワークの講義でも出てきて基礎は大事だなと感じた.

    そうですね.大切だとおもいます.

  12. HNNで定義されたエネルギーは減少するように動作するので,改善されているのがわかりやすくよくできていると思った.
    これをTSPに応用できるのに驚いた.

    面白いですね.