2025年11月19日 第9回

  1. ニューロンモデルの同期,
    非同期処理の違いと,
    エネルギー関数の定義について学習した.
    エネルギーの変化の式を理解するのに苦しんだ.
    状態が変化するとエネルギーが減少するように関数を定義することに意味があるとわかったが,
    具体的なエネルギー値にどのような意味があるのか疑問に思った.

    エネルギー関数については,再度触れましょう.

  2. Feed-forward 型のニューラルネットワークの結合については,
    最近取り組んだ CNN の学習実験と内容が共通していたため,
    理解しやすかったです.
    一方で,
    Feedback 型のグラフは初めて見たため,
    どのような機械学習モデルで利用されているのか調べてみようと思いました.

    色々と使われています.

  3. 今日の講義では,
    ニューラルネットワークの分類と基本アーキテクチャについて学んだ.
    特に,
    相互結合型のHNNに興味を持った.
    HNNは更新方法を非同期更新にすると,
    エネルギー関数を定義でき,
    ネットワークはそのエネルギーが必ず現象するように動作するという点が非常に魅力的であった.
    この性質を利用することで,
    巡回セールスマン問題などの難しい問題に応用できるところが面白いと感じた.
    今後はさらにこの部分について学習していきたい.

    そうですね.欠点もあり,それにも触れますが,
    解法としては面白いと思います.

  4. エネルギー関数の式からエネルギーが常に0以下になることが導かれるというのは面白いと思った.
    しかし,
    この式が何のエネルギーを示しているのかはよく理解できなかった.
    ニューロンがエネルギーを持ってるという認識ですか?

    ニューロンではないですね.次回触れましょう.

  5. TSPは,
    以前授業でアルゴリズムを実装し,
    TSPLIBのデータセットでそれなりの解を得られるようなプログラムを実装しました.
    その際は,
    いくつものアルゴリズムを試し,
    良さそうな物を選んだり,
    組み合わせたりと手間がかかりました.
    ホップフィールドのNNは,
    その際のアルゴリズムとは趣が異なり,
    どういう動作で性能がでるのか,
    以前作ったプログラムと比較して試してみたいと思いました.

    自分でも試してみると良いですね.

  6. 非同期更新は時間ステップごとに一つのニューロンのみが出力を更新する方法という理解で正しいでしょうか.
    更新するニューロンの決め方は調べたところ,
    ランダムとあったのですが,
    更新したニューロンと連接するニューロンほど次に更新される確率が高いなどの設定もあるのだろうかと思いました.

    更新の仕方についてはその通りです.
    また,更新については色々とあるので次回触れましょう.

  7. 授業では,
    まずネットワークの挙動を評価するためのエネルギー関数がどのように導入されるのかを学び,
    その後,
    各ニューロンの状態が切り替わるたびにエネルギーの値がどのように変化していくかを追っていった.
    状態更新の規則とエネルギー変化の式を対応づけていく中で,
    その変化量が常に 0 以下になるよう設計されていることが分かり,
    結果としてネットワーク全体がより安定な状態へと収束していく仕組みを理解できた.
    この「必ずエネルギーが下がるように動く」という視点がとても印象的だった.

    よく理解してくれていますね.

  8. 形式ニューロンモデルは,
    生物ニューロンの加算としきい値の仕組みを単純化し,
    論理演算や線形分離の概念を通じてニューラルネットワークの基礎原理を理解する上で重要であることがわかった.

    よろしいと思います.

  9. 多層化されたモデルや相互に影響し合うネットワークの構造を学ぶ中で,
    「計算の仕組みが生物の神経活動に少しずつ近づいていく」という感覚が強く残りました.
    その一方で,
    単純な形式ニューロンでは扱えない論理が存在し,
    特に XOR のような問題で限界が露わになる点は意外性があり,
    理解が深まるきっかけにもなりました.

    理解できましたかね.

  10. 対称性などの強い仮定をしてエネルギー関数の減少を導いたが,
    そこまで強い仮定をおかずにエネルギー関数のようなものを定義して議論できる他のモデルはあるのか気になった.

    自分でも考えてみると良いですね.

  11. 今回の講義では,
    ニューラルネットワークの分類や基本アーキテクチャ,
    エネルギー関数について理解を深めることができた.
    他の講義でニューラルネットワークを用いたAIを実装していることもあり,
    その仕組みをより深く学びたいと感じた.
    特に,
    エネルギー関数を減少させるように動作するHopfieldニューラルネットワークが
    巡回セールスマン問題といった組合せ最適化に応用できると知り,
    そのつながりがとても興味深かった.

    応用としてはとても興味深いですね.

  12. フィードフォワード型とフィードバック型の二つにニューラルネットワークが分類されることを学んだ.
    特にHopfieldネットワークがエネルギー関数を用いて最適化問題に応用できる点が興味深かった.

    理解できましたか.

  13. 高校数学だけで離散のニューラルネットワークのエネルギー関数を設計することで,
    tspの解に適用できることには驚いた.

    うまくできていますね.

  14. 今回学んだ「エネルギー関数」について,
    ニューロン同士の相互作用がエネルギーという形で表現され,
    ネットワーク全体がエネルギーを最小化する方向へ自然に動くという考え方が,
    物理の概念と神経回路の挙動が結びついていて印象的でした.

    その通りですね.次回触れましょう.

  15. 授業ではまずエネルギー関数の役割を学び,
    ネットワークがどのように式が展開されるかを確認した.
    各ニューロンの更新によってエネルギーが必ず小さくなるよう仕組まれていることが示され,
    ネットワーク全体が自然と安定した構成へ向かう理由が数式レベルで理解できた.
    この性質が,
    複雑な組合せ問題の解探索に適用できる背景になっていることを知り,
    理論と応用のつながりを強く実感した.

    うまく設計されていますよね.

  16. ニューロンの論理演算が面白かった

    今日は論理演算はやっていないですね.

  17. 今日はエネルギー関数などについて学んだ.
    状態の安定性を数値として扱える点が面白かった.

    理解できましたか?

  18. フィードバック型は機械学習に役に立つのではないかと感じた

    そうですね.使われています.

  19. たしかにフィードバックの反対はフィードフォワードだが,
    これまできがつかなかった.

    理解できましたか?

  20. 今回の講義では,
    形式ニューロンによる論理表現や線形分離の限界について改めて理解を深めることができた.
    特に XOR の扱いに見られる単純モデルの限界と,
    そこから拡張モデルや相互結合型ネットワークへと議論が広がる流れが印象的であった.
    計算モデルが徐々に生体神経の特性に近づいていく様子を知り,
    神経回路網理論の奥行きと応用範囲の広さを実感した.

    色々な応用はあります.講義ではほんの一部しか紹介できませんが.

  21. 今回の講義では,
    ニューラルネットのアーキテクチャとエネルギー関数について学習した.
    HNNが非同期更新で,
    重みの対称性と自己結合がないことを仮定した場合,
    ニューロンの状態が変化するたびに,
    エネルギー関数が常に減少していくことがわかった.
    また,
    このようにエネルギー関数が常に減少していくといった性質を,
    巡回セールスマン問題の最短経路探索と対応付け,
    HNNを用いて巡回セールスマン問題を解こうとした発想がとても印象的だった.

    うまく考えられていますよね.

  22. 本日の講義を通じてホップフィールドのNNとエネルギー関数について学んだ.
    対称性と自己結合が無い仮定を導入することで,
    エネルギー変化が常に負になる設定にできているのが,
    面白いと思った.
    結合係数をどう設計して,
    最適化問題を解けるようにするのか気になった.

    次回お話しします.

  23. hopfield NNでニューロンが変化すれば必ず減少エネルギー関数の定義は素晴らしいと思ったが,
    その時点では何に役立つのか分からなかった.
    しかし,
    巡回サラリーマン問題への応用に使うということを知り非常に興味深かった.
    一般的なヒューリスティック解とどの程度違うのかが気になる.

    良いコメントですね.次回話すことになります.

  24. 形式ニューロンから始まる神経回路網の基本的な考え方が理解できて,
    全体の流れがつかみやすかった.
    XOR問題で単層モデルの限界がはっきり示されていたのが印象に残った.
    多層化や相互結合型ネットワークなど,
    発展の方向性もイメージしやすかった.

    理解できたようで良かったと思います.