2021年12月03日 第11回

  1. Demoの映像を見たときに
    カオスが加わったときの影響の大きさを実感することができた.
    また,
    カオスを加えた時は2-optや2-opt+Or-optの時のように
    一定の値にならず振れ幅が大きくなることを学んだ.

    実感してくれましたか.

  2. NSモデルについてカオスが表現できず
    合成による解析で改良されるという実際の流れを追うことができた.
    何回も強調されていた,
    うまくモデルが結果と一致しなくてもあきらめずに改良を続けるということが印象に残った.
    シグモイド関数を使うことでしっかりカオス性が確認できた時はかなり感動した.

    大切なところですね.感動してくれましたね.良かったです.

  3. 今回の講義では,
    合成による解析を用いてNSモデルを改良する方法について学んだ.
    NSモデルではカオスが生じないことに対し,
    実際のヤリイカの軸索ではカオス的な応答が見られるといった相違点があり,
    合成による解析によって元のモデルを改良することによって,
    カオスニューロンモデルが構築されたことを理解することができた.
    このように,
    実験結果が想定と違った場合,
    パラメータを変えたり,
    モデルを修正するなどして,
    実験を続けていく考えや姿勢はとても大切だと感じたので,
    卒業研究などにも活かしたいと思った.

    ぜひ生かしてください.うまくできると良いと思います.

  4. カオスニューロンモデルが神経発火の複雑さを再現し,
    TSPなどの組合せ最適化に応用され性能向上につながる点が印象的だった.
    神経現象の理解が計算手法の発展に結びつくことを実感した.

    実感してくれて良かったと思います.

  5. 今回の講義では,
    従来の NS モデルでは表せなかった複雑な挙動に対して,
    カオスニューロンがどのようにアプローチできるのかを学んだ.
    特に,
    実際のデモを通して近似解法としての動作を確認でき,
    2-opt との性質の違いも理解しやすかった.
    通常のモデルでは扱いにくい問題に対して,
    カオス的な性質を取り入れる利点を実感した.

    そうなのです.カオスをうまく使うといろいろとできるということなのです.

  6. 画像認識モデルの学習に取り組む中で,
    学習精度に関する考察をする際に,
    モデルが悪いのか,
    データが悪いのか,
    パラメータ設定が悪いのか,
    どこに原因があるのか判断できないという悩みがありました.
    しかし,
    「合成による解析」という考え方を知り,
    この疑問に対する有効なアプローチになり得ると感じました.
    さまざまな情報を用いた実験に適用できそうで,
    とても大きな気づきとなりました.
    Demoのおかげで,
    カオスを加えることによって局所最適解から抜け出せることを視覚的に理解できました.
    完全に落ち着いた動作よりも,
    多少カオスが存在するネットワークの方が優秀なんですね

    そうですね.揺らぎが大切ですね.
    ただ,ランダムとは違うのでそこもポイントです.

  7. 来年には,
    合成による解析のサイクルのように
    何回も試行を繰り返してるかもと考えると少し怖くなってきました.
    研究を楽しめるマインドでやれるといいなと思った.

    怖いことはないですよ.ぜひ楽しんでください.

  8. 今回の講義では,
    南雲・佐藤モデルとその改良版であるカオスニューロンモデル,
    さらにTSPへの応用について学んだ.
    不連続なステップ関数からアナログのシグモイド関数に変更するだけで,
    カオスが現れるようになる点が意外だったが,
    写像の傾きが1を超えて,
    不安定になるからという説明を聞いて,
    納得できた.

    納得してくれましたか.理解してくれて良かったと思います.

  9. 大学2年生の前期講義の一つ「プログラミング演習2」の最後の課題で
    巡回セールスマン問題でユークリッド距離が最小になるようにするという
    グループ発表課題に取り組んだ際に,
    ~-optの考え方を用いて課題に取り組んだのを思い出した.
    その際にはカオスを活用することで大域的最適解にアクセスするという発想は浮かばなかったが,
    今回の講義で学習した内容を使って課題に取り組み直してみたいと思った.

    素晴らしい.ぜひやってみましょう.

  10.  NSニューロンモデルの改良の手法と,
    カオス性を含むことによる利点は素晴らしいと感じた.

    そうですね.うまく改良できていますよね.

  11. 今日の授業では,
    2-optやor-optとカオスを混ぜるとどの様になるのかを動画を通すことでわかりやすく理解することができた.

    理解してくれて良かったと思います.

  12. 南雲・佐藤モデルにおいて,
    説明できない生体の連続的な応答を,
    カオスニューロンモデルがどのように再現しているかという構築のプロセスが非常に興味深かった.
    また,
    カオスが単なる不規則な挙動ではなく,
    巡回セールスマン問題などで局所解から脱出するための有効な機能として働いている点を理解できた.

    そうなのです.脱出することにうまく使っているということです.

  13. 本日の講義では,
    NSモデルでは十分に再現できなかったカオス的な振る舞いを,
    どのように改良していくかという話が印象に残った.
    特に,
    CNモデルでは分岐図上で明確にカオスが現れ,
    NSモデルと比べて表現できるダイナミクスの幅が広がるという点が面白かった.
    また,
    カオスを利用して離散最適化問題を解くという応用にも驚いた.
    カオスと最適化がどう結びつくのかあまりイメージできなかったが,
    2-optのような近似解法にカオス的な揺らぎを加えると,
    局所解にとらわれずにより良い解へ抜け出せる,
    という説明を聞いて納得した.
    カオスが単なる不規則さではなく,
    うまく利用すれば性能を高める手段になるという考え方は新鮮だった.

    いいコメントですね.その通りです.ちゃんと理解してくれたようで良かったと思います.

  14. 今回の講義では,
    まず従来型の NS ニューロンが持つ振る舞いと,
    その内部で用いられるステップ関数がカオス性の再現を妨げてしまう仕組みを整理した.
    その後,
    この制約を乗り越えるために考案されたカオスニューロンモデルの動作原理を確認し,
    実際に近似解として応用した例をデモを通して検討した.
    さらに,
    2-opt 法との比較結果も踏まえることで,
    このモデルがどの場面で強みを発揮するのかを具体的に把握することができた.

    理解してくれましたね.うまくカオスを使うということですね.

  15. 本日の講義では,
    NSニューロンモデルぬついて学習した.
    提唱したモデルが現実の現象をうまく説明できないときにどのように修正するかを知り,
    自分の研究が行き詰ったときに生かせると感じた.

    うまく活かしてください.

  16. 今回の講義では,
    まず NS ニューロンの特性と,
    NS モデルがステップ関数に依存するためカオス的振る舞いを再現できないという背景について学んだ.
    続いて,
    その課題を克服するために提案されたカオスニューロンモデルの特徴を理解したうえで,
    実際にこのモデルを近似解法として用いたデモンストレーションを確認した.
    他の近似解法である 2-opt との比較も通じて,
    カオスニューロンモデルがどのような性能を発揮するのか,
    より深く理解することができた.

    理解できたようですね.良かったと思います.

  17. 今回の講義では以前よりもさらにカオスが関わってきて興味深かった.
    特に最後のデモンストレーションでは2-optやOr-optの,
    動き方がわかり,
    理解が深まった.

    今回紹介した動画では,うまく探索して,カオスを用いると
    最適解となる例を紹介できました.

  18. 南雲佐藤ニューロンモデルに基づいて計算する場合,
    過去の履歴を保持し,
    一々計算する必要があるという問題がありました.
    その解決のため,
    y(t+1)の計算にy(t)を利用しましたが,
    音声音響処理で過去の信号を無限に用いるIIRフィルタを処理できるようにするため,
    前回の出力を利用するのと類似していました.
    分野がずれていてもアイデアは共有でき,
    また数式によって取り扱うことで表層に囚われにくくなると思いました.
    以前,
    プログラミングの授業でTSPのソルバを実装した際,
    かなりの数のアルゴリズムを試してなんとか性能を高めましたが,
    その時にカオスニューラルネットワークを知っていればと悔しいところでした.

    まだ間に合いますよ.これから試してみてください.

  19. 今日の授業では2-optよりもカオスやOr-optを追加することで
    より良い順回路が得られることを最後に学んだ.
    適用する問題にもよるとは思うが,
    より複雑化した時に2-optの場合とより差が出るように思い,
    面白いと思った.
    気になったのは計算量的に4-optとかを実装した場合とカオスを用いる場合どちらが大変なのかと,
    実際の精度について気になった.

    いいコメントですね.LK法の話を紹介しましたが.それに関連します.
    次回触れましょう.

  20. 南雲ニューロンモデルでロジスティック写像が出てきたくだりでは
    学習のつながりを感じました.

    確かに繋がっていますね.

  21. 今回の講義では,
    ニューロンが単なる入力加算だけでなく,
    過去の発火履歴や非線形性を含む動的システムとして振る舞うことを理解した.
    特に,
    南雲・佐藤モデルの不応性や,
    カオスニューロンモデルが示す分岐図から,
    パラメータのわずかな変化で周期的発火からカオスへ遷移する点が印象に残った.
    また,
    カオスの性質がTSPなどの組合せ最適化の探索効率向上に応用できる点も興味深かった.

    理解してくれていると思います.

  22. CNモデルにおいて,
    NSモデルでは見られなかった複雑な分岐図が得られ,
    カオス特有の挙動が確認できる点は非常に興味深かった.

    そうですね.分岐図からもカオスが発生していることがわかりますね.

  23. カオスニューロンモデルの分岐図が印象的でした.
    パラメータaの変化によって周期解とカオスが見られることから,
    入力が一定であっても,
    ニューロンの出力が周期的なときとカオス的なときがあると理解しました.
    時間的加算による不応性とアナログ性がカオスという現象を生み出し,
    その揺らぎが局所解から脱出を促して最適解に至る過程は,
    人の創発的な学習過程のようで興味深いです.

    おー,いいコメントですね.面白い.