2008年1月23日 第15回

  1. 今日はなぜかとても理解できました.
    今までやってきた事がやっとつながりました.

    成長しましたね.

  2. 今日はかなり速かったです.
    でもメモも結構とれたのでかなり有意義でした.
    たくさんの人が様々な視点から改良を加えていくことによって完成度の高いモデルができるのだと思いました.
    ニューロンモデルの歴史をたどった1時間半でした.

    後半は確かに早足になりましたが,でも,今日は皆さんちゃんと
    ついてきてくれたように感じました.
    メモも取れたのであれば,完璧ですね.

  3. 今日は最初の方, 寒さで手が動かしづらく, メモがもの凄くとりにくくてしんどかったです.
    先生が言ったように, 確かに今日速かった気もしました.
    よく見なおしたら一個抜けているところが….
    友達に見せてもらいます….

    抜けているところは,カオスニューロンの定義式から,
    一次元写像に帰着させるところです.
    でも,ここは,南雲・佐藤ニューロンモデルと同じなので,
    そこを見てもらえば,分かるはず.

  4. 最近は進むのが速くニューロンモデルについての話もややこしかったので復習します.

    一般的に大学の講義であれば,これぐらいは普通です. もう3年生も終わりなので,
    あまり甘えたことを言わないように.

  5. 今日は雪が降りましたね.
    来週最後の授業とは, 時が経つのは早いものです.
    今日はハイスピードな講義でした.
    次回のカオスについての講義が楽しみです.
    ちなみに私は86年生まれで, 2月8日です.
    もうすぐです.

    もっと講義の中味についてコメントできるようにならないと,
    困りますね.

  6. 数式がものすごく多くて難しかった.
    モデル化の問題は作って作り直しての繰り返しで ものすごく辛抱強さが必要なんだなと思った.

    今日の程度の数式の量は大したことはありません.
    もっと普段から式を通じて理解をできるようにしないと
    これから困りますよ.

  7. 今日はいろいろつめ込まれていて濃い内容だったので話についていくのが大変だった.

    復習してください.

  8. NNHでの局所解に陥ってしまった場合での解決策として揺らがせると言っていたが, 具体的にどのように行なうのかが無く, 詳しく説明してもらいたかった.
    左図の様に….

    HNNの解決策に着いては,ノイズを状態値に載せるというのを紹介しました.
    また,もう一つの方法がカオス的に揺らがせるというものですが,
    これについては,今回は紹介しておらず,
    次回(最終回)に紹介する予定です.

  9. また, xkをいろいろな場所からスタートさせるだけで問題は解決するのではないかと思った.

    すばらしい.
    それは正解の一つです.

  10. 総合演習でやったTSPが, 2-Optを使う方法はなかなか優れてるんだと思った.
    カオスをとりこめば2-Optもさらに良いものとなるのだろうか?

    なります.これは次回紹介します.

  11. 無量大数なんて初めて聞きました.
    TSPとかは興味をひかれます.

    そうですか?「無量大数」は,うちの子供も知ってますよ.
    TSPは面白いですね.確かに.

  12. HNNを用いたTSPを解くアルゴリズムの計算量はニューロン数のN2に比例するのですか?
    それともシナプス結合数N4に比例するのですか?
    O(N2)でも現実的には厳しい気がします.

    最適解を求める手法じゃないので,この場合計算量という考えが当てはまるかどうか,
    多分,あまり意味はないと思います.僕もちょっと間が手見ますが.
    何れにしても,計算をする際のメモリは,
    N4分必要ですね.

  13. HNNがTSPに応用されたり, これまで出てきたモデルの関係や, カオスへも関連してくるなど, 多くのことがつながってきてとてもおもしろかった.
    特にTSPへの応用は, タイムリーで興味がもてた.

    確かに,この方法はtoy problemにしか通用しないとは言え,
    非常に面白いですね.TSP自体は,とても大きなサイズの問題が解かれているので,
    ニューラルネットワークを用いる方法は,あまり現実的では有りませんが,
    二次割当問題等は,まだまだ最適解が知られている問題のサイズが小さいので,
    このような手法を用いるのも有効かも知れません.

  14. 自分は巡回セールスマン問題は総合演習でやっていない方のグループだったのですが, やった人たちが大変だ大変だという理由が今日の授業でよく分かりました.

    そうですか?みんな楽しんでやってましたよ.

  15. 今やっている総合演習と話がかぶっていたので90分集中して聞けました.
    合成による解析はすごくためになった気がします.

    ためになったのであれば,僕としてもとても良かったと思います.
    この調子で進んで下さい.

  16. この講義を受けてから, 総合演習のTSPに取り組みたかったです.
    時間があったらニューラルネットワークを用いたTSPの解法を実装してみたいです.

    ウーム,確かにそれはその通りなのですが,
    でも,ちょっと難しいですかね.
    君にはもう関係ないでしょうが,
    来年の授業では構成も間が直してみます.
    何れにしても,TSPの解法はいろいろと有り,
    それぞれ面白いので,試してみてください.
    「時間があったら」なんていわずに.

  17. ETSPで違和感があったが問題点2で自己解決した.
    1,2,3項は実行可能解が出たともに小さくなるだけで, ニューラルネット自体は実行不可能な解も出してしまうんですね.

    自己解決できたのであれば,良いと思います.
    実行不可能解については,その通りです.

  18. 最後のモデル間の関係の図が解りやすかった.
    いろいろな拡張をやってきたが, ようやく一番大きなモデルにたどり着くことができた感じで良かった.

    ある意味一番大きいかもしれません.
    ただ,次回話しますが,このモデルは,
    生理学的応答を再現している訳ではないので,そのあたりを注意.

  19. 巡回セールスマン問題の歴史的な話も聞けておもしろかったです.
    口頭試問とレポートが不安ですが最後の講義も楽しみにしています.

    楽しみにしていてください.
    口頭試問は厳しいですよ〜

  20. HNNがTSPにつかえるとは驚いた.
    全く違った分野の知識があるところで役に立つことはよくあるようだが, そのような発見をするにはやはり柔軟な頭脳が大切なのかなと思う.

    柔軟な頭脳というより,
    その人の姿勢なのかもしれません.

  21. まさかここでTSPが出てくるとは思いませんでした.
    ニューロンを用いてTSPを解こうとするのはすごいと思いました.

    確かに凄いですね.
    でも,物理の皆さんって,そういう凄い人たちが多いように思います.

  22. モデルを比較することで, 各モデルの位置づけが理解できました.
    やはり, カオスはすごいみたいですね.
    最終回を楽しみしておきます.

    カオスは面白いですね.
    次回楽しみにしていてください.
    体調を整えてくるように..
    盛り上がりますよ〜

  23. 講義の最後で, 重みを1→fに変換することで, カオス的な挙動を再現できたのはすごいなと思いました.
    研究って大変そうだなーって思いました.

    確かにこれは面白いと思います.
    でも,こうしていろいろな成果を自分で見つけていく研究は,
    面白いと思いませんか?

  24. モデル間の関係を復習して, ニューロンについての理解を深めたいと思った.

    ぜひ深めてください.

  25. モデル間の関係を表でまとめた最後の資料はとても分かりやすかったです.

    僕もこれは恩師の合原一幸先生から習いましたが,
    とても分かりやすいですね.

  26. 少しずつのアイディアで, 少しずつ改良していく様子がよくわかり, とてもおもしろかったです.

    そうそう,それが分かってくれたら,
    僕としては成功です.

  27. NSニューロンモデルのステップ関数をシグモイド関数にしたことで, カオスニューロンになるということに感動しました.
    リパプノフ指数を見ると, λ<0の時はa=0.5中心に対称に, λ>0の時はそうでないように見えます.
    これがカオスですか?

    λ>0はカオスに対応します.
    で,対称性の件ですが,とても良いところに気付いています.
    これは絶対進学やね!

  28. 最近になってやっと勉強が楽しく, 院に行きたいなと悩むこの頃です.

    勉強が楽しいのであれば,
    なおさら,進学しか有りません.
    何を悩んでいる!?
    迷わず進学!進学!進学!進学!進学!

  29. 合成による解析の話は参考になりなました.

    いろいろな場面で出てきます.
    自分でモデルを作る際も考えてみてください.

  30. 最近, 内容が多くて演習がないので, 後でよく復習しようと思った.
    合成による解析の話はとても興味深かった.
    従来のものに改良を加えて, 拡張した上で従来のものを特殊な場合として再現できるのはすばらしいと思った.

    演習自体は,本来は自分でやるものなので,
    復習も兼ねてやってください.
    モデリングについては,今日,紹介した方法はしばしば用いられる
    方法です.ぜひゆっくり考えてみてください.

  31. モデル構築の定石として, 合成による解析を使うというところの図がとても分かりやすく, これからに役立ちそうでした.
    先生の講義を受けると, カオス信者になりそうで恐ろしいです.

    そんなに恐ろしがらずに,
    信者になれば,気が楽になりますよ〜〜〜〜

  32. カタカナ3文字といわれて, カオスと思い浮かばなかったのが残念です.

    修行不足です.
    これから鍛えてあげましょう.

  33. カオスがよく出てくるが他の分野の研究等でもカオスは多くでてきそうだ.

    そうですね.非線形なダイナミクスが有れば,
    カオス的な応答が出現する可能性は十分に高くなります.

  34. 総合演習の配属問題でシミュレーテッドアニリングを使ってプログラムを作りましたが, なかなかよい値が出なかったことを思い出し, カオスニューラルネットワークについて興味をもちました.

    素晴らしい.
    SA自体は非常に重要な考え,方法論ですから,
    総合演習で経験したのは,とても重要な宝になるはず.
    そして,その上で,カオス応答などについて知ることが出来れば,
    もっと素晴らしい.

  35. 今回の講義でこれまでの内容がまとめられていて非常に解り易かったです.
    後半のスピードが速く式の意味を考えきれませんでした.
    もう少し時間を….

    講義自体は90分なので,本来的には困難かもしれません.
    家で考えてみてください.

  36. スピーディーでしたが, 総捲り的に全体を再確認できて良かったです.
    カオスがすごすぎて, 2-opt法への愛がちょっと冷めました.

    なぜに「2-opt法への愛」?

  37. カオスのすごさが伝わってきました.

    次回,さらに熱く語ります.

  38. いたるところでカオスが出現するので前期の非線形を履修してよかったと実感しました.

    はい,その通りです.
    この講義は,前期開講の 「非線形システム概論」 の受講が望ましいとしています.

  39. "カオス"が択山でてきたのがとても印象的な授業でした.

    次回,もっと出てきます.
    楽しみにしていてください.
    最後なので,一緒に盛上がりましょう!

  40. 来ました,    
    こうして見るとカオスって様々な分野で利用されているんですね.
    研究しがいのある分野だと思いました.

    その通りです.楽しい分野です.

  41. 口頭試問できちんと受け答えができるよう勉強をがんばっておこうと思います.

    今までの内容をじっくり自分で悩んで納得してください.
    そうすれば,問題ありません.

  42. 卒論がすごく大変そうに思った.
    何がしたいかを4年までに考えないといけないと思った.

    4年迄じゃおそいかも….

  43. 今日は過去にやった内容が多かったが, 復習が必要だと感じた.
    しかし, 家には山のようなエントリーシート….
    大学生活は部活しかしてこなかったのでそれしか書くことがないんですよね.

    じゃ, 大学院生活をしましょう.