2013年1月16日 第12回
ニューラルネットワークによる連想記憶で,相互想起が出来るようになると
人工知能の発展につながりそうで面白そうだと思いました.
人工知能と脳科学は違うのでね.
近似解に落ち入らないよう,今のうちから最終レポート頑張ろうと思います.
前期習った内容も少し出てきてなつかしかったです.
近似解でも間違っていませんが,ここでは局所最適解と言ってほしいですね...
ニューラルネットワークの応用としてMPモデルを用いた
連想記憶について良く理解できました.
これはノイズの除去にうまく応用できないのでしょうか?
使えると思いますが,正解が分かってないとだめですね.
決定論と確率論のお話が印象に残りました.特に,留年や
TSP問題で例えたことにより,なぜ確率論が必要であるか,その
大切さや有用性を認識できました.
留年やTSPで例えましたかね...?
神経回路から自分の興味ある記憶の話になって,次の構義が楽しみです.
記憶のどこに興味がありますか?
連想記憶の話がとても興味深かった.
人と機械との連想できる範囲などを調べるとより面白そうに思えた.
連想記憶の話もまだまだ調べることはありますよ.
さらに数学っぽくなってきて少し理解が難しくなってきた.
今日は意外と脱線しなかったような気がします.
数学は重要です.
脱線を期待しすぎです!
私が普段当たり前のようにしている「連想」という
あやふやに感じていた行動を,数理モデルで表せることに
驚きました.モデル化することでメカニズムが解明されて
機能として機械に実装できるようになるのかなと考えるとわくわくします.
良いコメントですね.確かにわくわくしますね!
講義では「A→優」という連想でしたが,自分は「A→あ」という連想をしました.
連相を式で書くと複雑で,この複雑な処理をしている人間の脳みそはすごいとあ
らためて思いました.
そうですね.いろいろありますから. でも今回お話をした内容は式で(モデルで)書いた方が簡易になっていると思いますよ.
ものを認識するときにある程度のノイズがあっても
認識するというのが難しいなと感じました.
人間の脳をますます不思議に思います.
確かにその通りですね.
どのようなからくりで情報処理しているのでしょうか?
とても大事なことですね.
組合せ最適化問題などの最近学んだことが説明に
使われていたのでとてもわかりやすかったです.
画像の連想記憶は自分が興味を持っていたことなので
楽しかったです.
画像は分かりやすいですからね.
連想記憶では,ノイズが多少のっても
正しく認識するために,Sα=TwSαという条件を定義して
ましたが,それではA→優のようになるのっもこの条件にあてはまっているのですか?
良い質問ですね.
次回の講義でこの相互想起の話をしますが,どうなると思いますか?
温度Tの変化に伴う確率により,決定的でない発火があることがよく分かりまし
た.人間の体で言う温度とは体温のことなのでしょうか.フィードフォワードの
学習則を学び,「アキネータ」などにも応用されているのかなと思いました.
連想記憶のところで,人間の記憶できるパターンのベクトルは有限なのか∞なの
か調べてみたいです.
申し訳ないですが「アキネータ」とは何でしょう...?
記憶できるベクトルの数は有限です.
連想記憶に置いて,ノイズが生じても,求めたい出力にするためには,入力と記
憶させているパターンとの一致度が高ければ,望まれる出力になると思いました.
そのために,相互型NNでwの調整が大切だと感じました.
とても良いコメントだと思います.
よく考えています.
連想記憶のところで対比しながら説明してもらえるので
分かりやすかったです.
ちなみに諸連絡の紙を何で作ったのか気になります.
僕の勘ではTeXではなくWordだと思うのですが.
TeXですよ.ソースを見せましょうか?