2008年1月9日 第13回
Σを展開したりグラフに描くことで, 分かりやすく理解することができた.
理解してくれたのであればとても良いのですが,
講義中にも言ったように,
式をみてわからなくなった場合は,
具体的に書いてみることです.
今回の場合であれば,和を実際に書き下すということになります.
明けましておめでとうございます.
今回の演習は,
一応書くことができたのですが
あまり自信がが無いので模範解答のようなものがほしいです.
お願いします.
自信がなければ直接質問して下さい.
ふせんのアニメーションが分かりやすかった.
そうですか.それは良かった!
前回に続いて今回も図形的な考察(持ち上げて面で切る)が面白かった.
穴うめ部のシールが飛んでいくアニメーションが入っていて工夫してるなと思った.
工夫はしてますよ〜
ただ,あまり手を入れすぎるとね.
変なスライドになりやすいので,
お互い気をつけましょうね.
あけましておめでとうございます.
みのもんた式に完全に切り替えたのですね.
XORのネットワークが勝部先生の授業のとは違ってたので,
いろいろなものが作れるのだなぁ,
と思いました.
線形分離の図で説明がとても分かりやすかったです.
勝部先生の講義で考えたのは違うのであれば,
とても良かったと思います.
スライドでふせんになっているのは見やすいのですがプリントだと見ずらいです.
(16ページが)
少し工夫はしてみますが,これ以上はちょっと困難かも.
スライドが更にグレードアップしてて驚きました.穴埋めの外れ方等
…でも,
ちゃんと講義もききましたよ!
勿論ですよ.これからもちゃんと聞いてください.
総合演習で課題B1の組み合わせ最適化をやりましたが, ここにつながってくるんだなと感心しました.
なんでも繋がりますよ.
だから大事なんですよね.
SAは総合演習でやったので理解しやすく楽しかった. 線形分離を次元をふやしてかんがえるのにおどろいた. 宿題を拡張(1)で解いていた.
そうですか.アニーリングも皆さん経験していましたね.
総合演習でsimulated annealingを使ったので, 今日の講義は少し身近に感じた
そうですか.ただね.SAにも欠点は有りますからね.
確率的モデルのところで1/(1+exp(-y(t+1)/T))というのを見て,
これってsimulated annealingみたいだと思っていたらまさにそれでした.
総合演習が役に立ちました.
新年早々遅刻してすみません….
ちゃんと気付くということはとても良いことだと思います.
遅刻はダメですが…
確率的モデルにおける確率の式中にある指数関数のパラメータTが温度であると聞いて,
「総合演習で取り組んだSA(Simulated Annealing)が関係しているのでは?」
と思っていました.
(直後の説明でSAと関係しているとの話あり).
実際にSAに取り組んだときは温度Tの調整に苦労した記憶があります.
とても良い経験をしていると思います.
Tの調整ですが.
理論では,十分にゆっくりですけどね.
確率を求める式にてexp(-x)という項が多用され,
総合演習B-2などとつながった気がしました.
と講義の途中に書いたのですが総合演習で用いたSAそのものだったんですね.
理解が深まった気がします.
そうですね.相互理解が深まったのはとても良いことです.
焼きなましが出てきて, 自分は総合演習でやったばかりだったので, いろいろな授業が関係しているのだと実感しました.
実感してくれたのであれば,とても良かったと思います.
このニューラルネット1つからここまで拡張していろいろなことを考えられるということに驚いた. まさかこの授業で総合演習でやっている内容の話が出てくるとは思っていなかったので, 一見無関係なもの同士も意外なところでつながっているのだと感じた.
とても大事ですね.
確率モデルで, Tの値によって決定論と確率論の橋渡しをする所が美しかったです.
すばらしい!とても素晴らしい!この調子で.
アナログを拡張したことで生命科学らしさを帯びてきた気がして,
興味深く聞けました.
バスのせいで遅刻しても問答無用で×がつくのが悲しいです.
これまた素晴らしい!確かに命が吹き込まれる感じですよね.
バスの件は,問答無用です.
ただし,『遅延証明書』があれば,対応しますが,それはないようですね.
モデルの拡張にも様々あると分かった.
理解できるとおもしろい.
今年も(お手やわらかに)お願いします.
今年は厳しいですよ〜
あけましておめでとうございます.
連続時間モデルの微分あたりの意味があまり理解できなかった.
幸先悪いです.
まずは遅刻をしないこと.
MPモデルの拡張(3), 時空間的加算で, 0 < k < 1とすることで, 時間をさかのぼるほどkが小さくなり 過去の記憶はうすれていくという説明に納得しました.
この考え方は,カオスを生み出すモデルでも使いますので,
良く復習しておいてください.
時間的加算が重みのktが, tが大きくなる, つまり過去にさかのぼるにつれて小さなることが, 人間の記憶に似ている. このことが大変興味深かった.
今回は当該ニューロンの過去の発火履歴では有りませんが,
これについては,この自分自身の過去の発火履歴が
指数関数的に減衰するというモデルを紹介します.
いろいろなニューロンの状態変化の過程を表すためのモデルがあるのですね.
モデルを作るときの定石みたいなものもあるのでしょうか?
(××のような変化を再現するにはexpを使うとモデル化しやすいなど)
「定石」と言えるかどうか意見が分かれるかと臣おますが,
一つの方法論は次回 or 次々回で紹介します.
アナログニューロンモデルの説明のときに,
その研究を行っている人が,
アナログの値を使った方が計算が速く行えると言っているという話をしていましたが,
それは扱える状態数が多いから,
計算も速いということなのでしょうか?
0と1だけの方が簡単で良さそうな気もするのですが….
「速く」ということは言っていないです.
空間的な加算の意味をよく理解できなかったのですが,
MPモデルのs1(t)〜sN(t)の入力する形が空間的という考えで
あっていますか?
その場合,
総合演習の4-2の11.(b)の答えは空間的加算モデルになると思うのですが….
今年もよろしくお願いします.
それで良いのですが,講義でもそのように説明をしました.
MPモデルを拡張したことで,
より実際のニューロンの動きに近づいた気がしました.
SAがこんなところにも出てきたことに少し驚きました.
関数の中のexpには何か意味があるのですか?
expが本質的か?ということであれば,そういうことは有りません.
これについては,次回再度説明するつもりです.
発火の確率は圧力などの他の要因によっても変わるのかが気になった.
「圧力」というのはどういう意味かがちょっとよくわからないのですが,
発火の確率がいろいろな要因で変わるか?という質問であれば
その通りです.
Analog neuronのf(y)=1/(1+exp(-y/ε))について, どのようにして求められたのか教えて下さい.
考え方としては,
◯0と1の間
◯なめらかに変わる
ということを満たす者であれば,本当はなんでも構いません.
拡張で確率的モデルで温度Tによる発火で温度が+∞になるとp=1/2となるところが不思議に感じた. 温度が高くなるにつれ, 発火率が50%となるからだと思います.
「不思議に感じた」とのことですが,T->+∞のときに,
どのような関数形になるかを考えてみてください.
XORも3次元的にかんがえると分かりやすく分けられますね.
hがANDでもORでも作れそうです.
ぜひ作ってみてください.
形式ニューロンでのXORはとりあえずやって来たが幾何学的考察がどうなるか考えてなかったが, 空間が3次元になるのを聞いてなるほどと思った.
「なるほど」と思ってくれたのであれば,こちらとしては完璧です.
全てがということではないですが,
今回のような方法論をつかうと理解が進む場合が有ります.
XOR回路を作るには,
2つのニューロンが必要で,
その線形分離を3次元で視覚的に理解できることがすばらしいと思いました.
MPモデルは様々な拡張ができ,
それぞれ利点があることが分かりました.
XORのところの図から拡張への話のつながりがちょっとわかりませんでした.
あと,
式をかくしている四角のプレートはその位置で消えていくエフェクトの方がいいと思いました.
わからないという部分,どこがわからないかがわからないので,
次回話をしてください.お答えします.
アニメの効果については,考えてみますが,
これはいろいろな意見があるので…
2個のニューロンにおけるXORの構成がなかなかできなかった.(30分以上かかった)
軸索の数を増やすのに気づかなかったため.
でも出来ましたね.30分で出来たのであれば,とても良いと思います.
今日はかなり時間が経つのが早かった.
今さらですが,
演習問題の下にページ半分ぐらいは空白スペースがほしいところです.
スペースがあると演習しやすいので….
時間が経つのが早いというのは,それだけ真剣にやっていたのだろう,
と推察できますので,とても良いことなのでは?
なのですが,後半のコメントは良くないですね.
僕の講義は,最近,皆さんに配布している資料で講義を進めていますが
あくまでもこれは補助資料ということですので,
自分でノートを用意する等してください.
あけましておめでとうございます.
今年もよろしくお願いします.
2008年は
×もがんばります.
まあそうして下さい.
今日の講義では,
いろいろなモデルについて学んだので,
しっかりと復習して頑張りたい.
去年やったことも忘れているので,
もう一度見なおしたいと思う.
記憶の減衰が早いですね.
冬休みをはさんだので授業内容を覚えているか若干の不安があったけれど割とスムーズに取り組むことができた.
kが大きな値だったということでしょうか.
明けましておめでとうございます.
今年こそは講義でお世話になるつもりはありませんが,
よろしくお願いします.
池口先生の強い薦めもありますが,
今年は○○活動や研究室で忙しい1年になりそうです.
まぁ,そんなこと言わずに進学も考えてください.
この授業の最後にレポート提出と口答試問があるとのことですが,
どのように行うのでしょうか?
前期に非線形をとっていなかったので,
教えていただきたいです.
これは最終回に話します.