2013年1月9日 第11回
XORにおいてS1とS2を用いた新たなニューロンを使うことで
線形分離可能であることに驚きました.
S1⊕S2=S1S2+S1S2とXOR
を考えていたので
線形分離は不可能だと思っていました.
2次元空間では不可能ですね.
MPモデルによる論理演算の拡張がよく理解できました.
時間的な概念も加わり,より現実的だと感じました.
XORの分離(線形分離)についてy=xの場合,y≠xの場合で分けるのは
線形分離とは言えないのか少し疑問でした.
「少し疑問」に感じたところがよくわからないのですが...
次回考えてみましょう.
拡張(3)で過去のことほど忘れやすく,どうでもよくなっていくという説明がすごく
分かりやすかったです.
記憶の基本的な性質と考えても良いと思います.
論理回路を幾何学的に考えたことがなかったため,新鮮であり面白かった.
物事を図示するとわかりやくすなる.よい例だと感じた.
その通りです.
時間的加算の話がとても興味深いと感じました.
近々の過去の情報ほど強く反映されることが,実際の記憶そのまま
で,仕組みになっているところに触れられておもしろかったです.
次々回に再度お話をしようと思います.
研究の流行りすたりの大切さや,人生の感じ方など
授業以外のネタもすごくためになりました.
「人生の折り返し点の感じ方と生まれ育った環境の関係」
といった研究も面白そうだなと少し本気で思いました.
確かにおもしろいかも...
今日は研究に関する話が多くて面白かったです.
それはよかった...
数学的な話が増えてきて,理解に時間がかかるようになってきたが
復習してついていきたい.考え方やプロセスの大切さを改めて
実感することが出来た.
式を良く見て理解に努めましょう.
どの分野でも内容をじっくり理解することは大事です.
トイレにあった人生の善し悪しが出会いで決まるという言葉に関するお話が
途中できれてしまったので先生がどう思ったのか聞きたいです.
ではそれは今度飲みながら...
あけましておめでとうございます.
やはり先生の授業は楽しいです!
残り1,2ヶ月ですが,今年もよろしくお願いします.
よいしょも絶好調ですね.
生物のニューロンにおいてモデルの多岐にわたる拡張が
あって驚きました.一つの決まった事実に対して考え方が
様々あることは,他のことにも応用できると思いました.
その通りですね.いろいろな考え方,方向があるということです.
XORは1ニューロンでは線形分離不可能だが,2ニューロンなら
線形分離可能となるという話が分かりやすかったです.
理解してくれたようで良かったです.
人との出会いによって,人の幸せ度合いが変わるというのは良い言葉だと思いました.
そうですね.
式が複雑な割に説明が分かりやすくて理解しやすかった.
雑談もとてもためになるので助かります.
自分でも式を見て説明できるようにしてみよう.
あけましておめでとうございます.
今年もよろしくお願いします.
今日もいろいろな話を聞けて楽しかったです.
講義内容についてコメントできるようになろう.
式を理解する上でとりあえず値を入れてみたり,図に表すことが大切だと
改めて思いました.
今までもそのようにしていたはず.
計算がどんどん出てきて難しくなってきました.
それほどの計算はしていませんよ!
1ニューロンでは線形分離できないXORでも,2ニューロン
使うことによって,線形分離できるようになることに驚きました.
単に驚くというだけじゃなくて
もう少し具体的なコメントがほしいですね.
2ニューロンによりXORを実現する方法が
幾何学的考察をすることでよく理解できました.
McCulloch Pittsモデルの時間的な拡張
は生理的に妥当で理解しやすかったです.
生理的に妥当とまで言い切って良いかはわかりませんが
一つの方向ではありますね.
XORと線形分離について,立体的な図があったのでとても分かり
やすかったです.
時空間的計算は,数字を入れてみることで,どのような計算を
しているのかが分かりました.
よく理解してくれたようです.
Analog neuronの拡張でεという重みをつけることで関数の形に
ある程度の自由度を持たせているのが面白いと思いました.
また,時空間的加算でknという重みで時間が遠くなるにつれて
刺激を弱くするというモデルになっているのがうまく
出来ているなと感じました.こういうモデル化の話が面白いです.
そういう方向に進むと良いかもしれません.
オブジェクト指向が構造体に毛が生えた...まさにそんな感じですね.
今日の例えはあくまで例えなのでね...
来年のために正月実家に帰ったときヨイショ
の練習をしてみたのですが,加減が難しかったです.
そうですか.でもトライしたのは大事ですよ.
私はよく「宝くじが当たったら5000万円受け取ってください!」
みたいな迷惑メールが来ます.
これもよく来ますね.
式だけ見ると複雑に見えるけど
実際には単純で複雑な考えてはいないのだなと思った.
そうですね.自分から壁を作るのはよくないね.
二個のニューロンのXORの一つ目のニューロンはANDゲート,
二つ目は例えば3変数XOR,みたいな認識をしてもいいですか?
3変数XORをどう定義しますか?
時空間的加算で,1<kにして,「昔のことほど,覚えている」というモデルは
何かに使えないですか?(人間でいうと,大人になってからより,子供のときに身
につけた能力の方が今役立っている,みたいな)
あるかもしれないですね.
f(y)=1/(1+exp(-y/ε))
を用いて拡張するanalog neuronでは
信号→
の形に変えるのなら
f(y)=1/(1+N(-y/ε))
Nは定数でも同じ役割を果たせないのですか?
わざわざexpを使うのはなぜ?
Nとはなんでしょうか?