2022年11月8日 第9回
少し気になったのですが,MPモデルというのはいつ頃の時代の話だったのでしょうか.
脳が論理的演算を行なっている証明がしたくてこのモデルを考えたと言う点が面白いと思いました.
講義資料にも書きましたが,1939年です.講義でも説明したと思います.
今回の内容は他の講義で何回か触れてきましたが,脳の仕組みについて学んだ後はより理解することができたと思いました.
また,自然界にあるものをデジタルで応用することの難しさを感じました.
デジタルだからね.
実際のニューロン機能から入力,処理,出力を0,1を用いることで表現していたため,前回までのHH方程式に比べて非常に理解しやすかった.
XORの論理演算で,2次元では線形分離不可能であるが,次元を増やすこと,すなわち,ニューロンを追加することで平面として線形分離可能にできることがわかった.
理解してくれたのであればよかったと思います.
ニューロンをシンプルなモデルで洗わせられることが分かった.
形式ニューロンを複数組み合わせることによって,線形分離を可能にすることが出来ると理解した.
理解してくれたようなのでよかったと思います.
今日は神経回路網理論の入り口としてMcCulloch & Pittsモデルを学んだ.
特にPittsが当時17歳で論文を出していたのが衝撃だった.
形式ニューロンの論理演算を座標で考え始めたあたりからSVMのような空気を感じていたが,機械学習でのSVMは煩雑な計算を使って実現しているのに対してニューロンモデルを使えば多少は計算量が少なくなりそうだと感じた.
また,軸を増やしてXORを線形分離するのはカーネル法と全く同じであったため,MPモデルとの対応関係を考えてみたいと思った.
計算量については触れていませんが,計算の複雑さは今日の話は導入でもあり, 一番簡単な話ですので,比較できません.
形式ニューロンモデルがかなり簡易的なものに思えたが,任意の論理関数を作れることに驚いた.
線形分離不可能な場合はニューロン数を増やすという考え方もシンプルで良いものだと感じた.
うまい方法ですね.
形式ニューロンを用いた論理演算がよくわかりました.
よろしいと思います.
形式ニューロンを用いた論理演算をよく理解できた.
論理回路の分野で習ったことが,ニューロンについての講義に出てきて,論理演算や基数など,基礎は大切であると思った.
ニューロンを増やすというよりは,次元を上げることで分離可能になるということは忘れないようにしようと思う.
自分の図を描く能力が低すぎることが分かって悲しくなった.
その通り,基礎は大切ですね.
卒業研究の話を聞いて,少し安心しました.
ただ,その研究で指示をされた事ができるくらいの能力は備えなければならないことを感じました.
また次回触れますが,本当に最初は色々と質問して良いのですよ.
本日はニューロンの論理的動作を形式ニューロンモデルを学ぶことで基本的なことを理解できました. 内容としては前記の授業で行ったパターン認識のサポートベクターマシンとほとんど同じでした. ただ, XORのときに次元をあげることで平面で分けるのはこの分野じゃないと見れないなと思いました.ただニューロンがどのようにしてその線を引いているのかが気になりました.
XORの話はSVMなどでも用いられている考えです.
シナプスにおいて論理演算を考えることになるとは思わなかった.
理解できましたか?
本日の講義でのニューラルネットワークの数式による表現とこれまでの講義内容により,抽象的なイメージしか持てていなかったニューラルネットワークが,脳の振る舞いに対してどのようなモデルになっているかをより理解することができました.
よろしいと思います.
次元数の拡大によって線形分離を可能にする手法は他の講義を通じて知っていたが,形式ニューロンモデルにおいてはこの次元数の拡大がニューロン数の追加に対応し,形式論理による判別が線形判別に対応している様子が理解できた.
理解できたようでよろしいとおもいます.