2025年11月05日 第7回
XORを1つのニューロンで実現してみようとすると,
s1=0,s2=0のときx=0より-θ<0,
s1=0,s2=1のときx=1よりw2-θ>=0,
s1=1,s2=0のときx=1よりw1-θ>=0,
s1=1,s2=1のときx=0よりw1+w2-θ<0となるが,
w1+w2-θ>w1+w2-2θ>=0よりこれを満たすw1,w2,θは存在しないので,
確かにニューロン1つではXORを実現できないと分かった.
最後の部分のロジックが足りないのでは?
ホジキン–ハクスレイ方程式で用いられているm, n, hの指数が,
理論的根拠に基づくものではなく,
実験結果との整合を取るために経験的に設定されたものであると知り,
非常に印象的だった.
また,
このモデルが1950年代という古い時代にすでに構築されていたことにも驚かされた.
今回の講義では,
NaイオンおよびKイオンチャネルのコンダクタンス変化の数理的表現や,
それぞれの電位依存性を踏まえたモデル化を学び,
さらにFitsHugh–Nagumo方程式へと発展する過程を理解した.
そうですね.20世紀半ばですね.
今回の講義では,
ホジキン—ハクスレイ方程式について深堀りし,
FitzHugh-Nagumo方程式についても学んだ.
ホジキン—ハクスレイ方程式のmの3乗,
nの4乗が生物学的に直接的な意味はないということを知り驚いた.
また,
モデルが提案されたよりも後に発見された実験結果も予測できている点が興味深いと感じた.
そうなのです.予測できているのですよ.すごいことですね.
今日の講義では,
HH方程式がどのように構築されたか,
またそれがどのように簡略化されていったかを学んだ.
また,
人口ニューロンの基盤のMPモデルと論理演算について学んだ.
HH方程式の構築では,
カリウムコンダクタンスの緩やかな立ち上がりを実際のデータに合わせるため,
変数nをn^4としたり,
様々な膜電位Vを変えた実験結果から複雑な関数形を実験的に決定したりする過程を追うことができた.
実際のデータを使って,
実データによりフィッテイングするようにモデルを調整するアプローチは他の分野でも応用できる大切な考え方だと思った.
そうですね.最後の部分が特に大切ですね.
ホジキンハクスレイ方程式のカリウムの式におけるn^4が実際に観測されたグラフの形に合うように設定されていて,
案外あっさりとした理由だったことに驚きました.
しかし,
モデルを構築する際の考え方として合わなかったら新たに修正していき,
より正しいモデルを模索していくのが大切だと理解しました.
ある意味あっさりかもしれません.
今回の講義までで,
ホジキンハクスレイ方程式が構築される過程を追ってきました.
方程式自体の構造や神経興奮の仕組みはもちろんのこと,
HH方程式が作られた過程も研究や,
何らかの課題解決等に役立つように思いました.
また,
実際に4次のルンゲクッタ法で計算してみると,
これまで見てきた脱分極や再分極,
過分極といった現象が表現されていました.
チャネルの存在は知られていなかったにも関わらず,
原因を切り出す実験や判明している実験値からこのように正確なモデルを作り出したのは,
見事で興味深いことだと感じました.
自分で実装してみたのですか.素晴らしい.
Hodgkin–Huxley方程式のように膜電位変化を詳細に再現するマクロなモデルと,
そこから本質的構造を抽出したFitzHugh–Nagumo方程式のような簡略モデルを比較することで,
現象を記述する際の「解像度」の選択がいかに重要かを理解した.
特にFHNモデルは,
HHモデルに含まれる「速い変数(v,m)」と「遅い変数(w,n,h)」という本質的な性質を抽出することで,
活動電位のダイナミクスをより直感的に捉えられるようにしている点が印象的だった.
今回の講義を通じて,
精密な再現性を重視するモデルと現象理解を重視する抽象的モデルを,
目的に応じて使い分けることの意義を学ぶことができた.
よろしいと思います.
仮に自分の研究でモデル化して立式するようなことがあれば参考にします.
にしても,
結構こじつけなモデルでもそれで成立していればいいんですね.
無理やり定式化した感が伝わってきました.
こじつけではなく,また,無理やりでもないですね.
HH方程式の最終形が出てくるまでの流れが良く分かった.
4乗するなど以外と感覚な部分が多かったが実際にカオス応答なども予測できているなど
うまくモデリングできているようで非常に驚いた.
失敗を繰り返して,
モデルを変更していくことの大切さを学べた.
その通りです.うまく行かなくても修正すれば良いのです.
ホジキン・ハクスレイ方程式や,
FitzHugh-Nagumo,
Izhikevichモデルを学び,
神経活動の数理的理解が深まった.
実験と理論が対応している点が印象的だった.
よろしいと思います.
ナトリウム仮説を何かの授業で習った気がするのですが,
何の科目だったでしょうか...?
この講義です.
本日の講義では,
カリウムコンダクタンスとナトリウムコンダクタンスのモデル化の過程を学んだ.
カリウムコンダクタンスのnの4乗がグラフの形を合わせるためだけの4乗であることに驚いた.
でもうまくできていますね.
本日はニューロンの基本構造についても触れた.
週が空いていることもあり忘れているか不安だったが,
講義を聞いていたら自然に思い出せたので良かった.
よろしいと思います.
今日の授業では後半から新しい単元に入った.
最近扱っていた単元では人体の機能が回路的に表現することが出来ることの例を学んだが,
今回の単元の最初で扱ったような論理式が絡むとその回路がどのようになっていくのかが気になった.
単元ですか...
本日の講義では,
Hodgkin-Huxley方程式のK^+コンダクタンスの変化をどのように表すかについて詳しく学んだ.
特に,
α(V)とβ(V)が指数関数の形で与えられているのを知り,
これが脱分極の進行などに関係しているのだと感じた.
また,
αやβが複雑すぎるので,
解析的に解くことができないことも理解した.
そうです.その通りですね.
ホキシンハクスレイ方程式と同じようなFitzHugh-Nagumo方程式があることがわかった.
また,
McCulloch & Pittsのモデルでは論理回路のAND,ORのような論理演算に関係していた.
次回までにOR, NOTも作ってみてください.
本日の講義では,
K混濁タンス変化のモデル化に関する式展開について扱われ,
以前から疑問に思っていた「なぜn^4を掛けるのか」という点が少し理解できた.
実際にグラフの概形を考えると,
その項がないと形が合わないことが理由の一つであるとわかり,
非常に興味深かった.
また,
McCulloch & Pittsのモデルにも触れられ,
初期の単純なモデルが今もなお評価されている理由についても考えさせられた.
ひとつ思うことがあって,
昔のモデルが現在まで影響力を持ち続けているのは,
再現性や理論的な普遍性が高いからではないかと思った.
シンプルであっても根幹を捉えている点が,
多くの後続モデルの基礎になっているのだと感じた.
ちなみに池口先生の研究の中で,
~モデルの提案みたいなのもありましたか?
私はニューロンモデルの提案はしていないです.
どちらかというとデータ解析を行ってきたので.
ホジキン・ハクスリー方程式により,
単なる静的な応答ではなく,
活動電位の発生と伝播という時間発展的な現象を,
物理法則に基づき定量的に再現可能としていることがわかった.
後の実験でチャネル分子の存在が確認されるなど,
その先見性と普遍性を感じた.
また,
チャネルのコンダクタンスについて,
それぞれのチャネルを構成するゲーティング粒子数のべき乗の項が,
実際のタンパク質分子の構造とどのように対応しているのか気になった.
色々と考えていますね.
先週に引き続き微分方程式が多く登場し,
難しく感じたが,
途中式などを丁寧に解説してくださり,
理解を深めることができた.
特に,
先週から疑問に思っていたカリウムコンダクタンスの変数nの4乗について,
理由を理解することができ,
納得することができた.
また,
ホジキンハクスレイ方程式が1952年ごろに提案されたにも関わらず,
それより後に発見されたヤリイカの巨大軸索におけるカオス応答などの
非線形な実験結果を予測できているということを知り,
面白いと感じた.
理解してくれたようですね.良かったと思います.
今回の講義では,
Kコンダクタンス変化のモデル化とNaコンダクタンス変化のモデル化,
そして各パラメータの電位依存性からFitsHugh-Nagumo方程式を学んだ.
また講義後半では,
勢いにのるAIのニューラルネットワークの原点でもある
ニューロンモデル機能のモデル化における論理演算のANDを学んだ.
次回,OR, NOTなどを議論しますので,自分でも考えておいてください.
今回の講義では,
ホジキン・ハクスレイ方程式について学習した.
複雑な内容ではあったが,
膜電位に依存する速度定数alphaとbetaを求める方法について理解することができた.
また,
チャネルの開閉を表す変数m, n, hについている乗数にはあまり意味がなく,
実際のイオンコンダクタンスの振る舞いに合わせる形でつけられたものであることも理解することができた.
理解してくれましたね.