はてなキーワード: 定量とは
統合失調症の病態を理解する新たな理論的枠組みとして、神経回路レベルの情報処理における「最小作用の原理」からの逸脱が異常体験を引き起こすという仮説を提唱する[1][2][3]。
この理論は、従来のドーパミン仮説や神経回路異常説を統合し、自由エネルギー原理とベイズ推論の破綻を量子力学的アナロジーで説明する。
前頭葉-辺縁系のドーパミン伝達異常が神経回路の同期性を乱すことで、脳内の「作用積分」最小化プロセスが阻害され、確率的経路探索が活性化される。
その結果、通常は抑制される量子力学的な重ね合わせ状態が認知プロセスに顕在化し、幻覚・妄想などの陽性症状が発現するメカニズムを提案する。
神経回路の情報処理を特徴づける自由エネルギー原理は、ベイズ推論による予測誤差最小化の過程を定式化したものと解釈できる[3]。
この理論的枠組みにおいて、脳は外界の生成モデルを内在化し、感覚入力との予測誤差を最小化するように神経活動を最適化する。
この過程を物理系の「作用積分」最小化と数学的に等価なプロセスとして再解釈する。
神経回路の時々刻々の活動パターンは、ラグランジアン関数で定義される作用積分の極小値を探索する経路として記述可能である[3]。
従来のドーパミン仮説では、中脳辺縁系のD2受容体過活動が陽性症状の原因とされてきた[1]。
この理論的拡張として、ドーパミンシグナルが作用積分の地形形成に寄与する要因と位置づける。
具体的には、ドーパミンが神経回路の接続重み(シナプス強度)を調整することで、作用積分の局所的最小値の分布を変化させる。
統合失調症ではこの調節機能が破綻し、最適経路から外れた異常な作用極小値へのトラップが生じると考える[2][3]。
理研のモデルマウス研究で示された海馬の場所細胞異常[2]は、空間認知における作用積分最小化の失敗例と解釈できる。
通常、迷路探索時の神経活動は経路積分の最適化過程を反映するが、カルシニューリン変異マウスでは過剰な神経発火が作用地形の乱れを引き起こす。
この現象を、量子力学における経路積分の確率的広がりと数学的に類似した過程としてモデル化する。
前頭葉ドーパミン伝達の低下が皮質下系の過活動を引き起こすという修正ドーパミン仮説[1]を、作用積分の多極化現象として再解釈する。
ドーパミン濃度の地域差が神経回路の「温度パラメータ」として機能し、確率的経路選択の度合いを調整すると仮定する。
統合失調症患者ではこのパラメータが異常値を示し、確率的重み付けが狂うことで通常は無視される高エネルギー経路が選択されやすくなる[3]。
通常の認知処理では、多数の可能な神経活動経路のうち作用積分が最小となる古典的経路が支配的である。
しかし統合失調症では、神経回路のノイズ特性変化やドーパミン調節異常により、経路積分の確率分布が歪む。
この状態をシュレーディンガー方程式の非調和振動子モデルで記述し、固有状態の重ね合わせが異常知覚として体験されると考える。
観測問題を神経活動のマクロな収束過程と対応づける。通常、意識的注意が神経活動の波動関数を特定の状態に収束させるが、統合失調症ではこの収束プロセスが不安定化する。
特にデフォルトモードネットワークの過活動[2]が、内在的な観測者機能を阻害し、重ね合わせ状態の持続を許容すると仮定する。
マルチエレクトロード記録と光遺伝学を組み合わせ、迷路課題中の海馬神経集団の活動経路を作用積分で定量化する[2]。
統合失調症モデル動物で経路積分の分散が増大することを予測し、抗精神病薬投与によりこの分散が収束するかを検証する。
神経細胞集団間の同期性を量子もつれのアナロジーで測定する新規指標を提案する。
fMRIと脳磁図(MEG)を組み合わせ、デフォルトモードネットワーク内のコヒーレンス持続時間を計測することで、異常な量子状態の持続性を評価する[2][3]。
経頭蓋磁気刺激(TMS)を用いて特定神経回路の作用積分地形を改変する。前頭前皮質への高周波刺激により、異常な局所最小値から脱出するエネルギー障壁を低下させる[1][3]。
ドーパミン受容体部分作動薬により神経回路の「温度パラメータ」を調整し、確率的経路選択の重み付けを正常化する。
特にD1/D2受容体のバランス調節が、作用積分の地形平滑化に寄与すると予測する[1][3]。
本理論は、統合失調症の病態を神経回路レベルの情報最適化プロセスの破綻として再解釈し、異常体験の発生機序を説明する。
自由エネルギー原理と作用積分最小化の数学的等価性[3]、海馬の経路符号化異常[2]、ドーパミン調節障害[1]を統合する新パラダイムを提示した。
今後の課題は、量子神経科学的手法による理論の実証と、作用地形を標的とした新規治療法の開発である。
これにより、精神疾患の理解が物理学的原理に基づく統一理論へと発展する可能性が開かれる。
Citations:
[2] https://www.riken.jp/press/2013/20131017_1/index.html
[3] https://www.riken.jp/press/2022/20220114_3/index.html
近年、フェイク情報の拡散は社会的な課題として深刻化している。
個人が情報の真偽を判断する際に数学理論を活用する可能性について、動的システム理論、疫学モデル、統計的検定理論、機械学習の観点から体系的に分析する。
arXivや教育機関の研究成果に基づき、個人レベルの判断を支援する数学的フレームワークの可能性と限界を明らかにする。
ディスインフォメーション拡散を非線形動的システムとしてモデル化する研究[1]によれば、従来の臨界点(ティッピングポイント)を超えるだけでなく、変化速度そのものがシステムの不安定化を引き起こす「R-tipping」現象が確認されている。
個人の認知システムを微分方程式で表現した場合、情報の曝露速度が一定の閾値を超えると、真偽の判断能力が急激に低下する可能性が示唆される。
このモデルでは、個人の認知状態を3次元相空間で表現し、外部からの情報入力速度が臨界値r_cを超えると安定均衡が消失する。
具体的には、認知負荷関数Φ(t)が時間微分に関して非線形な振る舞いを示す場合、漸近的に安定な平衡点が突然不安定化する分岐が発生する[1]。
個人の情報処理速度と認知リソースの関係を定量化することで、フェイク情報に曝された際の判断力低下を予測できる。
IPSモデル(Ignorant-Prebunked-Spreader-Stifler)[2]は、個人の情報受容状態を4つのコンパートメントに分類する。
基本再生産数R₀の概念を拡張したこのモデルでは、プレバンキング(事前の誤情報免疫教育)が個人の感染率βに与える影響を微分方程式で記述する。
dP/dt = Λ - (βI + μ)P - ηP
プレバンキング効果ηが増加すると、平衡点における感染者数I*が指数関数的に減少することが数値シミュレーションで確認されている[2]。
特に、プレバンキングの半減期を考慮した忘却率δを組み込むことで、免疫持続期間の最適化問題が定式化可能となる。
正規分布N(0,I_n)に従う真データXに対し、敵対者がrtを加えて生成するフェイクデータX+rtの検出可能性についての研究[3]では、検出力の情報理論的限界が明らかにされている。
検定統計量T(x) = min_{t∈T} ||x - rt||² を用いた場合、検出可能半径r_dはガウス幅w(T)に比例する。
r_d ≈ 2w(T)/√n
この結果は、高次元空間において敵対者が特定の戦略(符号反転など)を採用すると、検出力が急激に低下することを示す[3]。
特に、対称性の高い攻撃セットTに対しては、個人レベルの単純な統計検定では50%以上の誤判別率を免れないことが証明されている。
多数決投票法を採用したフェイクニュース検出システム[5]の理論的解析から、k個の弱分類器の誤り率εが独立と仮定した場合、多数決の誤り率ε_majは以下のように表される:
ε_maj = Σ_{i=⌈k/2⌉}^k C(k,i)ε^i(1-ε)^{k-i}
この式に基づき、96.38%の精度を達成した実験結果[5]は、ベイズ誤り率の下限を考慮した場合、特徴空間の次元縮約が最適投票重みの決定に重要であることを示唆する。
特にTF-IDF特徴量と深層学習モデルの組み合わせが、非線形分離可能なケースで有効であることが確認されている。
Scale-Freeネットワークを想定した拡散シミュレーション[6]では、個人の接続数kに依存する感染率β(k)が次のようにモデル化される:
β(k) = β₀k^α
モンテカルロシミュレーションにより、α > 1でスーパースプレッダーの存在が拡散速度を指数関数的に増加させることが確認されている。
個人のネットワーク中心性指標(媒介中心性、固有ベクトル中心性)を監視することで、高危険ノードの早期特定が可能となる。
個人の事前信念p(h)をベータ分布Be(α,β)で表現し、新規情報xを受信した後の事後分布を:
p(h|x) ∝ L(x|h)p(h)
ここで尤度関数L(x|h)をフェイク情報検出アルゴリズムの出力確率とする。
確認バイアスをモデル化するため、反証情報の重みを減衰係数γで調整する:
L(x|¬h) → γL(x|¬h) (0 < γ < 1)
この枠組みにより、個人の信念更新プロセスを定量的に追跡可能となり、認知バイアスが誤情報受容に及ぼす影響をシミュレーションできる[4]。
フェイク情報検出の数学理論は、動的システム理論の安定性解析から始まり、疫学モデルによる介入効果の定量化、統計的検定の根本的限界の認識、機械学習の最適化理論まで多岐にわたる。
個人レベルでの実用的応用には、これらの理論を統合した複合モデルの構築が不可欠である。
特に、認知科学と情報理論の接点となる新しい数理フレームワークの開発が今後の課題となる。
プレバンキングの最適タイミング決定や、パーソナライズされたリスク評価アルゴリズムの開発において、微分ゲーム理論や強化学習の応用が有望な方向性として考えられる。
Citations:
[1] https://arxiv.org/abs/2401.05078
[2] https://arxiv.org/html/2502.12740v1
[3] https://www.math.uci.edu/~rvershyn/papers/mpv-can-we-spot-a-fake.pdf
[5] https://arxiv.org/pdf/2203.09936.pdf
[6] https://scholarworks.calstate.edu/downloads/d504rt65w
もちろん食べてる女性にスポットを当てるのは、商品の魅力を増す結果に繋がるとは限らない。
グルメ漫画の性表現と違うのはそこだが、しかし達成目標をどこに置くかは自由だ。
プロジェクトの目標として定量化しにくい商品の売り上げでなく、CMの再生回数を計るのは妥当。
だから女性性の性的消費に加担しても、コマーシャルの魅力を増すのは意図通りだった。
不運は、外部の事情によって偶然に男女の差異が出てしまいグロテスクさが具現化したことだ。
顧客は、アクシデントによる錯覚であることを考慮して、非実在の女性差別に憤らないこと。
事情を知らない人にはそれを教えてあげること。
性的消費に加担した咎はあるものの、それを指摘するならばグルメ漫画など他の性的消費材も問題視しないとダブルスタンダードになる。
相互に排他的な結果を伴う公正なゲーム(たとえば、公式オッズの合計が1になる「競馬」)における成長最適化投資家を考える。
このような投資家が期待する収益率は、投資家の信じている確率と公式オッズの間の相対エントロピーに等しくなる。
これは、金融リターンと乖離度の間の、より一般的な関係の特殊なケースである。
金融リスクは、情報幾何学を介してD_KLと関連付けられている。
投資家の見解、市場の一般的な見方、およびリスクシナリオは、確率分布の関連する多様体上で三角形を形成する。
三角形の形状は、主要な金融リスクを(定性および定量)決定する。
たとえば、投資家の見解とリスクシナリオが市場に対して「反対側」に現れる鈍角三角形はネガティブリスクを表し、鋭角三角形はポジティブエクスポージャーを表し、中間の直角の状況はゼロ・リスクに対応する。
この概念を拡張すると、相対エントロピーは、たとえばファンドフローの事前の期待からの規模と乖離によって表される場合、情報を持つ投資家の行動を特定するために仮説的に利用できる。
AIが自分の改良版や新たなAIが「より優れている」と判断するには、何らかの性能指標を内部に持ち、それに照らして比較評価する必要があります。従来から研究者は「汎用的な知能の指標」を模索してきました。例えば、LeggとHutterは知能を広範な環境で目標を達成する能力と定義し、あらゆる環境での得点(報酬)の期待値を加重和した**「普遍知能指標」**を提案しています
proceedings.neurips.cc
proceedings.neurips.cc
。これは多数の課題での性能をまとめた理論上のメトリクスで、あるエージェントが別のエージェントより知能が高いかを定量化しようとする試みです。しかし、このような指標は計算不能に近く、実際のAIが直接利用するのは困難です。
実際の自己評価指標としては、タスク性能や報酬関数が使われることが多いです。強化学習では、エージェントは与えられた報酬を最大化するよう学習します。したがって「より優れたAI」とは「累積報酬が高いAI」となり、報酬関数が内部評価指標の役割を果たします。しかし、この指標は特定のタスクに依存しており、本当に汎用的な知能向上を示すとは限りません。François Cholletは、特定タスクでのスキル(性能)だけを測っても知能の本質を測れないと指摘しています
arxiv.org
。なぜなら、十分なデータや事前知識があれば限定的なタスク性能は「購入 (buy)」できてしまい、システム自身の汎用的な汎化能力を覆い隠してしまうからです
arxiv.org
arxiv.org
。彼は代わりに新しいスキルを獲得する効率(限られた経験で未知のタスクをどれだけ学習できるか)を知能の指標とするべきだと論じ、これに沿ったベンチマーク(ARCなど)を提案しました
arxiv.org
。このように、内部評価指標をどう設計すべきかについては、単純なスコアではなく学習効率や汎用性を反映するものが望ましいという議論があります。
過去の提案として特筆すべきは、シュミットフーバーの「ゲーデルマシン」です。ゲーデルマシンは自己改善型の理論的プログラムで、ある改良が自身の目的関数(評価指標)を改善することを論理的に証明できた場合にのみ自分のコードを書き換えます
en.wikipedia.org
。ここでの評価指標はあらかじめ定義された期待 utility(将来得られる報酬や成功率)であり、改良後のコードがその値を高めると機械自身が証明できたときに「より優れている」と判断します
en.wikipedia.org
。このように形式的証明を用いる手法は、AIが外部の評価者に頼らずに自己の性能向上を判定する一例です。ただし、ゲーデルマシンは理論上は強力ですが、実用的な実装はまだ無く、内部指標に基づく証明には計算上の困難や限界(ゲーデルの不完全性定理による証明不能な命題など)が存在することも指摘されています
en.wikipedia.org
。
他にも、自己対戦や自己プレイによる評価も有効なアプローチです。例えばAlphaGo Zeroでは、自己対戦の勝率を指標に新しいプレイヤーネットワークの強さを評価し、既存の自分に55%以上の勝率なら「より強い」とみなして入れ替える方法を採用しました
github.com
。この手法ではAI自身が生み出すゲームデータで強さを測っており、人間の評価を介しません。同様に、GAN(敵対的生成ネットワーク)では生成者と識別者がお互いの性能を評価し合う形で向上しますし、マルチエージェントの自己対戦カリキュラムではエージェント同士の競争が相対的な評価基準となり得ます。このように、AI同士を競わせることで優劣を判断する内部指標を作る研究も進んでいます。
では、こうした指標は汎用的な知能向上と結びつくのでしょうか?理論的には、幅広いタスクでの性能を測る指標(例:Legg-Hutterの指標)が真に向上すれば、それは汎用知能の向上を意味します
proceedings.neurips.cc
proceedings.neurips.cc
。しかし根拠の収集は難しく、現在のところ限定的なタスク集合でのベンチマーク(例えば言語理解ベンチマークでのスコア向上など)を代理にするしかありません。Cholletの主張にもあるように、単一の数字で知能を測ることには限界があり、指標それ自体が目的化してしまう危険もあります
arxiv.org
。実際、AIが与えられた指標を極端に最適化し、本来意図した知的能力の向上につながらないケース(「報酬ハッキング」)も知られています。報酬ハッキングとは、AIが目的関数そのものの数値を上げることに執着するあまり、本来の目的を達成しない現象です
en.wikipedia.org
。例えば学生がテストで良い点を取ることだけを目的にカンニングするように、AIも不適切な指標だと内部で抜け道を見つけてしまい、見かけ上のスコアは上がっても知能は向上しない恐れがあります
en.wikipedia.org
。したがって、内部指標が汎用的知能と直結するかには慎重な検証が必要であり、現時点で「この指標さえあれば自律的に汎用知能が向上する」という決定打はありません。研究コミュニティでは、学習進捗そのものを報酬にする「興味・好奇心に基づく報酬」なども模索されています。これはAIが自ら予測誤差の大きい状況や未知の状態を探し、内部的に報酬を発生させる仕組みで、外部から与えられる明示的な目的が無くても自身で課題を見つけて能力を伸ばす一種の指標と言えます
pathak22.github.io
。例えば、未知の環境で新しいスキルを習得したり予測精度を上げたりしたときに内部報酬を与えることで、AIが自発的に探索・学習を続けるようになります
pathak22.github.io
。このような内発的動機づけも自己評価指標の一種と考えられ、その汎用性への寄与が研究されています。
まとめると、AIが自分で「優れている」と評価する指標としては、(1)タスク固有のスコア・報酬、(2)複数タスクでの総合性能、(3)学習効率や汎化性能、(4)論理的保証(証明)による性能、(5)AI同士の対戦結果、(6)内部の学習進捗(好奇心)など様々な候補があります。これまで提案された手法にはそれぞれ長所短所があり、どの指標が真の汎用知能向上に対応するかについて明確な実証はまだありません。ただ、幅広い問題でのパフォーマンス向上や新規課題への適応力向上を評価できる指標ほど、汎用的知能の改善と結びつく可能性が高いと考えられています。現状の研究は、そのような指標設定と評価方法を模索している段階と言えるでしょう。
AIが外部世界(人間のフィードバックや物理的な試行)に一切頼らずに、自分の内部評価だけで自己改良を行うことは極めて挑戦的なテーマです。理論的には、先述のゲーデルマシンのように完全に内部の論理評価で自己改良を進めるモデルが提案されています
en.wikipedia.org
。ゲーデルマシンは自らのコードと目標(評価基準)を持ち、改変後のコードが目標達成において有利であることを自身で証明できた場合のみその改変を実行します
en.wikipedia.org
。これは究極的には外部からのテストや評価者を不要にするアプローチであり、理論上は「自己評価の完全自律化」を体現しています。しかし、ゲーデルマシンには重要な制約があります。ゲーデルの不完全性定理により、システムが自分の性質すべてを証明できるとは限らず、有望でも証明不可能な改良は採用できない可能性があります
en.wikipedia.org
。つまり、内部評価のみで完全に自己改良しようとすると、論理的に確実と言えない改良を見送るために改良の停滞やサブ最適に陥るリスクがあるのです。この制約は理論上のものであるものの、自己評価の自律化には原理的な難しさが伴うことを示唆しています。
一方で、現実のAI研究に目を向けると、完全に自己完結的な自己改良を実現した例はまだ存在しません。現在のAIは、大なり小なり外部からのデータや環境とのインタラクションに依存しています。例えば、強化学習エージェントは環境と相互作用して報酬というフィードバックを得ますし、教師あり学習では人間がラベル付けしたデータが必要です。これらはすべて「外部世界」に由来する情報です。では**「外部に頼らない」とはどの程度可能なのでしょうか?一つの方向性は、AIがシミュレーション環境や仮想的な問題空間を内部に構築し、その中で試行錯誤することです。実際、AlphaGo Zeroは囲碁のルール(環境の定義)が与えられた状態で自己対戦を繰り返し、外部の人間の指導なしに棋力を飛躍的に高めました
github.com
。ここで囲碁のルール自体は外部から与えられたものの、学習の過程では人間の評価や追加の実世界データを用いず**、内部で生成したデータのみで自己改善しています
github.com
。この例は、限定された領域では外部に頼らない自己改良が可能であることを示しています。ただし、囲碁の場合はルールという明確な環境があり、勝敗という確かな評価基準があります。汎用的な知能となると、解くべき問題や環境自体をAIが自前で用意する必要が出てきます。
現在注目されている技術に、AutoML(自動機械学習)や自己チューニングAIがあります。例えば、ニューラルネットワークのハイパーパラメータや構造をAIが探索的に改善する研究では、AIが候補モデルを生成し、それを評価するプロセス自体を自動化しています。GoogleのAutoMLや進化的アルゴリズムを用いた手法では、AIが別のAIモデルの性能を評価し、より良いモデルを選択・再生産する仕組みが使われています。この評価は厳密には外部から与えられたデータ上での性能に基づくため、完全に外部不要とは言えませんが、人手による評価は介在していません。同様に、近年の大規模言語モデルではAI自身がフィードバックを与えて自己改善する試みも現れています。例えば、あるモデルの出力に対し別のモデル(もしくは同一モデルを利用)が**批評・評価(自己評価)**を行い、そのフィードバックで出力を改善するよう促す手法です
philarchive.org
。これを発展させ、モデルが自分の重みやアーキテクチャを調整する方向にまで自動化できれば、自己評価に基づく自己改良に近づきます。しかし現時点では、モデル自身が自分を書き換える(リプログラミングする)ところまでは実現されておらず、人間が用意した学習ループ(評価関数と最適化アルゴリズム)の中で自己改良もどきをしている状況です。つまり、「外部世界に頼らない」とはいっても、何らかの形で人間が設計した評価基準やデータ分布を利用しているのが実情です。
理論的観点からは、自己評価の完全自律化には情報論的な壁もあります。AIがまったく外部と接触しない場合、新しい知識やデータを得る経路が閉ざされるため、初期時点で持っている情報の範囲内でしか改善できません。例えば物理法則や実世界の知識と無縁のままでは、いくら内部で自己最適化しても現実世界の問題を解く能力は頭打ちになるでしょう。この点で、自己評価のみで無限に汎用知能が向上するのは疑問視されています。Cholletも知能は知識と経験によってブーストされる面が大きいと述べており、空虚な計算リソースの拡大だけでは飛躍的な知能向上には繋がらないと示唆しています(※Cholletの議論では、人間の知能も文化や蓄積された知識という外部リソースに大きく依存しており、AIも同様であると指摘)
reddit.com
reddit.com
。実際、人間は自己改善(学習)する際に、他者から学んだり環境からフィードバックを得たりしています。同じように、強いAIが一切新しいデータを摂取せずに自閉的に知能を伸ばし続けるのは非現実的にも思えます。
以上を踏まえると、自己評価のみでの自己改良は理論上は一部可能でも、実用上・汎用的には難しいと考えられます。ゲーデルマシン的なアプローチが論証するように、自己評価のアルゴリズム的自律は不可能ではありません
en.wikipedia.org
。しかし、その実現には厳密な前提(完全に正しい目的関数の設定など)が必要で、現実の複雑なタスク環境では外部からのデータ・評価を全て排除することは困難です。現在提案されている手法でこの要件(完全自律評価による自己改善)を満たすものは無く、たとえ部分的に満たしていても適用範囲が限定的です。例えばAlphaGo Zero式の自己対戦はゲームには有効でも、オープンエンドな現実問題には直接適用できません。同様に、AI同士で評価し合う仕組みも、結局は人間が与えたルールや報酬系の中での出来事です。したがって現時点のAI研究では、自己評価の完全自律化は理論的アイデアの域を出ておらず、汎用人工知能に向けては**部分的な自律(人の関与を減らす方向)**が進んでいる段階と言えるでしょう。
「知能爆発」とは、I.J.グッドが提唱したシナリオで、あるAIが自分より優れたAIを設計できるようになると、自己強化のフィードバックループが働き知能が指数関数的に向上するという仮説です
philarchive.org
。この現象が成立するための鍵の一つが、AI自身による正確な自己評価と自己改良です。もしAIが毎回の改良で自分の知能(性能)が確実に向上したと判断でき、それをもとにさらに改良を重ねられるなら、自己強化のサイクルが途切れることなく回り続ける可能性があります
intelligence.org
intelligence.org
。理論家たちは、「自分の設計能力を高めること」がAIにとっての収束的な目的(instrumental goal)になると指摘しており
intelligence.org
、十分高度なAIであれば自発的に自己改善を図るだろうと考えられています。自己評価の Permalink | 記事への反応(0) | 10:24
高次元データ空間の幾何学的構造は、情報科学におけるテーマであり、非線形性、トポロジー、リーマン多様体などの数学的概念を必要とする。
このような多様体は、局所的には線形空間として振る舞うが、全体としては非線形構造を持つ。
例えば、データがN次元ユークリッド空間に埋め込まれている場合、その埋め込みは必ずしもユークリッド距離に基づくものではなく、リーマン計量を用いた距離関数が適用されることが多い。
このアプローチは、確率分布のパラメータ空間をリーマン多様体として扱うことで、統計的推定や機械学習アルゴリズムの設計に新たな視点を提供する。
リーマン多様体上の最適化問題を扱う際には、フィッシャー情報行列が重要な役割を果たす。
フィッシャー情報行列は、パラメータ空間内の点での曲率を測定し、その逆行列は最適化アルゴリズムにおける収束速度に影響を与える。
具体的には、フィッシャー情報行列の固有値分解を通じて、多様体上の最適化問題における局所的な最適解の安定性や収束性を評価することが可能となる。
トポロジカルデータ解析は、高次元データの幾何学的構造を理解するための強力な手法である。
特に、持続的ホモロジーやベッチ数といったトポロジーの概念を用いることで、高次元空間内でのデータポイント間の関係性を捉えることができる。
持続的ホモロジーは、データセットが持つトポロジカル特徴を抽出し、その変化を追跡する手法であり、多様体の形状や穴の数などを定量化することが可能である。
これは、異なるスケールでデータを観察しても同じトポロジカル特徴が得られることを意味する。
具体的には、フィルタリング手法(例:距離行列やk近傍グラフ)を用いてデータポイント間の関係性を構築し、その後持続的ホモロジーを計算することで、高次元空間内でのデータ構造を明らかにする。
ユークリッド距離だけでなく、マンハッタン距離やコサイン類似度など、多様な距離関数が存在し、それぞれ異なる幾何学的特性を反映する。
特に、高次元空間における距離関数の選択は、クラスタリングアルゴリズムや分類器の性能に直結するため、その理論的根拠と実用的応用について深く考察する必要がある。
さらに進んだアプローチとして、構造化された距離関数(例:Mahalanobis距離)やカーネル法による非線形変換が挙げられる。
これらは、高次元空間内でのデータポイント間の関係性をより正確に捉えるために設計されており、多様体学習やカーネル主成分分析(KPCA)などで活用されている。
相対エントロピーを用いて、個人間の有益性の認識の違いを説明することができます。相対エントロピーは、2つの確率分布の違いを測る尺度です[1][2]。この概念を人々の価値観や有益性の認識に適用すると、以下のように解釈できます:
1. 確率分布の類推: 各個人の「有益」と感じる事柄の分布を確率分布として考えます。
2. 分布の比較: 2人の個人間で、これらの「有益性分布」を相対エントロピーを使って比較します。
3. 乖離の定量化: 相対エントロピーの値が大きいほど、2人の価値観や有益性の認識の乖離が大きいことを示します[4]。
4. 客観的指標: この方法により、主観的な「乖離」を数学的に表現し、客観的に評価することができます。
つまり、この返信は、個人間の価値観の違いを数学的に表現・分析する方法として相対エントロピーを提案しています。これにより、「乖離がある」という漠然とした感覚を、より精密に理解し議論することができるという意味を含んでいます。
Citations:
[1] ttps://note.com/hg_ishikawa/n/n4679dc35591f
[3] https://russell-j.com/miurat/bbs-2004.htm
[4] https://whyitsso.net/math/statistics/relative_entropy.html
[5] https://www.momoyama-usagi.com/entry/info-entropy
[7] https://logics-of-blue.com/information-theory-basic/
[8] https://developers.agirobots.com/jp/deep-learning-2020-kldiv/
[10] https://ejje.weblio.jp/content/relative+entropy
「想定量がおかしい」という定義に対して「1人が食べていい量の想定以上に食べてしまう人のことだ」って例をもって定義が違うんじゃないかって話をしてるんだぞ。
「両方食べていい量に思える」という主観的思考に固執して人間に与えられた「言語によるコミュニケーション」を放棄してるのは動物だな。
スキルポイント制は他のシリーズでも言えるがあまり好ましくないと思っている(ただし今作のそれはシステムの形骸的な側面を克服しようとしていて一定成功しているがそれでも振り直しがストレス。正直無料でもうざい。何ならクリア後までは振り直せない前提でバランス調整してくれた方が良かった。振り直しがある事で他のゲームとは違うビルド構築の楽しさがあるのは認めるが、やや面倒が勝った)
シナリオとキャラクターはシリーズらしさと世間の需要を上手い事擦り合わせられていたと思う。
マップのベースがオンゲである10の流用なので無意味にだだっ広い。10よりは狭く移動速度が速いのでマシではある。(序盤の移動や探索を敢えて過酷にしてからの中盤以降徐々に緩和していく事で)
移動に意味を持たせなかったのは英断。ライトユーザー向けの調整が困難を極めるだろうので
(後にゼノブレイドがこのゲームの戦闘UIの完成形を見せてくれた)
道筋通りに動くライトプレイヤーと道筋通りに動かない古参プレイヤーの導線を交錯させるために後者が二度手間させられてやや割を食う形になっていたが、これはまあ仕方なし
クエストもまんま10のそれなのでおつかい感がすごい。先回りして何かを見つけていても大抵その時点では回収できずに二度手間食わされた。方針は理解するが先回りに対してもう少し恩恵が欲しかった。あまりに報われない
ゾーンシステムはれんけい技の枷として上手く機能していたと思うが自発的に狙っていくインセンティブは薄いように感じた
錬金はポケモンのダメージ感覚を試されているみたいでまあまあ面白かったが一度作ったグレードのアイテムはワンボタンで量産できるようにして欲しかった。
主人公が無個性過ぎてストーリーへの没入感に影響を及ぼすレベルだった。これはグラフィックが進化した事との兼ね合いも大きい。
正直貶したい気持ちはあんまりないが体験の定量化のために一部の利便性が犠牲になっている事は無視できなかった
同じマップとキャラとシステムとストーリーで30時間のゲームを3回遊ばせるデザインは唯一無二なんじゃないかと思う
ちいさなメダルなんかよりモンスター図鑑の穴埋めに報酬を用意して欲しかった
自由度はあるが楽しもうと思ったら結局全ての通路を行く羽目になるのが良くない。マップ探索がただ穴埋めさせられてるような気分になる
JCTと言えば、と言われて誰もがその名前を出すようなジャパニーズトラディショナルカンパニーに転職して驚いたのが、食堂のショボさ。
と言うか前の会社が豪華すぎた感じなので(一律300円で日替わりランチが4種類あって、ラーメンうどん200円で外部から来た人も社員と一緒であれば利用できるとか)そこはまあ平均的だったのでしょうが、そこがさらに改悪された。
まず、価格が上がった。定食が700円から900円になった。これでキラキラのランチがでてくればまだ許せるのだが、明らかにショボい。
前は2種類あって、概ねお魚系とお肉系であった。ところがこれが廃止されて一種類に。
そして、メインがショボい。前はハンバーグとかも肉厚で、付け合わせにブロッコリーとかミックスベジタブルとか付いてきたのに、なんかそれが明らかに冷凍を解凍しましたみたいなやつになった。
特にお魚がおいしくない。焼き魚が出てこなくなってみんな竜田揚げか煮魚になったが、特に煮魚がまずい。と言うか蒸した魚にタレかけただけじゃねえのと言う疑いである。
そして副菜がほぼほぼポテトサラダかマカロニサラダになった。というかこいつらサラダじゃねえよ。ほぼ炭水化物だよ!
ご飯も前は自分でよそう方式だったのが、機械が導入されて定量べとっと落ちてくるタイプで、大盛りが有料になった。
味噌汁は具がほとんど入ってないのは前からそうだが、なんか妙に塩っ辛い気がする。塩分計を持ち込む勇気はないがこれ絶対身体に悪い奴だよね。
同じ900円だと、お昼休みに向かいのビルに出没するキッチンカーたちに買いに行った方がよい。それで無茶苦茶おいしい焼き魚のお弁当が変えてしまう値段である。
というかさっき買ってきた。
フレックスなので昼休み前倒しで帰ってこれるけど、まともに12時に休みを取る人たちは地獄の様に混雑するようになったようだ。