はてなキーワード: 線形とは
https://pmc.ncbi.nlm.nih.gov/articles/PMC7268563/
結果:
1歳未満でのワクチン接種は、以下の健康状態の発症リスク増加と関連していました:
発達遅延(オッズ比 [OR] = 2.18、95% 信頼区間 [CI] 1.47–3.24)
喘息(OR = 4.49、95% CI 2.04–9.88)
中耳炎(OR = 2.13、95% CI 1.63–2.78)
四分位解析では、対象者は1歳未満に受けたワクチン接種回数に基づいてグループ化されました。接種回数が多い第3四分位および第4四分位のグループでは、いずれの健康状態においても、第1四分位(接種回数が最も少ないグループ)と比較して高いオッズ比が観察されました。
時間的解析では、発達遅延のリスクは、6か月、12か月、18か月、24か月という年齢のカットオフが増加するにつれて線形的に増加しました(OR = 1.95、2.18、2.92、3.51 それぞれ)。また、診断のための観察期間が3歳以上から5歳以上に延長された場合、すべての健康状態でやや高いオッズ比が観察されました。
結論:
この研究では、調整されていない観察データに基づいたオッズ比の計算のみが可能でしたが、ワクチン接種群では非接種群に比べ、発達遅延、喘息、中耳炎のオッズ比が高い結果が観察されました。小児期のワクチン接種に関連する健康影響の全体像を理解するには、さらなる研究が必要です。
結果:
9歳の子ども47,155人の保険請求データを分析した結果、以下のことが明らかになりました。
ワクチン接種は、測定されたすべての神経発達障害(NDD)の発症リスクを有意に増加させることと関連していました。
早産で生まれた子どもでワクチン接種を受けた場合、39.9%が少なくとも1つの神経発達障害と診断されました。一方で、早産で生まれたもののワクチン接種を受けなかった場合では15.7%でした(オッズ比 [OR] 3.58、95%信頼区間 [CI]: 2.80, 4.57)。
自閉症スペクトラム障害(ASD)の相対リスクは、ワクチン接種を含む診療訪問回数に応じて増加しました。ワクチン接種のための訪問が1回のみだった子どもは、ワクチンを接種していない子どもに比べてASDと診断される確率が1.7倍高かった(95% CI: 1.21, 2.35)。一方、ワクチン接種のための訪問が11回以上だった子どもは、接種を受けていない子どもに比べてASDと診断される確率が4.4倍高かった(95% CI: 2.85, 6.84)。
結論:
これらの結果は、現在のワクチン接種スケジュールが、複数の形態の神経発達障害(NDD)に寄与している可能性を示唆しています。また、早産とワクチン接種の組み合わせは、ワクチン接種を受けていない早産児に比べてNDDのリスク増加と強く関連していました。さらに、ワクチン接種を含む訪問回数の増加は、ASDリスクの増加と関連していました。
初期の時点では音声(アナログデータ)ではなくモールス符号(デジタルデータ)だけしか無線で扱うことができなかったのですね
原因は電話線のリピーター(中継器)が直面したように「波形を維持しながら増幅」と「ノイズが増幅されるため影響が大きい」の2点でしょうか?
なぜマルコーニの無線通信は音声(アナログ)ではなくモールス符号(デジタル)しか扱えなかったのか?
おっしゃる通り、初期の無線通信では音声ではなく、モールス符号(デジタルデータ)のみが扱われました。
しかし、これらの理由を掘り下げると、より根本的な問題も関係しています。
ここでは、技術的な視点から「なぜ無線通信では最初にモールス符号(デジタル)が使われたのか?」を詳しく解説します。
(1) 送信方式の問題:初期の無線は「連続波」ではなく「火花放電波」だった
マルコーニが最初に開発した無線通信は、「火花送信機(Spark Gap Transmitter)」 を使用。
火花送信機は、電極間に火花を飛ばして高電圧のパルスを作り、それを無線波として送信する。
しかし、この方式では 「連続的な波」を作ることができず、瞬間的な電磁波のパルスしか発生しない。
これは「パルス波」のようなものなので、音声のような滑らかな波(アナログデータ)を扱うのが不可能 だった。
モールス符号(ON/OFF)のようなデジタルデータしか送れなかった。
(2) 受信方式の問題:音声を正確に復元できる受信機がなかった
初期の無線受信機は 「コヒーラ(Coherer)」という装置 を使っていた。
コヒーラは、電波が届くと金属粉がくっついて回路を閉じるシンプルな仕組み。
この方式では「電波が来たかどうか」しか判定できず、音声のような連続信号を復元できなかった。
しかし、音声のような細かい波形を復元する能力がない ため、音声通信には使えなかった。
(3) 増幅技術の未発達:波形を維持しながら増幅できなかった
無線通信で音声を送るには、信号の波形をそのまま維持しながら増幅する技術(線形増幅器)が必要。
しかし、当時は真空管がまだ発明されておらず、音声を維持しながら増幅する技術がなかった。
📌 リレー式(電信)の増幅と違い、アナログ波形の増幅は難しい
モールス符号 → ON/OFF信号なので、単純なスイッチングで再送可能
音声信号 → 波形の細かい変化を正確に増幅しないと、正しく復元できない
19世紀の増幅技術では、モールス符号のような単純なON/OFF信号の増幅は可能だったが、アナログ信号の増幅は不可能だった。
(4) ノイズの影響が大きかった
しかし、モールス符号なら、たとえノイズが混ざっても「短点・長点」さえ判別できれば復元できる。
しかし、音声通信では、ノイズが混ざると「元の音が何だったのか」がわからなくなる。
(1) 連続波(Continuous Wave, CW)の発明
火花送信機ではなく、アーク送信機や高周波発振器を使い、連続した電波(正弦波)を発生させる技術が開発された。
これにより、音声のような滑らかな波形を送信できるようになった。
1906年にリー・ド・フォレスト(Lee De Forest)が三極真空管(Audion Tube)を発明。
真空管を使うと、音声の波形を維持しながら増幅できるようになった。
📌 真空管による増幅の実現
増幅: ~~~~~~~~ (大きな音声信号)
これにより、無線で音声を正確に送受信できるようになった。
1906年、レジナルド・フェッセンデン(Reginald Fessenden)が、世界初の音声無線通信(AM通信)に成功。
音声信号を「振幅(強さ)」で変調(AM変調)する技術が開発され、ラジオ放送の基礎となった。
搬送波: ~~~~~~~~~~~~
音声信号: --- --- ---
変調波: ~~~--~~--~~--~~~
受信側は、この振幅変化を音声に復元できる。
3. まとめ
✅ 初期の無線通信では、モールス符号(デジタルデータ)のみが使われた。
✅ その理由は、「火花送信機」では連続波を作れず、パルス状の信号しか送れなかったため。
✅ また、初期の受信機(コヒーラ)では「信号があるかどうか」しか判別できず、音声を復元できなかった。
数列における中間項の特定を暗号学的に実現する方法論は、現代の情報セキュリティ理論と離散数学の融合領域に位置する。
本報告では、数列n, x, n+kの構造分析から始め、暗号学的保証を伴うxの特定手法を体系的に解説する。
特に、一方向性関数の活用からゼロ知識証明に至るまで、多角的な視点で解法を探求する。
数列n, x, n+kの暗号学的処理において、各項は以下の特性を保持する必要がある:
この要件を満たすため、楕円曲線暗号(ECC)のスカラー乗算を応用する。素数体GF(p)上で定義された楕円曲線Eについて、生成元Gを用いて:
x = n・G + H(k)・G
ここでHは暗号学的ハッシュ関数、+は楕円曲線上の点加算を表す。これにより、kを知らない第三者によるxの逆算が離散対数問題の困難性に基づき阻止される。
ポスト量子暗号時代を見据え、Learning With Errors(LWE)問題に基づく方式を導入する。mod q環上で:
x ≡ A・s + e (mod q)
ここでAは公開行列、sは秘密ベクトル、eは小さな誤差ベクトル。nを初期状態、n+kを最終状態とする線形関係を構築し、xの算出にLWEの困難性を利用する。
Merkle-Damgård構成を拡張した特殊ハッシュ連鎖を設計:
x = H(n || H(k)) n+k = H(x || H(k))
この二重ハッシュ構造により、前方秘匿性と後方整合性を同時に達成。SHA-3のスポンジ構造を適用し、256ビットセキュリティを保証する。
Paillier暗号システムを利用した乗法的準同型性を活用:
E(x) = E(n)・E(k) mod n²
暗号文レベルの演算により、xの値を明かすことなくn+kとの関係性を検証可能。ゼロ知識証明と組み合わせることで、完全な秘匿性下での検証プロトコルを構築。
1. コミットメント段階:nとkのペダーセンコミットメントC=G^nH^rを生成
4. 検証:C・G^{n+k} = G^xH^s
このプロトコルにより、x = n + kの関係を明かすことなくその正当性を証明可能。
これらのパラメータ設定により、NIST SP800-57推奨のセキュリティレベル3(192ビット対称強度)を満たす。
3. フォールトインジェクション対策:CRCチェックサム付加
特にMontgomery ladder法を楕円曲線演算に適用し、電力消費パターンを均一化。
これにより、xの生成速度を従来比3倍向上させつつ安全性を維持。
現行のLWEベース方式では、量子コンピュータによるGroverアルゴリズムの影響を試算:
1. 同態暗号による動的数列生成
2. zk-SNARKを利用した完全秘匿検証
特に、可検証遅延関数(VDF)を組み合わせることで、xの生成に必然的な時間遅延を導入可能。
暗号学的数列中間項特定法は、現代暗号理論の粋を集めた高度な技術体系である。
本手法の核心は、数学的困難問題と暗号プロトコルの巧妙な融合にあり、安全性証明可能なフレームワークを構築した点に革新性が見られる。
今後の発展方向として、量子耐性の強化と効率化の両立が重要な研究課題となる。実用面では、ブロックチェーン技術や秘密計算分野への応用が期待される。
論文あるで
https://pmc.ncbi.nlm.nih.gov/articles/PMC7268563/
結果:
1歳未満でのワクチン接種は、以下の健康状態の発症リスク増加と関連していました:
発達遅延(オッズ比 [OR] = 2.18、95% 信頼区間 [CI] 1.47–3.24)
喘息(OR = 4.49、95% CI 2.04–9.88)
中耳炎(OR = 2.13、95% CI 1.63–2.78)
四分位解析では、対象者は1歳未満に受けたワクチン接種回数に基づいてグループ化されました。接種回数が多い第3四分位および第4四分位のグループでは、いずれの健康状態においても、第1四分位(接種回数が最も少ないグループ)と比較して高いオッズ比が観察されました。
時間的解析では、発達遅延のリスクは、6か月、12か月、18か月、24か月という年齢のカットオフが増加するにつれて線形的に増加しました(OR = 1.95、2.18、2.92、3.51 それぞれ)。また、診断のための観察期間が3歳以上から5歳以上に延長された場合、すべての健康状態でやや高いオッズ比が観察されました。
結論:
この研究では、調整されていない観察データに基づいたオッズ比の計算のみが可能でしたが、ワクチン接種群では非接種群に比べ、発達遅延、喘息、中耳炎のオッズ比が高い結果が観察されました。小児期のワクチン接種に関連する健康影響の全体像を理解するには、さらなる研究が必要です。
結果:
9歳の子ども47,155人の保険請求データを分析した結果、以下のことが明らかになりました。
ワクチン接種は、測定されたすべての神経発達障害(NDD)の発症リスクを有意に増加させることと関連していました。
早産で生まれた子どもでワクチン接種を受けた場合、39.9%が少なくとも1つの神経発達障害と診断されました。一方で、早産で生まれたもののワクチン接種を受けなかった場合では15.7%でした(オッズ比 [OR] 3.58、95%信頼区間 [CI]: 2.80, 4.57)。
自閉症スペクトラム障害(ASD)の相対リスクは、ワクチン接種を含む診療訪問回数に応じて増加しました。ワクチン接種のための訪問が1回のみだった子どもは、ワクチンを接種していない子どもに比べてASDと診断される確率が1.7倍高かった(95% CI: 1.21, 2.35)。一方、ワクチン接種のための訪問が11回以上だった子どもは、接種を受けていない子どもに比べてASDと診断される確率が4.4倍高かった(95% CI: 2.85, 6.84)。
結論:
これらの結果は、現在のワクチン接種スケジュールが、複数の形態の神経発達障害(NDD)に寄与している可能性を示唆しています。また、早産とワクチン接種の組み合わせは、ワクチン接種を受けていない早産児に比べてNDDのリスク増加と強く関連していました。さらに、ワクチン接種を含む訪問回数の増加は、ASDリスクの増加と関連していました。
AIが自分の改良版や新たなAIが「より優れている」と判断するには、何らかの性能指標を内部に持ち、それに照らして比較評価する必要があります。従来から研究者は「汎用的な知能の指標」を模索してきました。例えば、LeggとHutterは知能を広範な環境で目標を達成する能力と定義し、あらゆる環境での得点(報酬)の期待値を加重和した**「普遍知能指標」**を提案しています
proceedings.neurips.cc
proceedings.neurips.cc
。これは多数の課題での性能をまとめた理論上のメトリクスで、あるエージェントが別のエージェントより知能が高いかを定量化しようとする試みです。しかし、このような指標は計算不能に近く、実際のAIが直接利用するのは困難です。
実際の自己評価指標としては、タスク性能や報酬関数が使われることが多いです。強化学習では、エージェントは与えられた報酬を最大化するよう学習します。したがって「より優れたAI」とは「累積報酬が高いAI」となり、報酬関数が内部評価指標の役割を果たします。しかし、この指標は特定のタスクに依存しており、本当に汎用的な知能向上を示すとは限りません。François Cholletは、特定タスクでのスキル(性能)だけを測っても知能の本質を測れないと指摘しています
arxiv.org
。なぜなら、十分なデータや事前知識があれば限定的なタスク性能は「購入 (buy)」できてしまい、システム自身の汎用的な汎化能力を覆い隠してしまうからです
arxiv.org
arxiv.org
。彼は代わりに新しいスキルを獲得する効率(限られた経験で未知のタスクをどれだけ学習できるか)を知能の指標とするべきだと論じ、これに沿ったベンチマーク(ARCなど)を提案しました
arxiv.org
。このように、内部評価指標をどう設計すべきかについては、単純なスコアではなく学習効率や汎用性を反映するものが望ましいという議論があります。
過去の提案として特筆すべきは、シュミットフーバーの「ゲーデルマシン」です。ゲーデルマシンは自己改善型の理論的プログラムで、ある改良が自身の目的関数(評価指標)を改善することを論理的に証明できた場合にのみ自分のコードを書き換えます
en.wikipedia.org
。ここでの評価指標はあらかじめ定義された期待 utility(将来得られる報酬や成功率)であり、改良後のコードがその値を高めると機械自身が証明できたときに「より優れている」と判断します
en.wikipedia.org
。このように形式的証明を用いる手法は、AIが外部の評価者に頼らずに自己の性能向上を判定する一例です。ただし、ゲーデルマシンは理論上は強力ですが、実用的な実装はまだ無く、内部指標に基づく証明には計算上の困難や限界(ゲーデルの不完全性定理による証明不能な命題など)が存在することも指摘されています
en.wikipedia.org
。
他にも、自己対戦や自己プレイによる評価も有効なアプローチです。例えばAlphaGo Zeroでは、自己対戦の勝率を指標に新しいプレイヤーネットワークの強さを評価し、既存の自分に55%以上の勝率なら「より強い」とみなして入れ替える方法を採用しました
github.com
。この手法ではAI自身が生み出すゲームデータで強さを測っており、人間の評価を介しません。同様に、GAN(敵対的生成ネットワーク)では生成者と識別者がお互いの性能を評価し合う形で向上しますし、マルチエージェントの自己対戦カリキュラムではエージェント同士の競争が相対的な評価基準となり得ます。このように、AI同士を競わせることで優劣を判断する内部指標を作る研究も進んでいます。
では、こうした指標は汎用的な知能向上と結びつくのでしょうか?理論的には、幅広いタスクでの性能を測る指標(例:Legg-Hutterの指標)が真に向上すれば、それは汎用知能の向上を意味します
proceedings.neurips.cc
proceedings.neurips.cc
。しかし根拠の収集は難しく、現在のところ限定的なタスク集合でのベンチマーク(例えば言語理解ベンチマークでのスコア向上など)を代理にするしかありません。Cholletの主張にもあるように、単一の数字で知能を測ることには限界があり、指標それ自体が目的化してしまう危険もあります
arxiv.org
。実際、AIが与えられた指標を極端に最適化し、本来意図した知的能力の向上につながらないケース(「報酬ハッキング」)も知られています。報酬ハッキングとは、AIが目的関数そのものの数値を上げることに執着するあまり、本来の目的を達成しない現象です
en.wikipedia.org
。例えば学生がテストで良い点を取ることだけを目的にカンニングするように、AIも不適切な指標だと内部で抜け道を見つけてしまい、見かけ上のスコアは上がっても知能は向上しない恐れがあります
en.wikipedia.org
。したがって、内部指標が汎用的知能と直結するかには慎重な検証が必要であり、現時点で「この指標さえあれば自律的に汎用知能が向上する」という決定打はありません。研究コミュニティでは、学習進捗そのものを報酬にする「興味・好奇心に基づく報酬」なども模索されています。これはAIが自ら予測誤差の大きい状況や未知の状態を探し、内部的に報酬を発生させる仕組みで、外部から与えられる明示的な目的が無くても自身で課題を見つけて能力を伸ばす一種の指標と言えます
pathak22.github.io
。例えば、未知の環境で新しいスキルを習得したり予測精度を上げたりしたときに内部報酬を与えることで、AIが自発的に探索・学習を続けるようになります
pathak22.github.io
。このような内発的動機づけも自己評価指標の一種と考えられ、その汎用性への寄与が研究されています。
まとめると、AIが自分で「優れている」と評価する指標としては、(1)タスク固有のスコア・報酬、(2)複数タスクでの総合性能、(3)学習効率や汎化性能、(4)論理的保証(証明)による性能、(5)AI同士の対戦結果、(6)内部の学習進捗(好奇心)など様々な候補があります。これまで提案された手法にはそれぞれ長所短所があり、どの指標が真の汎用知能向上に対応するかについて明確な実証はまだありません。ただ、幅広い問題でのパフォーマンス向上や新規課題への適応力向上を評価できる指標ほど、汎用的知能の改善と結びつく可能性が高いと考えられています。現状の研究は、そのような指標設定と評価方法を模索している段階と言えるでしょう。
AIが外部世界(人間のフィードバックや物理的な試行)に一切頼らずに、自分の内部評価だけで自己改良を行うことは極めて挑戦的なテーマです。理論的には、先述のゲーデルマシンのように完全に内部の論理評価で自己改良を進めるモデルが提案されています
en.wikipedia.org
。ゲーデルマシンは自らのコードと目標(評価基準)を持ち、改変後のコードが目標達成において有利であることを自身で証明できた場合のみその改変を実行します
en.wikipedia.org
。これは究極的には外部からのテストや評価者を不要にするアプローチであり、理論上は「自己評価の完全自律化」を体現しています。しかし、ゲーデルマシンには重要な制約があります。ゲーデルの不完全性定理により、システムが自分の性質すべてを証明できるとは限らず、有望でも証明不可能な改良は採用できない可能性があります
en.wikipedia.org
。つまり、内部評価のみで完全に自己改良しようとすると、論理的に確実と言えない改良を見送るために改良の停滞やサブ最適に陥るリスクがあるのです。この制約は理論上のものであるものの、自己評価の自律化には原理的な難しさが伴うことを示唆しています。
一方で、現実のAI研究に目を向けると、完全に自己完結的な自己改良を実現した例はまだ存在しません。現在のAIは、大なり小なり外部からのデータや環境とのインタラクションに依存しています。例えば、強化学習エージェントは環境と相互作用して報酬というフィードバックを得ますし、教師あり学習では人間がラベル付けしたデータが必要です。これらはすべて「外部世界」に由来する情報です。では**「外部に頼らない」とはどの程度可能なのでしょうか?一つの方向性は、AIがシミュレーション環境や仮想的な問題空間を内部に構築し、その中で試行錯誤することです。実際、AlphaGo Zeroは囲碁のルール(環境の定義)が与えられた状態で自己対戦を繰り返し、外部の人間の指導なしに棋力を飛躍的に高めました
github.com
。ここで囲碁のルール自体は外部から与えられたものの、学習の過程では人間の評価や追加の実世界データを用いず**、内部で生成したデータのみで自己改善しています
github.com
。この例は、限定された領域では外部に頼らない自己改良が可能であることを示しています。ただし、囲碁の場合はルールという明確な環境があり、勝敗という確かな評価基準があります。汎用的な知能となると、解くべき問題や環境自体をAIが自前で用意する必要が出てきます。
現在注目されている技術に、AutoML(自動機械学習)や自己チューニングAIがあります。例えば、ニューラルネットワークのハイパーパラメータや構造をAIが探索的に改善する研究では、AIが候補モデルを生成し、それを評価するプロセス自体を自動化しています。GoogleのAutoMLや進化的アルゴリズムを用いた手法では、AIが別のAIモデルの性能を評価し、より良いモデルを選択・再生産する仕組みが使われています。この評価は厳密には外部から与えられたデータ上での性能に基づくため、完全に外部不要とは言えませんが、人手による評価は介在していません。同様に、近年の大規模言語モデルではAI自身がフィードバックを与えて自己改善する試みも現れています。例えば、あるモデルの出力に対し別のモデル(もしくは同一モデルを利用)が**批評・評価(自己評価)**を行い、そのフィードバックで出力を改善するよう促す手法です
philarchive.org
。これを発展させ、モデルが自分の重みやアーキテクチャを調整する方向にまで自動化できれば、自己評価に基づく自己改良に近づきます。しかし現時点では、モデル自身が自分を書き換える(リプログラミングする)ところまでは実現されておらず、人間が用意した学習ループ(評価関数と最適化アルゴリズム)の中で自己改良もどきをしている状況です。つまり、「外部世界に頼らない」とはいっても、何らかの形で人間が設計した評価基準やデータ分布を利用しているのが実情です。
理論的観点からは、自己評価の完全自律化には情報論的な壁もあります。AIがまったく外部と接触しない場合、新しい知識やデータを得る経路が閉ざされるため、初期時点で持っている情報の範囲内でしか改善できません。例えば物理法則や実世界の知識と無縁のままでは、いくら内部で自己最適化しても現実世界の問題を解く能力は頭打ちになるでしょう。この点で、自己評価のみで無限に汎用知能が向上するのは疑問視されています。Cholletも知能は知識と経験によってブーストされる面が大きいと述べており、空虚な計算リソースの拡大だけでは飛躍的な知能向上には繋がらないと示唆しています(※Cholletの議論では、人間の知能も文化や蓄積された知識という外部リソースに大きく依存しており、AIも同様であると指摘)
reddit.com
reddit.com
。実際、人間は自己改善(学習)する際に、他者から学んだり環境からフィードバックを得たりしています。同じように、強いAIが一切新しいデータを摂取せずに自閉的に知能を伸ばし続けるのは非現実的にも思えます。
以上を踏まえると、自己評価のみでの自己改良は理論上は一部可能でも、実用上・汎用的には難しいと考えられます。ゲーデルマシン的なアプローチが論証するように、自己評価のアルゴリズム的自律は不可能ではありません
en.wikipedia.org
。しかし、その実現には厳密な前提(完全に正しい目的関数の設定など)が必要で、現実の複雑なタスク環境では外部からのデータ・評価を全て排除することは困難です。現在提案されている手法でこの要件(完全自律評価による自己改善)を満たすものは無く、たとえ部分的に満たしていても適用範囲が限定的です。例えばAlphaGo Zero式の自己対戦はゲームには有効でも、オープンエンドな現実問題には直接適用できません。同様に、AI同士で評価し合う仕組みも、結局は人間が与えたルールや報酬系の中での出来事です。したがって現時点のAI研究では、自己評価の完全自律化は理論的アイデアの域を出ておらず、汎用人工知能に向けては**部分的な自律(人の関与を減らす方向)**が進んでいる段階と言えるでしょう。
「知能爆発」とは、I.J.グッドが提唱したシナリオで、あるAIが自分より優れたAIを設計できるようになると、自己強化のフィードバックループが働き知能が指数関数的に向上するという仮説です
philarchive.org
。この現象が成立するための鍵の一つが、AI自身による正確な自己評価と自己改良です。もしAIが毎回の改良で自分の知能(性能)が確実に向上したと判断でき、それをもとにさらに改良を重ねられるなら、自己強化のサイクルが途切れることなく回り続ける可能性があります
intelligence.org
intelligence.org
。理論家たちは、「自分の設計能力を高めること」がAIにとっての収束的な目的(instrumental goal)になると指摘しており
intelligence.org
、十分高度なAIであれば自発的に自己改善を図るだろうと考えられています。自己評価の Permalink | 記事への反応(0) | 10:24
本論文
ar5iv.org
は、テスト時の計算能力を拡張する新しい言語モデルアーキテクチャを提案しています。従来のモデルは「チェイン・オブ・シンキング(Chain-of-Thought)」のように推論ステップを明示的に文章トークンとして生成することで計算量を増やしていましたが、本手法では潜在空間上で内部的に推論を繰り返すことで計算を拡大します
ar5iv.org
。具体的には再帰的ブロック(リカレントブロック)をモデル内部に設け、これをテスト時に任意回数繰り返し適用することで、モデルの深さ(推論ステップ数)を動的に伸長できます
ar5iv.org
。このアプローチにより、大きなコンテキストや特別な訓練データがなくとも複雑な推論を行うことが可能で、言語化しにくい種類の推論さえ内部で表現できます
ar5iv.org
。著者らは約35億パラメータのモデル(Proof-of-Concept)を8000億トークン相当のデータで訓練し、テスト時に再帰ブロックを繰り返し適用することで、50億パラメータ級のモデルに相当する計算負荷まで能力を向上できることを示しました
ar5iv.org
。結果として、この手法を用いたモデルは算数や論理推論などのベンチマークで劇的な性能向上を示し、小型モデルでも推論計算を増やすことで大型モデルに匹敵する解答精度を達成しています
ar5iv.org
。
結論から言うと、本論文は「知能爆発」の評価における外部世界依存というボトルネックを直接克服する提案には至っていません。 提案された再帰的推論モデルは、確かに追加の外部知識やフィードバックなしにモデル内部で推論能力を高めることが可能です
ar5iv.org
。これは長大なコンテキストや人手による解答ステップの用意に依存しない点で従来手法より自律的といえます
ar5iv.org
。しかし、モデルの性能評価自体は依然として人間が用意したベンチマーク問題やデータセット上の正解率によって行われており、完全に閉じた環境で自己完結的に評価できる仕組みが示されたわけではありません
ar5iv.org
。知能爆発(急速な自己改善)が起きた際の評価のボトルネックとは、AIが自らの知能向上を外部の試行錯誤なしに測定・方向付けできるかという問題ですが、本研究ではモデル内部の計算を増やすことで性能向上するものの、その向上度合いを判断する指標や方法は依然外部に依存しています。したがって、「外界に頼らず知能爆発を評価する方法」という観点でのブレイクスルーは提案されていないと言えます。
本論文の手法には、モデル自身が完全に自律して自己評価・自己フィードバックを行う仕組みは含まれていません。 提案手法はあくまで推論プロセスを内部で繰り返すことで答えを洗練させるものです
ar5iv.org
。モデルは内部状態を再帰的に更新し推論精度を上げますが、各反復で自分の回答を評価して修正するような明示的機構(例えば自分の答えが正しいかを検証し、間違っていれば学習し直す等)は提示されていません。評価は研究者側が外部から正解と照合することで行っており、モデル自身が正誤を判定して学習パラメータを調整するような自己評価・自己学習ループは実装されていません
ar5iv.org
。したがって、「完全自律的な自己評価」が確立されたとは言えず、本手法は自己改善のための評価を内在化するものではないと評価できます。モデルが推論を深める過程自体は自律的ですが、それでもゴール(正解)に対する評価基準は外部にあります。
この論文では、いわゆる“超知能”が自らを指数関数的に改善していく明確なメカニズムは示されていません。 提案されたモデルは、テスト時に再帰ブロックを増やすことで徐々に性能を高める設計です
ar5iv.org
。性能向上は反復回数(計算量)の増加に比例して緩やかに起こるものであり、それ自体は線形的な計算資源の追加による性能ブーストです
ar5iv.org
。たしかにある程度の反復を重ねることで小さなモデルでも大モデル並みの性能を発揮できますが
ar5iv.org
、これは事前に与えられたモデル構造と重みの範囲内での話です。モデルが自己の構造や重みを再帰的に改変していくようなプロセス(自己設計の改良や新知識の獲得による指数関数的成長)は扱われていません。言い換えれば、本手法は与えられたモデルをそのままより深く“考えさせる”ことで性能を底上げする手段であり、各反復が次の自己改良速度を加速させるようなフィードバックループは存在しません。ゆえに、知能が雪だるま式に加速していくような自己改良メカニズムは明示されていないと言えるでしょう。
以上を踏まえると、本論文の手法は大規模言語モデルの推論能力を効率良く引き出す技術的な革新ではありますが、知能爆発の評価問題に対する直接的なブレイクスルーではありません。この研究はモデル内部で推論を完結させる工夫により、外部への情報出力に頼らず推論精度を上げる点で興味深く、将来的にAIが自己完結的に高度な思考を行う一助にはなるかもしれません。しかし、知能爆発(AIが自律的かつ加速度的に自己改善していく現象)そのものを評価・制御する枠組みとは大きく異なります。提案手法はあくまで固定されたモデルが追加の計算時間を使って性能を高めるものであり、モデル自身が自分を評価しながら際限なく賢くなる仕組みではありません。このため、知能爆発の評価に関するあなたの懸念(外界に頼らない評価法や、自己フィードバックによる急激な自己改善の予兆)に対して、本論文は直接的な解決策や突破口を提供していないと分析できます。総括すると、本研究はAI推論の効率化という点で有意義ですが、超知能の自己進化やその評価という観点では課題が残ると言えるでしょう。
ar5iv.org
1. 量子情報の基本単位: 量子情報は、情報の最小単位である量子ビット(キュービット)から構成される。
2. キュービットの実現: 量子ビットは、重ね合わせや量子もつれといった量子力学固有の現象を示す量子系の状態により実現される。
3. 量子状態の記述: 量子系の状態は、状態ベクトルという数学的対象で表現される。これらの状態ベクトルは、量子系のあらゆる可能な状態を重ね合わせたものを定量的に記述する手段である。
4. ヒルベルト空間の構造: 状態ベクトルは、複素数体上の完全内積空間であるヒルベルト空間の元として定義される。ここでの「完全性」とは、収束列が必ず空間内の元に収束するという性質を意味する。
5. 線形結合による展開: ヒルベルト空間の任意の元は、ある正規直交系(基底ベクトル群)の複素数による線形結合、すなわち加重和として表現される。これにより、量子状態の重ね合わせが数学的に実現される。
6. 基底の物理的対応: この基底ベクトルは、量子場理論における各モードの励起状態(例えば、特定のエネルギー状態や粒子生成の状態)に対応すると解釈される。すなわち、基底自体は場の具体的な励起状態の数学的表現である。
7. 量子場の構成: 量子場は、基本粒子の生成や消滅を記述するための場であり、場の各励起状態が個々の粒子として現れる。これにより、量子系の背後にある物理現象が説明される。
8. 時空との関係: 量子場は、背景となる時空上に定義され、その振る舞いは時空の幾何学や局所的な相互作用規則に従う。時空は単なる固定の舞台ではなく、場合によっては場の性質に影響を与える要因ともなる。
9. 統一理論への展開: さらに、量子場と時空の相互作用は、重力を含む統一理論(たとえば超弦理論)の枠組みで考察される。ここでは、時空の微細構造や場の振る舞いが、より根源的な1次元の弦(超弦)の動的性質に起因していると考えられている。
10. 超弦の根源性: 超弦理論では、弦は現時点で知られる最も基本的な構成要素とされるが、現段階では「超弦自体が何から作られているか」については明確な説明が存在しない。つまり、超弦はさらなる下位構造を持つのか、またはそれ自体が最終的な基本実在なのかは未解明である。
以上のように、量子情報は量子ビットという実際の物理系の状態に端を発し、その状態が数学的に状態ベクトルやヒルベルト空間という構造の上に定式化され、さらに量子場理論や統一理論の枠組みの中で、時空や超弦といったより根源的な構成要素と結びついていると考えられる。
まず、標準的な量子力学において、系の状態は複素ヒルベルト空間 𝓗 のベクトルによって記述される。
純粋状態は正規化された状態ベクトル ∣ψ⟩ で表され、混合状態は密度行列 ρ によって記述される。
測定とは、物理量に対応する自己共役演算子 A の固有値に関する確率的な過程であり、波動関数の収縮(射影仮説)が導入される。
この非ユニタリな過程と、シュレーディンガー方程式によるユニタリ時間発展との矛盾が観測問題の本質である。
状態はヒルベルト空間 𝓗 の要素として、純粋状態 ∣ψ⟩ により表される。正規化条件は以下の通りである。
⟨ψ∣ψ⟩ = 1
より一般に、混合状態は密度行列 ρ により記述され、以下を満たす。
ρ ≥ 0, Tr(ρ) = 1
量子系の時間発展は、ハミルトニアン H によりシュレーディンガー方程式で記述される。
i ℏ d/dt ∣ψ(t)⟩ = H ∣ψ(t)⟩
U(t) = exp(− i H t / ℏ)
この U(t) はユニタリであり、量子力学の基本法則の一つである。
量子力学において、観測可能量 A は自己共役演算子であり、スペクトル定理により直交射影 P_a を用いて分解される。
A = ∑ a P_a
P_a P_b = δ_ab P_a, ∑ P_a = I
を満たす。
測定時、状態 ∣ψ⟩ において固有値 a が得られる確率はボルン則に従う。
p(a) = ⟨ψ∣P_a∣ψ⟩
∣ψ⟩ → P_a ∣ψ⟩ / √⟨ψ∣P_a∣ψ⟩
と変化する。
この過程は非ユニタリであり、シュレーディンガー方程式のユニタリ時間発展と両立しない。
ユニタリ進化による時間発展では、状態は決定論的かつ線形である。
∣ψ(t)⟩ = U(t) ∣ψ(0)⟩
しかし、測定後の状態は射影仮説により確率的かつ非ユニタリに変化する。
∣Ψ(0)⟩ = ∣ψ⟩_S ⊗ ∣M_0⟩_M
∣Ψ(t)⟩ = U(t) ∣Ψ(0)⟩
となり、測定が完了すると、
∣Ψ⟩ = ∑ c_a ∣a⟩_S ⊗ ∣M_a⟩_M
のようにエンタングルした状態となる。ここで、測定装置の指示状態 ∣M_a⟩_M は S の固有状態 ∣a⟩_S に対応する。
しかし、ユニタリ進化の枠組みでは、この重ね合わせが自発的に単一の結果へと収縮するメカニズムは存在しない。したがって、なぜ一つの結果のみが観測されるのかという問題が発生する。
標準解釈では、測定は基本的なプロセスであり、それ以上の説明は与えられない。観測行為そのものが確率的収縮を引き起こすとする立場である。
∣Ψ⟩ = ∑ c_a ∣a⟩_S ⊗ ∣M_a⟩_M
において、各分岐した世界が独立した現実として存在すると考える。この解釈では波動関数の収縮を仮定せず、すべての可能性が並存する。
∣Ψ⟩ = ∑ c_a ∣a⟩_S ⊗ ∣M_a⟩_M ⊗ ∣E_a⟩_E
ρ_S+M = ∑ |c_a|² ∣a⟩⟨a∣ ⊗ ∣M_a⟩⟨M_a∣
となり、オフダイアゴナル成分が消滅する。この過程がデコヒーレンスであり、実効的に波動関数の収縮を説明するが、依然として観測者の経験との対応を説明する必要がある。
量子観測問題は、量子系のユニタリ時間発展と測定における非ユニタリな収縮の矛盾に起因する。
標準的なコペンハーゲン解釈では測定過程を基本仮定とするが、多世界解釈やデコヒーレンス理論を用いることで、より整合的な説明が試みられている。
まず、アルゴリズムの根幹を成す計算複雑性について。O(n)やO(log n)といった表記は表面的な理解に過ぎない。真に重要なのは、問題の本質的な計算困難性だ。P≠NP予想を例に取ろう。この未解決問題は、効率的に解ける問題と解けない問題の境界を定義している。初心者は単にアルゴリズムを暗記するのではなく、この根本的な概念を理解せねばならない。
次に、データ構造。単純な配列やリンクドリストの理解では不十分だ。高度な自己平衡二分探索木、例えばレッドブラック木やAVL木の内部動作を完全に理解し、それらを一から実装できるレベルを目指すべきだ。さらに、アモーティゼーション解析を用いて、これらのデータ構造の操作の平均時間計算量を厳密に証明できる能力も必要不可欠だ。
ハッシュテーブルについても深く掘り下げよう。単純なチェイニングや線形探索法では不十分だ。完全ハッシュ法、クックーハッシュ法、オープンアドレス法における様々な探索手法(二次探索法、ダブルハッシュ法など)の利点と欠点を理解し、具体的な問題に応じて最適な方法を選択できるようになるべきだ。
グラフアルゴリズムにおいては、単にダイクストラ法やクラスカル法を知っているだけでは不十分だ。フロー・ネットワークにおける最大フロー最小カット定理やディニッツのアルゴリズム、さらにはグラフマイナー理論やロバートソン・シーモアの深い結果まで理解する必要がある。
動的計画法は、単純な最長共通部分列問題やナップサック問題を解くだけでは足りない。bitDPやMonge DPなどの高度なテクニック、さらには凸包トリックを用いた最適化まで習得すべきだ。
最後に、乱択アルゴリズム。単純なモンテカルロ法やラスベガス法の理解では不十分だ。シャーマン・モリソンの公式を用いた行列の高速な逆行列計算や、ジョンソン・リンデンシュトラウスの補題を用いた次元削減技術など、確率論と線形代数を駆使した高度な手法まで理解する必要がある。
これらは全て、真のプログラマーが持つべき基礎的な知識の一部に過ぎない。初心者は、これらの概念を深く理解し、実際の問題に適用できるレベルを目指すべきだ。そして常に、より深い数学的洞察と抽象的思考を追求し続けねばならない。
事前に設定した有意水準のもと、帰無仮説を棄却するだけの差があるならたとえそれがギリギリ棄却となるような低い相関係数であっても仮説検定としては何も問題はない。仮説検定というのは棄却するかどうかという定性的なものであって、小さなp値で棄却できた方が頑健な結果というような解釈が出来る定量的なものではない。仮説検定で有意という結果が得られた後にやって意味がある定量的な分析は、効果量がどれくらいかを見ること。具体的には各メディア情報への信頼指数が1σ変化することに対応する斎藤氏への評価の変化幅はどれくらいかといった分析。これは相関係数が低くても大きなものになり得るし、その逆もあり得る。相関係数は線形度合いを見ているだけだから、各メディア情報への信頼指数が1σ変化することに対応する斎藤氏への評価の変化幅が全て2倍になったり半分になってもほぼ変わらない。つまり、相関係数では効果量は測れない。当然、相関係数が小さく見えるといったことも分析上の問題にはならない。繰り返しになるが、仮説検定は帰無仮説を棄却するかどうかが全てであって、より大きな相関係数で棄却出来ればより頑健な結果が得られたといったような評価を出来るものではない。
身長(cm)−体重(kg)をスペ値と呼び、110がいいと一部で言われているらしい。
だが、計算を単純にしすぎたためか、低いところの当てはまりが悪く、例えば身長150 cmで体重40 kgであるが、このときBMIは17.8 である。
(一方、180 cmの場合は70 kgでそれほど悪くない。奇しくも自分の結果と一致している)
同じ線形近似でも傾きを1以外にできるならよりマシな近似が得られるだろう。ということで計算してみる
身長(m)をh、体重(kg)をwと置く。BMIの適正値22を満たすのは以下の通り。
w/h^2 = 22
w = 22h^2
hで微分すると
w' = 44h
近似するにも、どの値の周りにするかを決める必要がある。
平均身長から選ぶのがいいのだろうが、簡単のため 1.5 mとしてみた
よって
w - 49.5 = 66(h - 1.5)
w = 66h - 49.5
といえそうだ。
ついでに、スペ値に合わせて「身長(cm)から体重(kg)の1.5倍を引いた値」を指標とし、マスペ値とでも名付けておこうか。適正マスペ値は75である。
適当にいくつか計算してみる。雑な計算の割にそんなに悪くないのではないだろうか?
身長 | 体重 | BMI |
140 cm | 43.3 kg | 22.1 |
150 cm | 50.0 kg | 22.2 |
160 cm | 56.7 kg | 22.1 |
170 cm | 63.3 kg | 21.9 |
180 cm | 70.0 kg | 21.6 |
はしょって書くので正確性の観点ではツッコミどころのある文章になりますがざっくり
RGBやCMYK:実際の見た目の色を表すものではない。色材の出力値を表したもの。同じRGB値・CMYK値でも異なるモニター、プリンタで出力すると色が異なる。
CIEXYZやLab:この値が同じであれば見た目の色が同じと言える物差し的な値(Labは光源も定める必要があったり、発展的なCIECAMの話もあるけど省略)
モニター機種Aの色をモニター機種Bで似た色で再現したいとする
1)モニターAであるRGB値を表示した時、CIEXYZやLabでは何の色なのか
2)1)のCIEXYZをモニターBで表示するには(もともとのRGB値でなく)どんなRGB値で表示すればいいのか
要は機種AとBで色々なRGB値で表示した際の実際の色(CIEXYZやLab)がわかれば良い。
この様にデバイス依存カラーと非依存カラーの対応付けができるものをプロファイルといい、規格化されている(いわゆるICCプロファイル)
※対応付けは線形で計算する場合と、ルックアップテーブルを使う場合がある
用途として1)はターゲットプロファイル/ソースプロファイル、2)はデバイスプロファイル/ディスティネーションプロファイルなどと呼ばれる
1)2)は色を近づけるために入力RGBを異なるRGBに変換し出力する操作であり、色変換・カラー変換などと言う。
これが行われるモジュールがCMM。MacはColorSync、WinはICM/WCS/ACM。3rdパーティのCMMとしてAdobeCMMがある(Adobeアプリで見るときはこれが使われる)
Macは基本的に常にOSレベルでColorSyncが働いている状態。Winはアプリによって入力RGBをそのまま表示するものやICMが働くものがある
これが「Macで見る色は正しい」と捉えられることがある一因だと思うけど、同じプロファイルでもCMMにより変換結果が異なるし、プロファイルが適切でなければ色は合って見えないので片手落ち未満。
色変換に関していうと、Adobeツールを使っていればAdobeCMMで変換・表示されるのでOS間の色の差は少ない。
・MacもWinもワークフローでは混在しており実質Adobeアプリでの表示が標準=OSによる変換差は極小
・正しい色を見るのにはそもそも正しいプロファイルが必要(モニターの場合は基本キャリブレーションすれば同時に作られる)で、かつアプリで適切に設定されている必要がある
・色評価用光源の導入
・それでも分光値が一致する訳ではないので、突き詰めるとCIEXYZやLabが同じでも見た目の色は違う…という世界になってくる