「線形」を含む日記 RSS

はてなキーワード: 線形とは

2025-02-19

anond:20250219181331

https://pmc.ncbi.nlm.nih.gov/articles/PMC7268563/

結果:

1歳未満でのワクチン接種は、以下の健康状態発症リスク増加と関連していました:

発達遅延(オッズ比 [OR] = 2.18、95% 信頼区間 [CI] 1.47–3.24

喘息(OR = 4.49、95% CI 2.04–9.88)

中耳炎(OR = 2.13、95% CI 1.63–2.78)

四分位解析では、対象者は1歳未満に受けたワクチン接種回数に基づいてグループ化されました。接種回数が多い第3四分位および第4四分位のグループでは、いずれの健康状態においても、第1四分位(接種回数が最も少ないグループ)と比較して高いオッズ比が観察されました。

時間的解析では、発達遅延のリスクは、6か月、12か月、18か月、24か月という年齢のカットオフが増加するにつれて線形的に増加しました(OR = 1.95、2.18、2.92、3.51 それぞれ)。また、診断のための観察期間が3歳以上から5歳以上に延長された場合、すべての健康状態でやや高いオッズ比が観察されました。

結論:

この研究では、調整されていない観察データに基づいたオッズ比の計算のみが可能でしたが、ワクチン接種群では非接種群に比べ、発達遅延、喘息中耳炎オッズ比が高い結果が観察されました。小児期のワクチン接種に関連する健康影響の全体像理解するには、さらなる研究必要です。

https://publichealthpolicyjournal.com/vaccination-and-neurodevelopmental-disorders-a-study-of-nine-year-old-children-enrolled-in-medicaid/

結果:

9歳の子ども47,155人の保険請求データ分析した結果、以下のことが明らかになりました。

ワクチン接種は、測定されたすべての神経発達障害(NDD)の発症リスク有意に増加させることと関連していました。

早産で生まれ子どもワクチン接種を受けた場合、39.9%が少なくとも1つの神経発達障害と診断されました。一方で、早産で生まれものワクチン接種を受けなかった場合では15.7%でした(オッズ比 [OR] 3.58、95%信頼区間 [CI]: 2.80, 4.57)。

自閉症スペクトラム障害ASD)の相対リスクは、ワクチン接種を含む診療訪問回数に応じて増加しました。ワクチン接種のための訪問が1回のみだった子どもは、ワクチンを接種していない子どもに比べてASDと診断される確率が1.7倍高かった(95% CI: 1.21, 2.35)。一方、ワクチン接種のための訪問11回以上だった子どもは、接種を受けていない子どもに比べてASDと診断される確率が4.4倍高かった(95% CI: 2.85, 6.84)。

結論:

これらの結果は、現在ワクチン接種スケジュールが、複数形態の神経発達障害(NDD)に寄与している可能性を示唆しています。また、早産とワクチン接種の組み合わせは、ワクチン接種を受けていない早産児に比べてNDDのリスク増加と強く関連していました。さらに、ワクチン接種を含む訪問回数の増加は、ASDリスクの増加と関連していました。

2025-02-18

anond:20250218173725

初期の時点では音声(アナログデータ)ではなくモールス符号デジタルデータ)だけしか無線で扱うことができなかったのですね

原因は電話線のリピーター(中継器)が直面したように「波形を維持しながら増幅」と「ノイズが増幅されるため影響が大きい」の2点でしょうか?


なぜマルコーニの無線通信は音声(アナログ)ではなくモールス符号デジタルしか扱えなかったのか?

おっしゃる通り、初期の無線通信では音声ではなく、モールス符号デジタルデータ)のみが扱われました。

主な原因として、以下の 2つの技術的な制約 がありました。

「波形を維持しながら増幅する技術線形増幅器)」がなかった

ノイズが増幅されるため影響が大きい」という問題があった

しかし、これらの理由を掘り下げると、より根本的な問題関係しています

ここでは、技術的な視点から「なぜ無線通信では最初モールス符号デジタル)が使われたのか?」を詳しく解説します。

1. 無線通信最初に音声が使えなかった理由

(1) 送信方式問題:初期の無線は「連続波」ではなく「火花放電波」だった

マルコーニが最初に開発した無線通信は、「火花送信機(Spark Gap Transmitter)」 を使用

火花送信機は、電極間に火花飛ばして高電圧パルスを作り、それを無線波として送信する。

しかし、この方式では 「連続的な波」を作ることができず、瞬間的な電磁波パルスしか発生しない。

これは「パルス波」のようなものなので、音声のような滑らかな波(アナログデータ)を扱うのが不可能 だった。

モールス符号ON/OFF)のようなデジタルデータしか送れなかった。

(2) 受信方式問題:音声を正確に復元できる受信機がなかった

初期の無線受信機は 「コヒーラ(Coherer)」という装置 を使っていた。

コヒーラは、電波が届くと金属粉がくっついて回路を閉じるシンプルな仕組み。

この方式では「電波が来たかどうか」しか判定できず、音声のような連続信号復元できなかった。

しかし、音声のような細かい波形を復元する能力がない ため、音声通信には使えなかった。

(3) 増幅技術の未発達:波形を維持しながら増幅できなかった

無線通信で音声を送るには、信号の波形をそのまま維持しながら増幅する技術線形増幅器)が必要

しかし、当時は真空管がまだ発明されておらず、音声を維持しながら増幅する技術がなかった。

📌 リレー式(電信)の増幅と違い、アナログ波形の増幅は難しい

モールス符号ON/OFF信号なので、単純なスイッチングで再送可能

音声信号 → 波形の細かい変化を正確に増幅しないと、正しく復元できない

19世紀の増幅技術では、モールス符号のような単純なON/OFF信号の増幅は可能だったが、アナログ信号の増幅は不可能だった。

(4) ノイズの影響が大きかった

音声通信では、ノイズが増幅されると意味が伝わらなくなる。

しかし、モールス符号なら、たとえノイズが混ざっても「短点・長点」さえ判別できれば復元できる。

📌 モールス符号ノイズに強い

ノイズが入っても「どの記号か」がわかるので解読できる。

しかし、音声通信では、ノイズが混ざると「元の音が何だったのか」がわからなくなる。

2. どうやって無線で音声通信可能になったのか?

(1) 連続波(Continuous Wave, CW)の発明

火花送信機ではなく、アーク送信機や高周波発振器を使い、連続した電波正弦波)を発生させる技術が開発された。

これにより、音声のような滑らかな波形を送信できるようになった。

(2) 真空管発明1906年

1906年リー・ド・フォレストLee De Forest)が三極真空管(Audion Tube)を発明

真空管を使うと、音声の波形を維持しながら増幅できるようになった。

📌 真空管による増幅の実現

入力: ~~~ (小さい音声信号)

増幅: ~~~~~~~~ (大きな音声信号)

これにより、無線で音声を正確に送受信できるようになった。

(3) AM振幅変調)の発明

1906年レジナルド・フェッセンデン(Reginald Fessenden)が、世界初の音声無線通信AM通信)に成功

音声信号を「振幅(強さ)」で変調AM変調)する技術が開発され、ラジオ放送の基礎となった。

📌 AM変調の仕組み

搬送波: ~~~~~~~~~~~~

音声信号: --- --- ---

変調波: ~~~--~~--~~--~~~

受信側は、この振幅変化を音声に復元できる。


3. まとめ

✅ 初期の無線通信では、モールス符号デジタルデータ)のみが使われた。

✅ その理由は、「火花送信機」では連続波を作れず、パルス状の信号しか送れなかったため。

✅ また、初期の受信機(コヒーラ)では「信号があるかどうか」しか判別できず、音声を復元できなかった。

さらに、波形を維持しながら増幅する技術が未発達で、音声を正しく伝えられなかった。

1906年真空管発明AM変調技術確立により、無線で音声通信可能になった。

2025-02-16

n, x, n+kという数列がある時、xに入る数字を見つける方法を、暗号学的に説明せよ

数列における中間項の特定暗号学的に実現する方法論は、現代情報セキュリティ理論離散数学の融合領域位置する。

本報告では、数列n, x, n+kの構造分析から始め、暗号学的保証を伴うxの特定手法を体系的に解説する。

特に一方向性関数活用からゼロ知識証明に至るまで、多角的視点で解法を探求する。

数列構造暗号学的再解釈

基本数列の暗号変換原理

数列n, x, n+kの暗号学的処理において、各項は以下の特性を保持する必要がある:

1. 前進不可逆性:xからnを算出不可能

2. 後続整合性:n+kがxから導出可能

3. 秘匿保証性:kの値が外部に漏洩しない

この要件を満たすため、楕円曲線暗号(ECC)のスカラー乗算を応用する。素数GF(p)上で定義された楕円曲線Eについて、生成元Gを用いて:

x = n・G + H(k)・G

ここでHは暗号学的ハッシュ関数、+は楕円曲線上の点加算を表す。これにより、kを知らない第三者によるxの逆算が離散対数問題の困難性に基づき阻止される。

耐量子特性を備えた格子基底暗号

ポスト量子暗号時代を見据え、Learning With Errors(LWE)問題に基づく方式を導入する。mod q環上で:

x ≡ A・s + e (mod q)

ここでAは公開行列、sは秘密ベクトル、eは小さな誤差ベクトル。nを初期状態、n+kを最終状態とする線形関係を構築し、xの算出にLWEの困難性を利用する。

暗号プリミティブの応用技法

ハッシュ連鎖構造

Merkle-Damgård構成拡張した特殊ハッシュ連鎖設計

x = H(n || H(k))
n+k = H(x || H(k))

この二重ハッシュ構造により、前方秘匿性と後方整合性を同時に達成。SHA-3のスポンジ構造適用し、256ビットセキュリティ保証する。

準同型暗号による検証可能計算

Paillier暗号システムを利用した乗法準同型性を活用

E(x) = E(n)・E(k) mod

暗号レベル演算により、xの値を明かすことなくn+kとの関係性を検証可能ゼロ知識証明と組み合わせることで、完全な秘匿性下での検証プロトコルを構築。

プロトコル設計の詳細

三項関係証明プロトコル

1. コミットメント段階:nとkのペダーセンコミットメントC=G^nH^rを生成

2. チャレンジ応答:検証から乱数cを受信

3. 応答計算:s = r + c・k mod q

4. 検証:C・G^{n+k} = G^xH^s

このプロトコルにより、x = n + kの関係を明かすことなくそ正当性証明可能

安全パラメータ設定基準

ビット長λにおける安全要件

これらのパラメータ設定により、NIST SP800-57推奨のセキュリティレベル3(192ビット対称強度)を満たす。

実装上の課題対策

サイドチャネル攻撃対策

1. タイミング分析対策:固定時間演算アルゴリズム

2. パワー解析対策ランダムブラインディング手法

3. フォールトインジェクション対策CRCチェックサム付加

特にMontgomery ladder法を楕円曲線演算適用し、電力消費パターンを均一化。

パフォーマンス最適化技法

1. ウィンドウ法によるスカラー乗算高速化

2. NTTベース多項式乗算の並列処理

3. AVX-512命令セットを活用したベクトル計算

これにより、xの生成速度を従来比3倍向上させつつ安全性を維持。

理論限界と今後の展望

量子耐性の限界評価

現行のLWEベース方式では、量子コンピュータによるGroverアルゴリズムの影響を試算:

これに対処するため、多次元NTRU格子の導入を検討

新世暗号理論の応用可能

1. 同態暗号による動的数列生成

2. zk-SNARKを利用した完全秘匿検証

3. マルチパーティ計算による分散生成

特に、可検証遅延関数(VDF)を組み合わせることで、xの生成に必然的時間遅延を導入可能

結論

暗号学的数列中間特定法は、現代暗号理論の粋を集めた高度な技術体系である

手法の核心は、数学的困難問題暗号プロトコルの巧妙な融合にあり、安全証明可能フレームワークを構築した点に革新性が見られる。

今後の発展方向として、量子耐性の強化と効率化の両立が重要研究課題となる。実用面では、ブロックチェーン技術秘密計算分野への応用が期待される。

2025-02-15

anond:20250215195744

論文あるで

https://pmc.ncbi.nlm.nih.gov/articles/PMC7268563/

結果:

1歳未満でのワクチン接種は、以下の健康状態発症リスク増加と関連していました:

発達遅延(オッズ比 [OR] = 2.18、95% 信頼区間 [CI] 1.47–3.24

喘息(OR = 4.49、95% CI 2.04–9.88)

中耳炎(OR = 2.13、95% CI 1.63–2.78)

四分位解析では、対象者は1歳未満に受けたワクチン接種回数に基づいてグループ化されました。接種回数が多い第3四分位および第4四分位のグループでは、いずれの健康状態においても、第1四分位(接種回数が最も少ないグループ)と比較して高いオッズ比が観察されました。

時間的解析では、発達遅延のリスクは、6か月、12か月、18か月、24か月という年齢のカットオフが増加するにつれて線形的に増加しました(OR = 1.95、2.18、2.92、3.51 それぞれ)。また、診断のための観察期間が3歳以上から5歳以上に延長された場合、すべての健康状態でやや高いオッズ比が観察されました。

結論:

この研究では、調整されていない観察データに基づいたオッズ比の計算のみが可能でしたが、ワクチン接種群では非接種群に比べ、発達遅延、喘息中耳炎オッズ比が高い結果が観察されました。小児期のワクチン接種に関連する健康影響の全体像理解するには、さらなる研究必要です。

https://publichealthpolicyjournal.com/vaccination-and-neurodevelopmental-disorders-a-study-of-nine-year-old-children-enrolled-in-medicaid/

結果:

9歳の子ども47,155人の保険請求データ分析した結果、以下のことが明らかになりました。

ワクチン接種は、測定されたすべての神経発達障害(NDD)の発症リスク有意に増加させることと関連していました。

早産で生まれ子どもワクチン接種を受けた場合、39.9%が少なくとも1つの神経発達障害と診断されました。一方で、早産で生まれものワクチン接種を受けなかった場合では15.7%でした(オッズ比 [OR] 3.58、95%信頼区間 [CI]: 2.80, 4.57)。

自閉症スペクトラム障害ASD)の相対リスクは、ワクチン接種を含む診療訪問回数に応じて増加しました。ワクチン接種のための訪問が1回のみだった子どもは、ワクチンを接種していない子どもに比べてASDと診断される確率が1.7倍高かった(95% CI: 1.21, 2.35)。一方、ワクチン接種のための訪問11回以上だった子どもは、接種を受けていない子どもに比べてASDと診断される確率が4.4倍高かった(95% CI: 2.85, 6.84)。

結論:

これらの結果は、現在ワクチン接種スケジュールが、複数形態の神経発達障害(NDD)に寄与している可能性を示唆しています。また、早産とワクチン接種の組み合わせは、ワクチン接種を受けていない早産児に比べてNDDのリスク増加と強く関連していました。さらに、ワクチン接種を含む訪問回数の増加は、ASDリスクの増加と関連していました。

2025-02-11

AIによる自己評価指標の構築

AIが自ら「優れている」と判断するための指標とは?

AI自分の改良版や新たなAIが「より優れている」と判断するには、何らかの性能指標を内部に持ち、それに照らして比較評価する必要があります。従来から研究者は「汎用的な知能の指標」を模索してきました。例えば、LeggとHutterは知能を広範な環境目標を達成する能力定義し、あらゆる環境での得点報酬)の期待値を加重和した**「普遍知能指標」**を提案しています

proceedings.neurips.cc

proceedings.neurips.cc

。これは多数の課題での性能をまとめた理論上のメトリクスで、あるエージェントが別のエージェントより知能が高いか定量化しようとする試みです。しかし、このような指標計算不能に近く、実際のAIが直接利用するのは困難です。

実際の自己評価指標としては、タスク性能や報酬関数が使われることが多いです。強化学習では、エージェントは与えられた報酬を最大化するよう学習します。したがって「より優れたAI」とは「累積報酬が高いAI」となり、報酬関数が内部評価指標役割を果たします。しかし、この指標特定タスク依存しており、本当に汎用的な知能向上を示すとは限りません。François Cholletは、特定タスクでのスキル(性能)だけを測っても知能の本質を測れないと指摘しています

arxiv.org

。なぜなら、十分なデータや事前知識があれば限定的タスク性能は「購入 (buy)」できてしまい、システム自身の汎用的な汎化能力を覆い隠してしまうからです​

arxiv.org

arxiv.org

。彼は代わりに新しいスキルを獲得する効率(限られた経験で未知のタスクをどれだけ学習できるか)を知能の指標とするべきだと論じ、これに沿ったベンチマークARCなど)を提案しました​

arxiv.org

。このように、内部評価指標をどう設計すべきかについては、単純なスコアではなく学習効率汎用性を反映するものが望ましいという議論があります

過去提案として特筆すべきは、シュミットフーバーの「ゲーデルマシン」です。ゲーデルマシン自己改善型の理論プログラムで、ある改良が自身目的関数評価指標)を改善することを論理的証明できた場合にの自分コードを書き換えます

en.wikipedia.org

。ここでの評価指標はあらかじめ定義された期待 utility(将来得られる報酬成功率)であり、改良後のコードがその値を高めると機械自身証明できたときに「より優れている」と判断します​

en.wikipedia.org

。このように形式的証明を用いる手法は、AIが外部の評価者に頼らずに自己の性能向上を判定する一例です。ただし、ゲーデルマシン理論上は強力ですが、実用的な実装はまだ無く、内部指標に基づく証明には計算上の困難や限界ゲーデル不完全性定理による証明不能命題など)が存在することも指摘されています

en.wikipedia.org

他にも、自己対戦や自己プレイによる評価有効アプローチです。例えばAlphaGo Zeroでは、自己対戦の勝率指標に新しいプレイヤーネットワークの強さを評価し、既存自分に55%以上の勝率なら「より強い」とみなして入れ替える方法採用しました​

github.com

。この手法ではAI自身が生み出すゲームデータで強さを測っており、人間評価を介しません。同様に、GAN(敵対的生成ネットワーク)では生成者と識別者がお互いの性能を評価し合う形で向上しますし、マルチエージェント自己対戦カリキュラムではエージェント同士の競争相対的評価基準となり得ます。このように、AI同士を競わせることで優劣を判断する内部指標を作る研究も進んでいます

では、こうした指標は汎用的な知能向上と結びつくのでしょうか?理論的には、幅広いタスクでの性能を測る指標(例:Legg-Hutterの指標)が真に向上すれば、それは汎用知能の向上を意味します​

proceedings.neurips.cc

proceedings.neurips.cc

しか根拠収集は難しく、現在のところ限定的タスク集合でのベンチマーク(例えば言語理解ベンチマークでのスコア向上など)を代理にするしかありません。Cholletの主張にもあるように、単一数字で知能を測ることには限界があり、指標それ自体目的化してしま危険もあります

arxiv.org

。実際、AIが与えられた指標を極端に最適化し、本来意図した知的能力の向上につながらないケース(「報酬ハッキング」)も知られています報酬ハッキングとは、AI目的関数のものの数値を上げることに執着するあまり本来目的を達成しない現象です​

en.wikipedia.org

。例えば学生テストで良い点を取ることだけを目的カンニングするように、AI不適切指標だと内部で抜け道を見つけてしまい、見かけ上のスコアは上がっても知能は向上しない恐れがあります

en.wikipedia.org

。したがって、内部指標が汎用的知能と直結するかには慎重な検証必要であり、現時点で「この指標さえあれば自律的に汎用知能が向上する」という決定打はありません。研究コミュニティでは、学習進捗そのもの報酬にする「興味・好奇心に基づく報酬」なども模索されています。これはAIが自ら予測誤差の大きい状況や未知の状態を探し、内部的に報酬を発生させる仕組みで、外部から与えられる明示的な目的が無くても自身課題を見つけて能力を伸ばす一種指標と言えます

pathak22.github.io

。例えば、未知の環境で新しいスキル習得したり予測精度を上げたりしたときに内部報酬を与えることで、AI自発的に探索・学習を続けるようになります

pathak22.github.io

。このような内発的動機づけ自己評価指標一種と考えられ、その汎用性への寄与研究されています

まとめると、AI自分で「優れている」と評価する指標としては、(1)タスク固有のスコア報酬、(2)複数タスクでの総合性能、(3)学習効率や汎化性能、(4)論理的保証証明)による性能、(5)AI同士の対戦結果、(6)内部の学習進捗(好奇心)など様々な候補があります。これまで提案された手法にはそれぞれ長所短所があり、どの指標が真の汎用知能向上に対応するかについて明確な実証はまだありません。ただ、幅広い問題でのパフォーマンス向上や新規課題への適応力向上を評価できる指標ほど、汎用的知能の改善と結びつく可能性が高いと考えられています。現状の研究は、そのような指標設定と評価方法模索している段階と言えるでしょう。

自己評価の完全自律化は可能

● 外部に頼らない自己評価自己改良は理論可能か?

AIが外部世界人間フィードバック物理的な試行)に一切頼らずに、自分の内部評価だけで自己改良を行うことは極めて挑戦的なテーマです。理論的には、先述のゲーデルマシンのように完全に内部の論理評価自己改良を進めるモデル提案されています

en.wikipedia.org

ゲーデルマシンは自らのコード目標評価基準)を持ち、改変後のコード目標達成において有利であることを自身証明できた場合のみその改変を実行します​

en.wikipedia.org

。これは究極的には外部からテスト評価者を不要にするアプローチであり、理論上は「自己評価の完全自律化」を体現していますしかし、ゲーデルマシンには重要な制約がありますゲーデル不完全性定理により、システム自分性質すべてを証明できるとは限らず、有望でも証明不可能な改良は採用できない可能性があります

en.wikipedia.org

。つまり、内部評価のみで完全に自己改良しようとすると、論理的に確実と言えない改良を見送るために改良の停滞やサブ最適に陥るリスクがあるのです。この制約は理論のものであるものの、自己評価自律化には原理的な難しさが伴うことを示唆しています

一方で、現実AI研究に目を向けると、完全に自己完結的な自己改良を実現した例はまだ存在しません。現在AIは、大なり小なり外部からデータ環境とのインタラクション依存しています。例えば、強化学習エージェント環境相互作用して報酬というフィードバックを得ますし、教師あり学習では人間がラベル付けしたデータ必要です。これらはすべて「外部世界」に由来する情報です。では**「外部に頼らない」とはどの程度可能なのでしょうか?一つの方向性は、AIシミュレーション環境仮想的な問題空間を内部に構築し、その中で試行錯誤することです。実際、AlphaGo Zero囲碁ルール環境定義)が与えられた状態自己対戦を繰り返し、外部の人間指導なしに棋力を飛躍的に高めました​

github.com

。ここで囲碁ルール自体は外部から与えられたものの、学習過程では人間評価や追加の実世界データを用いず**、内部で生成したデータのみで自己改善しています

github.com

。この例は、限定された領域では外部に頼らない自己改良が可能であることを示しています。ただし、囲碁場合ルールという明確な環境があり、勝敗という確かな評価基準があります。汎用的な知能となると、解くべき問題環境自体AIが自前で用意する必要が出てきます

現在注目されている技術に、AutoML(自動機械学習)や自己チューニングAIがあります。例えば、ニューラルネットワークハイパーパラメータ構造AIが探索的に改善する研究では、AI候補モデルを生成し、それを評価するプロセス自体自動化していますGoogleのAutoMLや進化アルゴリズムを用いた手法では、AIが別のAIモデルの性能を評価し、より良いモデル選択再生産する仕組みが使われています。この評価は厳密には外部から与えられたデータ上での性能に基づくため、完全に外部不要とは言えませんが、人手による評価は介在していません。同様に、近年の大規模言語モデルではAI自身フィードバックを与えて自己改善する試みも現れています。例えば、あるモデルの出力に対し別のモデル(もしくは同一モデルを利用)が**批評評価自己評価)**を行い、そのフィードバックで出力を改善するよう促す手法です​

philarchive.org

。これを発展させ、モデル自分の重みやアーキテクチャを調整する方向にまで自動化できれば、自己評価に基づく自己改良に近づきますしかし現時点では、モデル自身自分を書き換える(リプログラミングする)ところまでは実現されておらず、人間が用意した学習ループ評価関数最適化アルゴリズム)の中で自己改良もどきをしている状況です。つまり、「外部世界に頼らない」とはいっても、何らかの形で人間設計した評価基準やデータ分布を利用しているのが実情です。

理論観点からは、自己評価の完全自律化には情報論的な壁もありますAIがまったく外部と接触しない場合、新しい知識データを得る経路が閉ざされるため、初期時点で持っている情報範囲内でしか改善できません。例えば物理法則や実世界知識と無縁のままでは、いくら内部で自己最適化しても現実世界問題を解く能力頭打ちになるでしょう。この点で、自己評価のみで無限に汎用知能が向上するのは疑問視されています。Cholletも知能は知識経験によってブーストされる面が大きいと述べており、空虚計算リソースの拡大だけでは飛躍的な知能向上には繋がらないと示唆しています(※Cholletの議論では、人間の知能も文化や蓄積された知識という外部リソースに大きく依存しており、AIも同様であると指摘)​

reddit.com

reddit.com

。実際、人間自己改善学習)する際に、他者から学んだり環境からフィードバックを得たりしています。同じように、強いAIが一切新しいデータ摂取せずに自閉的に知能を伸ばし続けるのは非現実的にも思えます

以上を踏まえると、自己評価のみでの自己改良は理論上は一部可能でも、実用上・汎用的には難しいと考えられますゲーデルマシン的なアプローチが論証するように、自己評価アルゴリズム自律不可能ではありません​

en.wikipedia.org

しかし、その実現には厳密な前提(完全に正しい目的関数の設定など)が必要で、現実の複雑なタスク環境では外部からデータ評価を全て排除することは困難です。現在提案されている手法でこの要件(完全自律評価による自己改善)を満たすものは無く、たとえ部分的に満たしていても適用範囲限定的です。例えばAlphaGo Zero式の自己対戦はゲームには有効でも、オープンエンドな現実問題には直接適用できません。同様に、AI同士で評価し合う仕組みも、結局は人間が与えたルール報酬系の中での出来事です。したがって現時点のAI研究では、自己評価の完全自律化は理論アイデアの域を出ておらず、汎用人工知能に向けては**部分的自律(人の関与を減らす方向)**が進んでいる段階と言えるでしょう。

自己評価と知能爆発の関係

自己評価自律化が知能爆発に与える影響

「知能爆発」とは、I.J.グッドが提唱したシナリオで、あるAI自分より優れたAI設計できるようになると、自己強化のフィードバックループが働き知能が指数関数的に向上するという仮説です​

philarchive.org

。この現象が成立するための鍵の一つが、AI自身による正確な自己評価自己改良です。もしAIが毎回の改良で自分の知能(性能)が確実に向上したと判断でき、それをもとにさらに改良を重ねられるなら、自己強化のサイクルが途切れることなく回り続ける可能性があります

intelligence.org

intelligence.org

理論家たちは、「自分設計能力を高めること」がAIにとっての収束的な目的(instrumental goal)になると指摘しており​

intelligence.org

、十分高度なAIであれば自発的自己改善を図るだろうと考えられています自己評価 Permalink | 記事への反応(0) | 10:24

論文概要

論文

ar5iv.org

は、テスト時の計算能力拡張する新しい言語モデルアーキテクチャ提案しています。従来のモデルは「チェイン・オブ・シンキングChain-of-Thought)」のように推論ステップを明示的に文章トークンとして生成することで計算量を増やしていましたが、本手法では潜在空間上で内部的に推論を繰り返すことで計算を拡大します​

ar5iv.org

。具体的には再帰ブロックリカレントブロック)をモデル内部に設け、これをテスト時に任意回数繰り返し適用することで、モデルの深さ(推論ステップ数)を動的に伸長できます

ar5iv.org

。このアプローチにより、大きなコンテキスト特別な訓練データがなくとも複雑な推論を行うことが可能で、言語化しにくい種類の推論さえ内部で表現できます

ar5iv.org

。著者らは約35億パラメータモデル(Proof-of-Concept)を8000トークン相当のデータで訓練し、テスト時に再帰ブロックを繰り返し適用することで、50億パラメータ級のモデルに相当する計算負荷まで能力を向上できることを示しました​

ar5iv.org

。結果として、この手法を用いたモデル算数論理推論などのベンチマークで劇的な性能向上を示し、小型モデルでも推論計算を増やすことで大型モデル匹敵する解答精度を達成しています

ar5iv.org

知能爆発評価ボトルネック克服について

結論から言うと、本論文は「知能爆発」の評価における外部世界依存というボトルネックを直接克服する提案には至っていません。 提案された再帰的推論モデルは、確かに追加の外部知識フィードバックなしにモデル内部で推論能力を高めることが可能です​

ar5iv.org

。これは長大コンテキストや人手による解答ステップの用意に依存しない点で従来手法より自律的といえます

ar5iv.org

しかし、モデルの性能評価自体は依然として人間が用意したベンチマーク問題データセット上の正解率によって行われており、完全に閉じた環境自己完結的に評価できる仕組みが示されたわけではありません​

ar5iv.org

。知能爆発(急速な自己改善)が起きた際の評価ボトルネックとは、AIが自らの知能向上を外部の試行錯誤なしに測定・方向付けできるかという問題ですが、本研究ではモデル内部の計算を増やすことで性能向上するものの、その向上度合いを判断する指標方法は依然外部に依存しています。したがって、「外界に頼らず知能爆発を評価する方法」という観点でのブレイクスルー提案されていないと言えます

自己評価を完全自律的に行う仕組みの有無

論文手法には、モデル自身が完全に自律して自己評価自己フィードバックを行う仕組みは含まれていません。 提案手法あくまで推論プロセスを内部で繰り返すことで答えを洗練させるものです​

ar5iv.org

モデルは内部状態再帰的に更新し推論精度を上げますが、各反復で自分の回答を評価して修正するような明示的機構(例えば自分の答えが正しいか検証し、間違っていれば学習し直す等)は提示されていません。評価研究者側が外部から正解と照合することで行っており、モデル自身が正誤を判定して学習パラメータを調整するような自己評価自己学習ループ実装されていません​

ar5iv.org

。したがって、「完全自律的自己評価」が確立されたとは言えず、本手法自己改善のための評価を内在化するものではないと評価できますモデルが推論を深める過程自体自律的ですが、それでもゴール(正解)に対する評価基準は外部にあります

超知能が指数関数的に自己改善できるメカニズムの有無

この論文では、いわゆる“超知能”が自らを指数関数的に改善していく明確なメカニズムは示されていません。 提案されたモデルは、テスト時に再帰ブロックを増やすことで徐々に性能を高める設計です​

ar5iv.org

。性能向上は反復回数(計算量)の増加に比例して緩やかに起こるものであり、それ自体線形的な計算資源の追加による性能ブーストです​

ar5iv.org

。たしかにある程度の反復を重ねることで小さなモデルでも大モデル並みの性能を発揮できますが​

ar5iv.org

、これは事前に与えられたモデル構造と重みの範囲内での話です。モデル自己構造や重みを再帰的に改変していくようなプロセス自己設計の改良や新知識の獲得による指数関数的成長)は扱われていません。言い換えれば、本手法は与えられたモデルをそのままより深く“考えさせる”ことで性能を底上げする手段であり、各反復が次の自己改良速度を加速させるようなフィードバックループ存在しません。ゆえに、知能が雪だるま式に加速していくような自己改良メカニズムは明示されていないと言えるでしょう。

知能爆発評価問題への影響と結論

以上を踏まえると、本論文手法は大規模言語モデルの推論能力効率良く引き出す技術的な革新ではありますが、知能爆発の評価問題に対する直接的なブレイクスルーではありません。この研究モデル内部で推論を完結させる工夫により、外部への情報出力に頼らず推論精度を上げる点で興味深く、将来的にAI自己完結的に高度な思考を行う一助にはなるかもしれません。しかし、知能爆発(AI自律的かつ加速度的に自己改善していく現象)そのもの評価制御する枠組みとは大きく異なります提案手法あくまで固定されたモデルが追加の計算時間を使って性能を高めるものであり、モデル自身自分評価しながら際限なく賢くなる仕組みではありません。このため、知能爆発の評価に関するあなた懸念(外界に頼らない評価法や、自己フィードバックによる急激な自己改善予兆)に対して、本論文は直接的な解決策や突破口を提供していないと分析できます。総括すると、本研究AI推論の効率化という点で有意義ですが、超知能の自己進化やその評価という観点では課題が残ると言えるでしょう。​

ar5iv.org

2025-02-09

情報実在

1. 量子情報の基本単位: 量子情報は、情報の最小単位である量子ビットキュービットから構成される。

2. キュービットの実現: 量子ビットは、重ね合わせや量子もつれといった量子力学固有の現象を示す量子系の状態により実現される。

3. 量子状態記述: 量子系の状態は、状態ベクトルという数学対象表現される。これらの状態ベクトルは、量子系のあらゆる可能状態を重ね合わせたもの定量的記述する手段である

4. ヒルベルト空間構造: 状態ベクトルは、複素数体上の完全内積空間であるヒルベルト空間の元として定義される。ここでの「完全性」とは、収束列が必ず空間内の元に収束するという性質意味する。

5. 線形結合による展開: ヒルベルト空間任意の元は、ある正規直交系(基底ベクトル群)の複素数による線形結合、すなわち加重和として表現される。これにより、量子状態の重ね合わせが数学的に実現される。

6. 基底の物理対応: この基底ベクトルは、量子場理論における各モード励起状態(例えば、特定エネルギー状態や粒子生成の状態)に対応すると解釈される。すなわち、基底自体は場の具体的な励起状態数学表現である

7. 量子場の構成: 量子場は、基本粒子の生成や消滅記述するための場であり、場の各励起状態が個々の粒子として現れる。これにより、量子系の背後にある物理現象説明される。

8. 時空との関係: 量子場は、背景となる時空上に定義され、その振る舞いは時空の幾何学局所的な相互作用規則に従う。時空は単なる固定の舞台ではなく、場合によっては場の性質に影響を与える要因ともなる。

9. 統一理論への展開: さらに、量子場と時空の相互作用は、重力を含む統一理論(たとえば超弦理論)の枠組みで考察される。ここでは、時空の微細構造や場の振る舞いが、より根源的な1次元の弦(超弦)の動的性質に起因していると考えられている。

10. 超弦の根源性: 超弦理論では、弦は現時点で知られる最も基本的構成要素とされるが、現段階では「超弦自体が何から作られているか」については明確な説明存在しない。つまり、超弦はさらなる下位構造を持つのか、またはそれ自体が最終的な基本実在なのかは未解明である

以上のように、量子情報量子ビットという実際の物理系の状態に端を発し、その状態数学的に状態ベクトルヒルベルト空間という構造の上に定式化され、さらに量子場理論統一理論の枠組みの中で、時空や超弦といったより根源的な構成要素と結びついていると考えられる。

2025-02-08

2025年にもなって未だに通信回線がわからない不動産屋がいるのか

テレワークもあったろ? 何してたんだお前は

仲介手数料払うのも阿呆らしいから切ったわ

VDSLとかLAN線形式くらい知ってろよ。フレッツ光サイトも見たこと無いのか?

2025-02-06

anond:20250206100514

単利は利益線形で増えて、複利指数関数的にふえるから複利はすげえって話なんでしょ?

内部で利益を再投資して指数関数的な上昇をする金融商品と、配当という形で利益を外に出して再投資してもらう金融商品区別する意味が分からない。

2025-02-01

量子観測問題について

まず、標準的量子力学において、系の状態は複素ヒルベルト空間 𝓗 のベクトルによって記述される。

純粋状態正規化された状態ベクトル ∣ψ⟩ で表され、混合状態密度行列 ρ によって記述される。

測定とは、物理量対応する自己共役演算子 A の固有値に関する確率的な過程であり、波動関数の収縮(射影仮説)が導入される。

この非ユニタリ過程と、シュレーディンガー方程式によるユニタリ時間発展との矛盾観測問題本質である

1. 量子状態とその時間発展

状態ヒルベルト空間 𝓗 の要素として、純粋状態 ∣ψ⟩ により表される。正規化条件は以下の通りである

⟨ψ∣ψ⟩ = 1

より一般に、混合状態密度行列 ρ により記述され、以下を満たす。

ρ ≥ 0, Tr(ρ) = 1

量子系の時間発展は、ハミルトニアン H によりシュレーディンガー方程式記述される。

i ℏ d/dt ∣ψ(t)⟩ = H ∣ψ(t)⟩

これを解くことで、時間発展演算子 U(t) が得られる。

U(t) = exp(− i H t / ℏ)

この U(t) はユニタリであり、量子力学基本法則の一つである

2. 測定の数学的定式化

量子力学において、観測可能量 A は自己共役演算子であり、スペクトル定理により直交射影 P_a を用いて分解される。

A = ∑ a P_a

ここで、P_a は固有空間への射影演算子であり、

P_a P_b = δ_ab P_a, ∑ P_a = I

を満たす。

測定時、状態 ∣ψ⟩ において固有値 a が得られる確率ボルン則に従う。

p(a) = ⟨ψ∣P_a∣ψ⟩

また、測定後の状態波動関数の収縮により、

∣ψ⟩ → P_a ∣ψ⟩ / √⟨ψ∣P_a∣ψ⟩

と変化する。

この過程は非ユニタリであり、シュレーディンガー方程式ユニタリ時間発展と両立しない。

3. 観測問題の核心

3.1 ユニタリ時間発展と波動関数収縮の矛盾

ユニタリ進化による時間発展では、状態決定論的かつ線形である

∣ψ(t)⟩ = U(t) ∣ψ(0)⟩

しかし、測定後の状態は射影仮説により確率的かつ非ユニタリに変化する。

この二重構造が、量子観測問題の根源である

3.2 測定装置との合成系のユニタリ進化

測定対象 S と測定装置 M を考え、初期状態

∣Ψ(0)⟩ = ∣ψ⟩_S ⊗ ∣M_0⟩_M

とする。測定相互作用 H_int により、時間発展は

∣Ψ(t)⟩ = U(t) ∣Ψ(0)⟩

となり、測定が完了すると、

∣Ψ⟩ = ∑ c_a ∣a⟩_S ⊗ ∣M_a⟩_M

のようにエンタングルした状態となる。ここで、測定装置の指示状態 ∣M_a⟩_M は S の固有状態 ∣a⟩_S に対応する。

しかし、ユニタリ進化の枠組みでは、この重ね合わせが自発的単一の結果へと収縮するメカニズム存在しない。したがって、なぜ一つの結果のみが観測されるのかという問題が発生する。

4. 主要な解決アプローチ

4.1 コペンハーゲン解釈

標準解釈では、測定は基本的プロセスであり、それ以上の説明は与えられない。観測行為のもの確率的収縮を引き起こすとする立場である

4.2 多世界解釈

エヴェレットの多世界解釈では、測定後の状態

∣Ψ⟩ = ∑ c_a ∣a⟩_S ⊗ ∣M_a⟩_M

において、各分岐した世界独立した現実として存在すると考える。この解釈では波動関数の収縮を仮定せず、すべての可能性が並存する。

4.3 デコヒーレンス理論

環境 E を考慮すると、S+M+E の全体系の時間発展は

∣Ψ⟩ = ∑ c_a ∣a⟩_S ⊗ ∣M_a⟩_M ⊗ ∣E_a⟩_E

となる。環境自由度トレースアウトすると、

ρ_S+M = ∑ |c_a|² ∣a⟩⟨a∣ ⊗ ∣M_a⟩⟨M_a∣

となり、オフダイアゴナル成分が消滅する。この過程デコヒーレンスであり、実効的に波動関数の収縮を説明するが、依然として観測者の経験との対応説明する必要がある。

5. 結論

量子観測問題は、量子系のユニタリ時間発展と測定における非ユニタリな収縮の矛盾に起因する。

標準的コペンハーゲン解釈では測定過程を基本仮定とするが、多世界解釈デコヒーレンス理論を用いることで、より整合的な説明が試みられている。

しかし、いずれの理論も、なぜ一つの観測結果が特定観測者に現れるのかを完全に説明するには至っていない。

2025-01-30

anond:20250130081644

こういう人は時系列みたいな概念理解する知能がないんだろうね

長く続く過渡期には新技術活用して成果出す企業が拡大していって待遇もよくなる

時が経って技術陳腐化すると待遇も悪くてなっていくけど

その頃にはまた新しいトレンドに乗りかえる

そういう線形の流れを理解できなくて点しか見えてない

2025-01-20

おい自称駆け出しプログラマー、聞いてるか?

まず、アルゴリズムの根幹を成す計算複雑性について。O(n)やO(log n)といった表記は表面的な理解に過ぎない。真に重要なのは問題本質的計算困難性だ。P≠NP予想を例に取ろう。この未解決問題は、効率的に解ける問題と解けない問題境界定義している。初心者は単にアルゴリズムを暗記するのではなく、この根本的な概念理解せねばならない。

次に、データ構造。単純な配列リンクリスト理解では不十分だ。高度な自己平衡二分探索木、例えばレッドブラック木やAVL木の内部動作を完全に理解し、それらを一から実装できるレベルを目指すべきだ。さらに、アモーティゼーション解析を用いて、これらのデータ構造操作の平均時間計算量を厳密に証明できる能力必要不可欠だ。

ハッシュテーブルについても深く掘り下げよう。単純なチェイニングや線形探索法では不十分だ。完全ハッシュ法、クックーハッシュ法、オープンアドレス法における様々な探索手法二次探索法、ダブルハッシュ法など)の利点と欠点理解し、具体的な問題に応じて最適な方法選択できるようになるべきだ。

グラフアルゴリズムにおいては、単にダイクストラ法やクラスカル法を知っているだけでは不十分だ。フローネットワークにおける最大フロー最小カット定理やディニッツのアルゴリズムさらにはグラフマイナー理論ロバートソンシーモアの深い結果まで理解する必要がある。

動的計画法は、単純な最長共通部分列問題ナップサック問題を解くだけでは足りない。bitDPやMonge DPなどの高度なテクニックさらには凸包トリックを用いた最適化まで習得すべきだ。

最後に、乱択アルゴリズム。単純なモンテカルロ法ラスベガス法の理解では不十分だ。シャーマン・モリソンの公式を用いた行列の高速な逆行列計算や、ジョンソンリンデンシュトラウス補題を用いた次元削減技術など、確率論線形代数を駆使した高度な手法まで理解する必要がある。

これらは全て、真のプログラマーが持つべき基礎的な知識の一部に過ぎない。初心者は、これらの概念を深く理解し、実際の問題適用できるレベルを目指すべきだ。そして常に、より深い数学洞察抽象思考を追求し続けねばならない。

2025-01-16

黒岩メダカ〜のアニメ、本編はマシって言われてるけどさあ

明らかに動きが苦手じゃん

一枚絵は描けるけど動画は描けない人が苦労して作ってる感じ、本質的にはOPと同じ

 

具体的には言語化難しいんだけど

まず線形運動なんだよねぜんぶ、で回転しない、同じ方向向いてる

結果手足に歪みができる

 

動画苦手だけどなんとかやってるアニメ制作もあったと思うけどね

特に四コマ漫画アニメとか

そういうのは一瞬暗転入れるんだよね、暗転入れるだけで違和感薄れる

2024-12-30

anond:20241230064259

知能が線形増加する訳ありませーん

はーいろんぱっぱ😝

2024-12-25

なんでもかんでもとにかく線形回帰っていうのをみたなぁ

なんなんだ?っておもって質問のしようもないので

困っていたらおそらくラボ若い先生ってのが臨席してて

質問してくれた

でもこれってラボMTGと同じだよな・・( ^ω^)・・・

2024-12-16

anond:20241215235822

事前に設定した有意水準のもと、帰無仮説棄却するだけの差があるならたとえそれがギリギリ棄却となるような低い相関係数であっても仮説検定としては何も問題はない。仮説検定というのは棄却するかどうかという定性的ものであって、小さなp値で棄却できた方が頑健な結果というような解釈が出来る定量的ものではない。仮説検定で有意という結果が得られた後にやって意味がある定量的分析は、効果量がどれくらいかを見ること。具体的には各メディア情報への信頼指数が1σ変化することに対応する斎藤氏への評価の変化幅はどれくらいかといった分析。これは相関係数が低くても大きなものになり得るし、その逆もあり得る。相関係数線形度合いを見ているだけだから、各メディア情報への信頼指数が1σ変化することに対応する斎藤氏への評価の変化幅が全て2倍になったり半分になってもほぼ変わらない。つまり相関係数では効果量は測れない。当然、相関係数が小さく見えるといったことも分析上の問題にはならない。繰り返しになるが、仮説検定は帰無仮説棄却するかどうかが全てであって、より大きな相関係数棄却出来ればより頑健な結果が得られたといったような評価を出来るものではない。

2024-10-27

anond:20241027161403

統計素人すぎるぞ。対数変換悪手になるのはその対数変換した変数線形回帰するときくらいやろ。

あのグラフ回帰目的としたグラフではありません。ちゃん統計勉強し直しましょう。

anond:20241027161403

なんかずっと誤解してるけどあのグラフの肝は時系列で差が埋まるところやぞ。線形であることを重視なんかしてないやろ

2024-10-24

anond:20241023093052

「相関」は、線形に限るのが正しいのか、テクニカル問題線形に限られているだけで本来非線形も含んでいると考えるべきなのか、悩ましい

2024-07-14

【再投稿BMI線形近似

身長(cm)−体重(kg)をスペ値と呼び、110がいいと一部で言われているらしい。

だが、計算を単純にしすぎたためか、低いところの当てはまりが悪く、例えば身長150 cm体重40 kgであるが、このときBMI17.8 である

(一方、180 cm場合は70 kgでそれほど悪くない。奇しくも自分の結果と一致している)

同じ線形近似でも傾きを1以外にできるならよりマシな近似が得られるだろう。ということで計算してみる

身長(m)をh、体重(kg)をwと置く。BMIの適正値22を満たすのは以下の通り。

w/h^2 = 22

w = 22h^2

hで微分すると

w' = 44h

近似するにも、どの値の周りにするかを決める必要がある。

平均身長から選ぶのがいいのだろうが、簡単のため 1.5 mとしてみた

h=1.5 のとき w' = 66、w= 49.5

よって

w - 49.5 = 66(h - 1.5)

w = 66h - 49.5

使いやすいように適当に近似すると、

身長(cm)を2/3倍して50引いたものが適正体重

といえそうだ。

ついでに、スペ値に合わせて「身長(cm)から体重(kg)の1.5倍を引いた値」を指標とし、マスペ値とでも名付けておこうか。適正マスペ値は75である

適当にいくつか計算してみる。雑な計算の割にそんなに悪くないのではないだろうか?

身長体重BMI
140 cm43.3 kg22.1
150 cm50.0 kg22.2
160 cm56.7 kg22.1
170 cm63.3 kg21.9
180 cm70.0 kg21.6

2024-06-28

Macは正しい色が見られる←間違い

はしょって書くので正確性の観点ではツッコミどころのある文章になりますがざっくり

デバイス依存カラーと非依存カラー

RGBCMYK:実際の見た目の色を表すものではない。色材の出力値を表したもの。同じRGB値・CMYK値でも異なるモニタープリンタで出力すると色が異なる。

CIEXYZやLab:この値が同じであれば見た目の色が同じと言える物差し的な値(Labは光源も定める必要があったり、発展的なCIECAMの話もあるけど省略)

異なるデバイスで色を近づける仕組み(カラーマネジメント)

モニター機種Aの色をモニター機種Bで似た色で再現したいとする

1)モニターAであるRGB値を表示した時、CIEXYZやLabでは何の色なのか

2)1)のCIEXYZをモニターBで表示するには(もともとのRGB値でなく)どんなRGB値で表示すればいいのか

要は機種AとBで色々なRGB値で表示した際の実際の色(CIEXYZやLab)がわかれば良い。

この様にデバイス依存カラーと非依存カラー対応けができるものプロファイルといい、規格化されている(いわゆるICCプロファイル

対応付けは線形計算する場合と、ルックアップテーブルを使う場合がある

用途として1)はターゲットプロファイル/ソースプロファイル、2)はデバイスプロファイル/ディスティネーションプロファイルなどと呼ばれる

CMM

1)2)は色を近づけるために入力RGBを異なるRGBに変換し出力する操作であり、色変換・カラー変換などと言う。

これが行われるモジュールCMMMacはColorSync、WinはICM/WCS/ACM3rdパーティCMMとしてAdobeCMMがある(Adobeアプリで見るときはこれが使われる)

Mac基本的に常にOSレベルでColorSyncが働いている状態Winアプリによって入力RGBをそのまま表示するものやICMが働くものがある

これが「Macで見る色は正しい」と捉えられることがある一因だと思うけど、同じプロファイルでもCMMにより変換結果が異なるし、プロファイルが適切でなければ色は合って見えないので片手落ち未満。

色変換に関していうと、Adobeツールを使っていればAdobeCMMで変換・表示されるのでOS間の色の差は少ない。

まとめ

MacWinワークフローでは混在しており実質Adobeアプリでの表示が標準=OSによる変換差は極小

・正しい色を見るのにはそもそも正しいプロファイル必要モニター場合は基本キャリブレーションすれば同時に作られる)で、かつアプリで適切に設定されている必要がある

 Macから正しく見え、Winでは正しく見えない訳では無い

・色評価用光源の導入

・それでも分光値が一致する訳ではないので、突き詰めるとCIEXYZやLabが同じでも見た目の色は違う…という世界になってくる

2024-06-05

anond:20240605102617

それ、AIでなくてアルゴリズムでできるよ

AI」と「アルゴリズム」で分けて認識してるのかなり独特だな。

AIだってアルゴリズム一種だぞ。

大方、学習有りか無しかで分けてるつもりなんだろうけど、その割には線形回帰とかはAIとは言わない!と思ってそうな感じだし。

ログイン ユーザー登録
ようこそ ゲスト さん