「ニューラルネットワーク」を含む日記 RSS

はてなキーワード: ニューラルネットワークとは

2024-11-16

生成AIに正しく対応する反AI絵師の動きとは

AI使ってますか?Xで翻訳ボタン押すと海外ポストでも日本語で読めるの便利ですよね。

機械学習から連綿と続いた先にある生成AIの隆盛、大変エモいものがあります

自分はまだニューラルネットワークと呼ばれていたこからこの分野で細々と研究をしており、趣味は主に写真です。絵はたしなむ程度。

今の反AI運動は、誰に対して何を反対しているのか良くわからなくなってしまっているので、正しく反対するのが良いと思っています

結論から、なぜそうなるのか、どうしたら良いのかと整理しておきます

ウォーターマークサイン意味があるのか?

つの意味では意味があり、2つの意味では意味がありません。

(Xの利用規約がいつ変更され、どのように利用されるかについては、他の方の記事に詳しいため略します)

なぜ学習を防げないのに、意味があるのか

自分画像であるという主張を残せるからです。

先行例としてストックフォト(写真の利用販売)があります

たいていの場合人間が利用可否を判断できる程度には高解像度写真と、ストックフォト社のロゴ撮影者の名前管理IDが入っています

もちろん商業印刷に使える高解像度は購入後にしか手にすることはできません。ただサンプル画像ですが、機械学習用途では十分です。

ロゴなどを取り除くのは難しくありませんし、学習用途では十分なイメージサイズがあり、機械学習に十分使えます

しかし、実際にはそういった事例は見聞きしません。(個人学習されている方もほぼいないでしょう)

なぜならば、もしも利用が発覚した場合使用料請求されるからです。

同様に、無償用途であっても、例えば軍用機戦車など、IDサイン写真に入れる方は少なくありません。

これは、端的にはパクられた時に自分写真だと主張する為です。

学習されたくないという目的を達成するには

現行法下では、いわゆる"無断学習"を止めることはできません。

必要なのは法改正もしくは法解釈変更のためのロビー活動です。

機械的に大量の学習が行われるのが問題であるという論建ても見聞きしますが、あまり良い筋論とは思えません。

なぜならば、少ない学習量で良い結果を出すというのは、機械学習的にはかなり昔から熱心に研究されているテーマからです。

(例えばコンピュータ将棋新風を吹き込んだBonanzaは、たった6万局の棋譜学習させることで評価関数作成しています

実用的にも、事前に学習させたモデルを準備しておき、少ないサンプル画像(数枚~数百枚)で、不良品検査に使えるモデル作成する、などは熱心に行われています

現状でも、対象となる絵を人間が模写して、模写側を学習させるだけで、十分に元画像に近似した画像を出力できます

人間が目で見て判別できる程度のノイズウォーターマークは、前述の通り除去にさほど手間はかかりません。

無断利用されたくないという目的を達成するには

方法論としては3つあります

  1. Xへの画像ポストを止め、学習しないと明言しクローラー拒否しているサイトを利用する。
  2. 個人利用以外には、対価を取る旨を明記する。
  3. 嫌がらせに対しては、都度対応する。

Xを利用する以上、利用規約同意しなければ使えないので、これについて学習を防ぐことはできません。(非公開ポストについては学習されませんが、これもXの利用規約変更が無いことが前提です)

例えばpixiv機械的画像収集ガイドライン禁止されています。また、画風を模倣した作品投稿についても一定制限のもとで禁止されています

対価を取る旨の明記とは、例えばpixivFANBOXのメンバー限定コンテンツを、無断で転載されてしまった場合、損害を負ったと外部に対して明確に説明が出来ます

これらを行ったうえで、故意学習され、似た作風の生成AI画像を公開されるという嫌がらせを受けた場合は、上記の旨を前提として、嫌がらせであると都度対応する必要があります

これは知らなかった、うっかりしていたでは起こりえない状態にしたうえで、きちんと嫌がらせに向き合うということです。

上記では防げない部分の補足

生成AI画像そもそも見たくない、というものは、現行では防ぎようが無く、どちらかというとロビー活動に近いものになります

こいつは画像生成AIで絵を出力している!というのは、指摘として正しいか否かは別として、あまり意味をなしません。

ただ、自分趣味である写真でも、いわゆる加工をどこまで許容するかは人やコンテストによって異なる為、そういった住み分けの話になってくると思っています

例えば、ある画家自分の画風を学習させた生成AI画像を出力して販売したとしても、それを咎め理由は思い当たりません。

現状でもまだ過渡期であり、人間の目で判別不能画像を出力するようになるのは、時間問題です。(既に人間が書いた絵であっても生成AI絵だと誤認される事例は数多くあり、指摘できる人間の数は減っていきます

どちらかと言えば、作画過程タイムラプス動画価値を見出すような、違った付加価値の話になってくると思います

最後

生成AI画像技術禁止する、学習禁止するなどは、現行法下ではできません。

法改正もしくは法解釈の変更が必要なためロビー活動を行うしかありません。

しかし、自分の絵を商用利用を禁止し、それを許容するプラットフォームで発表することはできます

Xでは非公開ポストにしない限り、機械学習に利用されることを防ぐことはできません。利用規約で既に利用が可能になっているからです。

露悪的に言えば、Xを利用するのに学習されたくないのは虫が良い、と言えます。ただし、Xに対して一定金額を払うことで対象から除外してもらうように働きかけることはできるかもしれません。

ウォーターマークサインノイズ機械学習を防ぐ目的に使う効果はとても薄いです。ロゴウォーターマークの除去もテーマとしては昔からあるものであり、難易度はそれほど難しくありません。

ただし、意図して除去していることは明確になるので(Xには規約学習されてしまうが)X以外の例えば悪意ある第三者学習された場合に、悪意ある行動だ、と指摘することが出来ます

この場合、対価を取って公開している場合、損害が明確になるので、アクションを取りやすくなります

簡単にまとめると

X社に学習されるのは諦めて、小さくても良いのでトリミングで取り除かれない位置サインを入れてポストするのが最もベターです。ウォーターマークである必要はありません。

(取り除かれて転載された場合タイムスタンプを基に悪意ある転載だと指摘できるため。逆に言えば別に大きくいれてもさして違いは無いので自分の好みで入れれば良い)

また、自分の画風のAIモデルを開発中である、これの対価はAI陣営には買えないくらいとても高い、とプロフィールに書くだけでも十分抑止になります

生成AIに反対する為に、自分AIモデルを作り高額で販売するつもりである、と表明すれば良いからです。

嫌がらせ自分の画風を真似たモデルが作られて販売もしくはそれを使った出力画像が出た際に、自分は損害を負ったと主張できます

また、第三者ゲームスクリーンショット勝手に透かしやサインを入れるのは止めましょう。適切なガイドラインのもとで適切に利用するのが最も大切です。

既に法律でも、利用規約でも、生成AI機械学習側がリードしている状態です。

Xが学習するというのを妨げるのは、プラットフォームを利用する側としてはどちらかと言えば非難される側になってしまます。(規約にあり、利用しており、それでいて相手妨害する為)

Xにポストする絵には必ずどこかにサインを入れて自分のものだとわかるようにしてください。それが今できる最善の対応です。

2024-10-09

物理学賞と化学賞がニューラルネットワークかぶりなの、逆に相談とかせずに決めてる感がある

ちょうど2022年のChatGPTブームに乗っかってどちらもそれらしいの選んじゃった感じ

2024-09-28

脳に電子回路みたいに電流が流れているわけではなかった気がする。

うろ覚えだし、過去知識から、間違ってるかもしれんけど


ニューロン本体から延びる線の表面膜の電位が変わっていき、

最後に末端から化学物質放出される。


ニューロンは大量にあって、お互いに化学物質のやり取りをすることで脳は動作している。

その制御は複雑で、別のニューロンから出る化学物質放出量を増やすとか、減らすとか、そんなことすらやっている。


から、ここから予測だけど、例えば電極から脳にそのまま電流放出しても、細かな制御は出来ないだろう。

頑張っても、体のどこかがくすぐったくなるとかマヒするとか、そのレベルの大雑把な制御しかできないんじゃないか


多幸感を得るとかだったら、その化学物質制御をどうこうする麻薬を使うとか、そういう話になるんじゃないかと。

もちろん麻薬デメリットがすごく大きい。


この細やかでアナログ制御は、電子回路よりもむしろニューラルネットワークとかそっちに近いイメージなんだろう。

いや、ニューラルネットワークの側が神経の挙動を真似して作ったものではあるんだけど。

2024-09-19

プロンプトエンジニア」と「古典的プログラマー」の違いってなんだ?

プログラマーも結局は「読み方も分からない0と1の羅列に変えてくれるコンパイル機能を持った高級言語」を使ってるだけだろ?

お前の普段向き合ってる文字の羅列は、結局はお前にとってのブラックボックスに送られ、そしてお前はそれが最終的にどうやって動作しているのかを分かってない。

パンチカード時代パソコンはクソデケー電気仕掛けのそろばんだった。

電卓」ではない。

何故ならあれを置ける卓はないから。

嘘だと言うなら科博にでも行ってこい。

それでもなお「でもよお、俺はイギリスアーサー王が使ってたという100人用の円卓を見たが、アレぐらいなら乗るぜ?」と返すならもう俺は何も言わない。

電卓の化け物だった頃のパソコン相手原始時代言語で「ウホウホ!1+110!俺!0を発見!(BGMレクイエム』より、第2楽章キリエ」)」してた頃は、パソコンブラックボックスではなかった。

だが、その時代はとうに過ぎ去った。

その昔はパンチカード目視で読める人間バーコードリーダーみたいなことをしてる奴らもいたが、今はもう宴会芸にしかならない。

プログラミングとは高級言語を用いてやるものであり、コンパイルしたあとの機械語とは「人間が目で読むことを想定していない精霊界の言語」だ。

プロンプトエンジニアリング」はよく呪霊操術や精霊魔術にたとえられる。

よく分からんけど召喚獣魔法を使わせ、召喚獣がどうやって魔法を打ってるのかは知らないという世界だ。

だが待ってほしい。

それと対比して語られる「古典的プログミング」も結局は「途中の過程はよく分からんけど最終的に機械がなんとかする」で同じではないのか?

ニューラルネットワーク構成する離散的なモザイクと、コンパイルされた機械語解読不能な01の羅列、それらにどれほどの違いがあるんだ?

どう違うんだ。

教えてくれ。

GPTは俺に架空書籍名前しか教えてくれない。

2024-08-02

anond:20240801032838

とっ散らかった思い出話?で失礼します。

当時はLLMなんて影も形もなく、人工知能といえばなんかちょっといくらいのアルゴリズムをさしていて、

理論的にはニューラルネットワークSVMもあったもの機械学習が注目されるちょっと前の時代

(ちなみに設定上はマルチニューラルネットワークではなく、ニューロネットという似た何か)

今のような計算機もないし、理論的な話もフレーム問題みたいなやる気のない議論しか無く。

とりあえずプログラミング勉強したものの、なんかちょっと賢いアルゴリズムくらいしか学ぶものがなかった。

機械学習SVM)が流行ったのが大学に入った頃でこれはと思って飛びついたものの、まぁ大したことはできず。

対話ボットとしてでも再現できればと思っても、まともな生成は夢のまた夢だった。せめて対話分析ができればと思っても、言葉意味とか全然扱えない状態で、

対話分析なんかしても、定型文に近いパターンが扱えるかどうか。当時のペースだと100年経ってもマルチどころか、

イカリヤ(ハンドメイドメイ)も厳しい状況で、よく博士課程なんか進んだな。この当時から、こつこつ対話研究

続けていた方々には、本当に頭が下がります。で、対話は難しすぎるので、目先を変えたタスク博士課程を取る。

このころには、長瀬源五郎になれないということには気が付いてきてはいものの、誕生に関わる可能性のある

世界にいたかったのだと思う。

博士とった後くらいで、 Mikolov がLLMの遠い祖先といってもよいRNNLM とみんな大好き word2vecを作った。

この時点ではまだ、言葉意味ベクトルで表せるって程度で、その後のBERTくらいまではまだ性能があがってすごいくらいで、

まだマルチっぽいものも作れないしまだまだ遠いな、とちょっと高を括っていた。そろそろ対話研究する時期じゃないかとは思いつつも、手は動かず。

そして気が付いたら、GPT-2 が簡単コードを書けるようになっていた。この時点で、なぜ他のものは投げ捨てて飛びつけなかったか

今でもちょっと考える。その時点ではチェリーピッキング的なものでも、精度の問題ならいずれ勝手解決されることは分かっていたのになぁ。

で、結局今はLLMのプロンプトエンジニア。これはこれで面白いのだけど・・・マルチが作りたかったはずなのに、随分離れたとこに流れ着いてしまった。

今となってはマルチ風に会話できる対話ボットぐらいすぐに作れるんだが・・・、なんかもうそういうことじゃないんだよな。。。

例えOpenAIに転職してたとしても、マルチに近づけるわけではないんだが。なんか、大作の構想練り続けてうん十年みたいだなー。

2024-07-28

anond:20240726011515

量子コンピューター開発の批判AI開発は出さなくてよかったのでは?

後者想像してた以上のことがここ10年くらいで実現出来ちゃったわけだし

AIというかアホみたいに巨大なニューラルネットワークを膨大なデータで鍛えると汎化性能が落ちるどころか想定外機能創発された、って話だけど)

2024-07-26

anond:20240726011515

AI開発に関わる企業ではなく、AI業界全体としての話なんですね。

ファジーとか、ニューラルネットワーク時代から、延々続いているので、

業界が、「失敗したので諦めます」は有りえないというのはよく分かる。

2024-06-09

Perplexityのテスト: アルゴリズム提案

質問

コンテンツ集合Xがあります。各々の要素x∈ Xは特徴量f_1(x)∈Y_1 を持っています

同様にユーザーu ∈ Uが存在し、特徴量f_2(u)∈Y_2を持っています

コンテンツには単価P(x)が存在し、ユーザーuがコンテンツをm回消費することをg(u, x, m)=m*P(x)_uで表し、全てのユーザーU, 全てのコンテンツXに対して行列M∘P = g(U, X, M) が存在します。

目的関数M∘Pを最大化したいのですが、どんなアルゴリズムが考えられるでしょうか。

回答

この問題は、コンテンツユーザーの特徴量を考慮して、ユーザーコンテンツを消費する回数を最大化するものです。このような問題は、推薦システムの分野で広く研究されており、協調フィルタリングと呼ばれるアプローチ一般的に使われています

協調フィルタリングアルゴリズム

協調フィルタリングには、以下のようなアルゴリズムが考えられます

1. 行列子分解 (Matrix Factorization)

行列子分解は、ユーザーコンテンツ行列を低ランク近似することで、ユーザーコンテンツ潜在的な特徴を抽出します。具体的には、ユーザー行列Uとコンテンツ行列Vを求め、その内積U^TVで元の行列を近似します。この手法は、Netflix Prizeで優れた成績を収めました。[1]

2. ニューラコラボレーティフィルタリング (Neural Collaborative Filtering)

ニューラルネットワークを用いて、ユーザーコンテンツ非線形関係学習します。入力としてユーザーIDコンテンツIDを与え、出力として評価値を予測します。この手法は、従来の行列子分解よりも高い精度が期待できます。[2]

3. 階層ベイズモデル (Hierarchical Bayesian Model)

ユーザーコンテンツの特徴量を階層ベイズモデルに組み込むことで、より柔軟なモデリング可能になります。この手法は、Cold-Start問題(新規ユーザーコンテンツの推薦が困難)の解決有効です。[3]

4. 強化学習 (Reinforcement Learning)

ユーザーの行動履歴環境として捉え、報酬最大化のためのアクション学習します。この手法は、長期的な利益最大化に適しています。[4]

これらのアルゴリズムは、ユーザーコンテンツの特徴量を考慮しながら、目的関数を最大化するように設計されています実装の際は、データセットの特性モデルの複雑さ、計算リソースなどを考慮する必要があります。[5]

Citations:

[1] https://aicontentfy.com/en/blog/understanding-algorithms-behind-content-distribution

[2] https://marketbrew.ai/optimizing-your-websites-content-with-genetic-programming

[3] https://sproutsocial.com/insights/social-media-algorithms/

[4] https://surferseo.com/blog/the-new-algorithm-for-content-analysis/

[5] https://www.linkedin.com/advice/0/what-best-ways-measure-content-relevance-x6apf

2024-06-05

anond:20240605103414

ニューラルネットワークAIじゃないぞ

えっそうなの?じゃあAI定義はなんなの?

anond:20240605104409

なんで?チラシには文字データとして食材情報が全部載ってるんだから

アプリから画像認識で十分でニューラルネットワークなんてもってくる意味がわからない

現状既にできてること

anond:20240605103450

そっちというのはパラメーターとして一々入れられるならという事

そもそもどのようなパラメーターがあるのかさえ分からない画像ニューラルネットワークじゃないと無理だよ

それに対して、入力方式がかっちり決まったデータ分析するならニューラルネットワークである必要はない

anond:20240605103048

正直shufooというのを初めて知ったけど

パラメーター決めて入れられるならそっちのがいいことは普通にあるよ

ただレシピ曖昧なとこ多いかAIニューラルネットワーク)が得意な分野かもね

anond:20240605102617

画像で取り込んで内容を把握して適当にやってくれるってとこが革新的かな

パラメーターでレシピ取り出すだけならAIというかニューラルネットワーク必要はない

anond:20240605081653

半導体「関連」とAI全然関係ないのはじゃあ知ってるよね

「やってる」は俺個人であればニューラルネットワークバックプロパゲーションが手計算できるくらい、モデル自分で作ってトレーニングしてプロダクションに入れてるけど

そこを聞いている話なんだけど「残念ながら使ってる方」だという自覚があるようなのでつまりやってはないんだよね

半導体関連に10年勤めてた程度の30そこそこの人が日本で超天才がどうのとか心配する必要全然ないやろ

それ以前に自分やばい

2024-05-23

これ面白い

特定概念がどういうネットワーク対応するのかってやつ

ネット上の対立関係もこれで炙り出せそうだよね

AIの仕組みであるLLMの「ブラックボックス」の内部を見てどのニューラルネットワーク特定概念を呼び起こすかを知る試みをAnthropicが解説

https://gigazine.net/news/20240522-anthropic-mapping-mind-language-model/

2024-04-01

anond:20240401214542

俺が一流じゃないだろってのは地球の裏側に置いておいて

この場合マイクロサービス説明ビデオなんだからスコープはそのビデオ自体の内容を理解するところまででは?

もちろんビデオ自体の内容を理解するのに前提で理解してなきゃいけない事があることはあるけど、それは現状理解が足りてないので別枠かな

ニューラルネットワークやった時は微分からやったのでコース理解するのに数ヶ月かかった

2024-03-22

anond:20240321185747

ハードウェアソフトウェアの合わせ技だよ

HPC用途のためにCUDAを早い段階で整備していて、

PyTorchやTensorFlowからの利用で2010年代中盤からCNN需要一人勝ち

ニューラルネットワーク学習GPUは切っても切り離せない関係になった

その時点で勝負あり

anond:20240321185747

IBMルールベースAI開発をしてたから誤差逆伝搬方式ニューラルネットワークブームには乗り遅れたって印象なんだが合ってる?

2024-03-21

NVIDIAインテルIBMはどうして差がついてきたのか、あるいは富士通「富岳」CPU民間普及しなかったのは何故か

NVIDIAと、インテルIBMはどうして差がついたのか、疑問に思う。

AIで言えば、IBMのWatsonがずっと先行していた。

AIニューラルネットワーク模倣していると言われ、ニューロモーフィックというチップを、IBMは作り、その後、メンバー移籍してインテルも作った。

現在ニューラルネットワークとは違うものになったが、勝っているのはNVIDIAになっている。


先日、1.58bitのBitNetが話題になったが、LLMではないが昔BinaryConnectで0.68bitまで下げる案を出したのもIBMメンバーだ。

ハッカーニュースでBitNetについてIBMだった人がコメントしている。IBMはそれなりに早かったはずだ。

https://news.ycombinator.com/item?id=39544500


普通GPU会社だと、ゲーム用のGPUボードだけを作っていたと思うが、NVIDIAは色々と手を出している。

データ プロセシング ユニット (DPU)、InfiniBand、NVIDIA MetroXなど、

HPC向けで、インテルAMDIBMの方が得意だろうという分野まで手を出した。

RTX 4090はゲームするにはバカ高いがAI向けには性能不足で、単価が高いAI向けボードを売るという差別化も出来ている。


ファブレス企業から、というだけでは説明不足で、TSMCNVIDIA向けのカスタムプロセスを作らせることが出来ている点が差別化要因の1つだろう。

TSMCから出てくるデザインルールの通りにしか作らないと、どこの会社も似たりよったり性能になってしまう。

物理限界を他社(TSMC)に投げてしまうというのも、経営としては効いているのだろう。

そして物理限界チップサイズを攻める。電力も物理限界を攻める。

日本会社だと、電力のバカ食いで怒られるが、そこも攻めている。


インテルGPUカードに参入したが、AI向けだけに限定した方が良かったのではないだろうか。

DirectX対応既存のゲーミングとの互換性がある。

中国GPUメーカーコケているのに対して、動いているだけでも流石インテルなのだが、競争力のあるGPUとは言えず、参入した意味とは?になってしまっている。


IBMは良くわからない。

量産ではない先端プロセスは持っているし、特殊チップも作れている。

CPUについてはPower関係資産もあり、AI向けもユニークなのが作れているのに、ぱっとしなくなった。

RISC-Vが上手くいくのであれば、OpenPowerも上手くいくと思うのだが、そういう話も聞かない。

そもそも米中関係で、オープンソースCPU/GPUが禁輸されそうな感じもしている。

結局、量子コンピュータについてもまだまだ先になりそうな雰囲気だ。

色々とやっているのに、いまいちブレイクしない。


日本だとすると、富岳のCPUPCIeボードで売りにでも出し手入れば違っていたのだろうか。

2024-03-19

anond:20240319092902

AI勉強したことあって紙の上で計算できるけど

人間にいつかは追いつくのかもしれないけど今のAIというかニューラルネットワーク人間の脳を模倣してるわけではないで

刺激に合わせて変化する神経細胞「的」なものを使ってるだけで構造とかは全然違うしそもそも人間の脳の構造はよくわかってない

ログイン ユーザー登録
ようこそ ゲスト さん