はてなキーワード: ブリングとは
でっかいし
ふわふわだし
長い時間楽しめるし
意味はないけど
ふわふわほろにが
さくさく
誕生日に必ず食べてる。高い
最高の和菓子
なにがハッピーなんだろう
幼虫
おいしいと思ったことがない
手がべとべとする。味も好きじゃない
飽きた
しょっぱいし
すっぱいのはちょっと…かたいし
枝豆は嫌い
繰り返しになるが、非常に賢いChatGPTを想像するだけではいけない。趣味的な進歩ではなく、リモートワーカーや、推論や計画、エラー訂正ができ、あなたやあなたの会社のことを何でも知っていて、何週間も単独で問題に取り組めるような、非常に賢いエージェントのようなものになるはずだ。
私たちは2027年までにAGIを実現しようとしている。これらのAIシステムは、基本的にすべての認知的な仕事(リモートでできるすべての仕事を考える)を自動化できるようになるだろう。
はっきり言って、エラーバーは大きい。データの壁を突破するために必要なアルゴリズムのブレークスルーが予想以上に困難であることが判明した場合、データが足りなくなり、進歩が停滞する可能性がある。もしかしたら、ホッブリングはそこまで進まず、専門家の同僚ではなく、単なる専門家のチャットボットに留まってしまうかもしれない。もしかしたら10年来のトレンドラインが崩れるかもしれないし、スケーリング・ディープラーニングが今度こそ本当に壁にぶつかるかもしれない。(あるいは、アルゴリズムのブレークスルーが、テスト時間の計算オーバーハングを解放する単純なアンホブリングであっても、パラダイムシフトとなり、事態をさらに加速させ、AGIをさらに早期に実現させるかもしれない)。
いずれにせよ、私たちはOOMsを駆け抜けているのであり、2027年までにAGI(真のAGI)が誕生する可能性を極めて真剣に考えるのに、難解な信念は必要なく、単に直線のトレンド外挿が必要なだけである。
最近、多くの人がAGIを単に優れたチャットボットなどとして下方定義しているように思える。私が言いたいのは、私や私の友人の仕事を完全に自動化し、AI研究者やエンジニアの仕事を完全にこなせるようなAIシステムのことだ。おそらく、ロボット工学のように、デフォルトで理解するのに時間がかかる分野もあるだろう。また、医療や法律などの社会的な普及は、社会の選択や規制によって容易に遅れる可能性がある。しかし、ひとたびAI研究そのものを自動化するモデルができれば、それだけで十分であり、強烈なフィードバック・ループを始動させるのに十分であり、完全自動化に向けて残されたすべてのボトルネックを自動化されたAIエンジニア自身が解決することで、非常に迅速にさらなる進歩を遂げることができるだろう。特に、数百万人の自動化された研究者たちによって、アルゴリズムのさらなる進歩のための10年間が1年以内に圧縮される可能性は非常に高い。AGIは、まもなく実現する超知能のほんの一端に過ぎない。(詳しくは次の記事で)。
いずれにせよ、目まぐるしい進歩のペースが衰えることはないだろう。トレンドラインは無邪気に見えるが、その意味するところは強烈である。その前の世代がそうであったように、新世代のモデルが登場するたびに、ほとんどの見物人は唖然とするだろう。博士号を持っていれば何日もかかるような信じられないほど難しい科学的問題を、間もなくモデルが解決し、あなたのコンピュータのまわりを飛び回り、あなたの仕事をこなし、何百万行ものコードからなるコードベースをゼロから書き上げ、これらのモデルによって生み出される経済的価値が1年か2年ごとに10倍になるとき、彼らは信じられないだろう。SF小説は忘れて、OOMを数えよう。AGIはもはや遠い空想ではない。単純なディープラーニング技術をスケールアップすることがうまくいき、モデルは学習したがり、2027年末までにさらに100,000倍を超えようとしている。私たちよりも賢くなる日もそう遠くはないだろう。
GPT-4はほんの始まりに過ぎない。GANの進歩に見られるように)ディープラーニングの進歩の速さを過小評価するような間違いを犯さないでほしい。
続き I.GPT-4からAGIへ:OOMを数える(11) https://anond.hatelabo.jp/20240605212014
これはおそらく3つの中で最も簡単な方法だ。現在のChatGPTは、基本的に、テキストを入力できる孤立した箱の中に座っている人間のようなものだ。初期のアンホブリング改良では、個々の孤立したツールの使い方をモデルに教えていましたが、マルチモーダルモデルでは、近いうちにこれを一挙にできるようになると期待しています。
つまり、Zoomでの通話に参加したり、オンラインで調べ物をしたり、メッセージや電子メールを送ったり、共有されたドキュメントを読んだり、アプリや開発ツールを使ったりといったことだ。(もちろん、より長いホライゾン・ループでモデルがこれを最大限に活用するためには、テスト時間のコンピューティングをアンロックする必要がある。)
最終的には、ドロップイン・リモートワーカーのようなものができると期待している。エージェントは、あなたの会社に入社し、新しい人間の雇用のようにオンボードされ、Slackであなたや同僚にメッセージを送り、あなたのソフトウェアを使用し、プルリクエストを行い、大きなプロジェクトがあれば、人間が独立してプロジェクトを完了するために数週間留守にするのと同等のことができる。これを実現するためには、GPT-4よりもいくらか優れたベースモデルが必要だろうが、おそらくそれほどでもないだろう。
https://situational-awareness.ai/wp-content/uploads/2024/06/devin.gif
Devinは、完全に自動化されたソフトウェア・エンジニアを作るために、モデル上の「エージェンシー・オーバーハング」/「テストタイム・コンピューティング・オーバハング」を解除する初期のプロトタイプだ。Devinが実際にどの程度機能するかはわからないし、このデモは、適切なチャットボット→エージェントのアンホブリングがもたらすものに比べれば、まだ非常に限定的なものだが、近々登場するもののティーザーとしては役に立つだろう。
ところで、私は、アンホブリングの中心性が、商業的応用という点で、少々興味深い「ソニックブーム」効果につながると期待している。現在とドロップイン・リモートワーカーの中間モデルは、ワークフローを変更し、統合して経済的価値を引き出すためのインフラを構築するために、膨大な手間を必要とする。ドロップイン・リモートワーカーは、統合が劇的に簡単になる。つまり、リモートでできるすべての仕事を自動化するために、ドロップインするだけでいいのだ。つまり、ドロップイン・リモートワーカーが多くの仕事を自動化できるようになる頃には、中間モデルはまだ完全に活用され統合されていないため、生み出される経済価値のジャンプはやや不連続になる可能性がある。
数字をまとめると、GPT-4に続く4年間で、2027年末までにGPT-2からGPT-4規模のジャンプが再び起こると(おおよそ)予想される。
GPT-4のトレーニングに3ヶ月かかったとしよう。2027年には、一流のAIラボはGPT-4レベルのモデルを1分で訓練できるようになるだろう。OOMの効果的なコンピュート・スケールアップは劇的なものになるだろう。
それは我々をどこへ連れて行くのだろうか?
GPT-2からGPT-4までで、私たちは~未就学児から~賢い高校生になった。とんでもないジャンプだ。もしこれが、私たちが今一度カバーする知能の差だとしたら、それは私たちをどこに連れて行くのだろうか?私たちは、それが私たちをとてもとても遠くに連れていっても驚かないはずだ。おそらく、ある分野の博士や最高の専門家を凌駕するようなモデルまで到達するだろう。
(このことを考える1つの良い方法は、現在のAIの進歩の傾向は、子供の成長のおよそ3倍のペースで進んでいるということだ。あなたの3倍速の子どもは高校を卒業したばかりだが、いつの間にかあなたの仕事を奪っていくだろう!)
続き I.GPT-4からAGIへ:OOMを数える(10) https://anond.hatelabo.jp/20240605211837
今後数年間の野心的なアンホブリングはどのようなものになるのでしょうか?私が考えるに、3つの重要な要素がある:
GPT-4は、多くの人の仕事の大部分をこなせるだけの生の賢さを持っているが、それは5分前に現れたばかりの賢い新入社員のようなものだ:関連するコンテキストを持っておらず、会社のドキュメントやSlackの履歴を読んだり、チームのメンバーと会話したり、会社内部のコードベースを理解するのに時間を費やしたりしていない。賢い新入社員は、着任して5分後にはそれほど役に立たないが、1ヶ月後にはかなり役に立つ!例えば、非常に長いコンテクストを通じて、新しい人間の同僚を雇うようにモデルを「オンボード」することは可能なはずだ。これだけでも、大きなアンロックになるだろう。
2.テスト時間の計算オーバーハング(より長いホライズンの問題に対する推論/エラー訂正/システムII)
今のところ、モデルは基本的に短いタスクしかこなせない。しかし、これでは非常に限界がある。5分どころか、数時間、数日、数週間、数ヶ月かかるのだ。
難しい問題について5分間しか考えることができない科学者は、科学的なブレークスルーを起こすことはできない。ソフトウェア・エンジニアは、より大きな仕事を与えられ、計画を立て、コードベースや技術ツールの関連部分を理解し、さまざまなモジュールを書いて段階的にテストし、エラーをデバッグし、可能性のある解決策を検索し、最終的には数週間の仕事の集大成である大規模なプル・リクエストを提出する。などなど。
要するに、テスト時間の計算オーバーハングが大きいのだ。GPT-4の各トークンは、問題を考えるときの内部モノローグの言葉だと考えてください。各GPT-4トークンは非常に賢いのですが、現在のところ、思考の連鎖のために~数百トークンのオーダーしか効果的に使うことができません(あたかも問題やプロジェクトに数分しか内部独白/思考を費やせないかのように)。
もし数百万トークンを使って、本当に難しい問題や大きなプロジェクトについて考え、取り組むことができるとしたらどうだろう?
トークンの数 | 私が何かに取り組むのに相当する時間... | |
100s | 数分 | ChatGPT (私たちはここにいる) |
1000s | 30分 | +1 OOMsテスト時間計算 |
10,000 回 | 半日 | +2 OOMs |
100,000ドル | 1週間 | +3 OOMs |
数百万回 | 複数月 | +4 OOMs |
人間が〜100トークン/分で考え、40時間/週働くと仮定して、「モデルが考える時間」をトークンで換算すると、与えられた問題/プロジェクトにおける人間の時間になる。
仮に「トークンあたり」の知能が同じだったとしても、頭のいい人が問題に費やす時間が数分なのか数ヶ月なのかの違いになる。あなたのことは知らないが、私が数ヶ月でできることと数分でできることは、はるかに、はるかに、はるかに多い。もしモデルに「数分ではなく、数カ月に相当する時間、何かを考え、取り組むことができる」という能力を与えることができれば、その能力は飛躍的に向上するだろう。ここには膨大なオーバーハングがある。
今のところ、モデルにはまだこれができない。最近のロング・コンテキストの進歩をもってしても、このロング・コンテキストのほとんどはトークンの消費にしか機能せず、トークンの生産には機能しない。しばらくすると、このモデルはレールから外れたり、行き詰まったりする。しばらくの間、離れて単独で問題やプロジェクトに取り組むことはまだできない。
しかし、テスト時間の計算を解除することは、単に比較的小さな「ホブリングしない」アルゴリズムの勝利の問題かもしれない。おそらく、少量のRLは、モデルがエラー訂正(「うーん、これは正しくないようだ、再確認してみよう」)を学習したり、計画を立てたり、可能性のある解を探索したりするのに役立つだろう。ある意味、モデルはすでに生の能力のほとんどを持っており、それをまとめるために、さらにいくつかのスキルを学習する必要があるだけなのだ。
要するに、私たちはモデルに、困難で見通しの長いプロジェクトを推論させるシステムIIのアウターループのようなものを教えればいいのだ。
この外側のループを教えることに成功すれば、2、3段落の短いチャットボットの答えの代わりに、モデルが問題を考え、ツールを使い、異なるアプローチを試し、研究を行い、仕事を修正し、他の人と調整し、大きなプロジェクトを一人で完成させるような、何百万もの言葉のストリーム(あなたが読むよりも早く入ってくる)を想像してみてほしい。
続き I.GPT-4からAGIへ:OOMを数える(9) https://anond.hatelabo.jp/20240605210357
最後に、定量化するのが最も難しいが、それに劣らず重要な改善のカテゴリーを紹介しよう。
難しい数学の問題を解くように言われたとき、頭に浮かんだことを即座に答えなければならないとしたらどうだろう。最も単純な問題を除いて、苦労するのは明らかだろう。しかしつい最近まで、LLMにはそうやって数学の問題を解かせていた。その代わり、私たちのほとんどはスクラッチパッドで段階的に問題を解いていき、その方法ではるかに難しい問題を解くことができる。「思考の連鎖」プロンプトは、LLMのそれを解き放った。生の能力は優れているにもかかわらず、明らかな足かせがあるため、LLMは数学が苦手なのだ。
私たちはここ数年で、モデルの「足かせを外す」ことに大きな進歩を遂げました。これは単に優れたベースモデルをトレーニングするだけでなく、アルゴリズムの改良によってモデルの能力を引き出すものです:
足場作り。CoT++について考えてみよう:ただ問題を解くようモデルに求めるのではなく、あるモデルに攻撃計画を立てさせ、別のモデルに可能性のある解決策をたくさん提案させ、別のモデルにそれを批評させる、といった具合だ。例えば、HumanEval(コーディング問題)では、単純な足場作りによってGPT-3.5が足場なしのGPT-4を上回った。SWE-Bench(実世界のソフトウェアエンジニアリングのタスクを解くベンチマーク)では、GPT-4は~2%しか正しく解くことができませんが、Devinのエージェントの足場があれば14-23%に跳ね上がります。(後ほど詳しく説明するが、エージェントのアンロックはまだ初期段階に過ぎない。)
ツール:もし人間が電卓やコンピュータを使うことを許されなかったらと想像してみてほしい。まだ始まったばかりだが、ChatGPTはウェブブラウザを使ったり、コードを実行したりできるようになった。
エポックAIによる研究によると足場作りやツールの使用など、これらのテクニックのいくつかを調査したところ、このようなテクニックは多くのベンチマークで通常5~30倍の効果的な計算量の向上をもたらすことがわかった。METR(モデルを評価する組織)も同様に、同じGPT-4ベースモデルからのアンホブリングによって、エージェントタスクのセットで非常に大きなパフォーマンスの向上を発見しました。
これらをコンピュートとアルゴリズムの効率で統一した実効的なコンピュート規模に当てはめることは困難ですが、少なくともコンピュート規模の拡大やアルゴリズムの効率とほぼ同規模の大きな進歩であることは明らかです。(また、アルゴリズムの進歩が中心的な役割を担っていることも浮き彫りになっています。0.5OOM/年の計算効率は、すでに重要なものではありますが、ストーリーの一部に過ぎません。)
「アンホブリング」こそが、実際にこれらのモデルが有用になることを可能にしたのであり、今日多くの商業アプリケーションの足かせとなっているものの多くは、この種のさらなる「アンホブリング」の必要性であると私は主張したい。実際、今日のモデルはまだ信じられないほど足かせが多い!例えば
ここでの可能性は非常に大きく、私たちはここで急速に低空飛行の果実を摘んでいる。これは非常に重要です。"GPT-6 ChatGPT "を想像するだけでは完全に間違っています。 GPT-6+RLHFと比べれば、進歩は段違いだ。2027年までには、チャットボットというより、エージェントのような、同僚のようなものが登場するだろう。
続き I.GPT-4からAGIへ:OOMを数える(8) https://anond.hatelabo.jp/20240605210232
コンピュートへの大規模な投資が注目される一方で、アルゴリズムの進歩も同様に重要な進歩の原動力であると思われる(そして、これまで劇的に過小評価されてきた)。
アルゴリズムの進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク(高校生の競技用数学)において、わずか2年間で~50%の精度を達成するために必要な価格が下がったことを示す次の図を考えてみてください。(比較のために、数学が特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。
これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズムの進歩は非常に大きく、また実際に起こっている。
この記事では、アルゴリズムの進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニングの計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデルの能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズムの進歩と考えることができます)。
一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドラインは予測可能であり、グラフ上の直線である。トレンドラインを信じよう。
アルゴリズム研究がほとんど公開されており、10年前にさかのぼるデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています。
アルゴリズムの進歩を測定することができます。同じ性能のモデルを訓練するために必要な計算量は、2012年と比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズムの効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.
これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。
残念ながら、研究室はこれに関する内部データを公表していないため、過去4年間のフロンティアLLMのアルゴリズムの進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率のトレンドは、同様に~0.5OOM/年であると推定しています。(しかし、これはエラーバーが広く、また、主要なラボがアルゴリズム効率の公表を停止しているため、最近の上昇を捕捉していません)。
Epoch AIによる言語モデリングにおけるアルゴリズム効率の推定。この試算によると、私たちは8年間で~4OOMの効率向上を達成したことになります。
より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:
最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルのGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。
公開されている情報を総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMのアルゴリズム効率向上が含まれていたことになります。
GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます。計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボの資金と人材への投資は急速に増加しています。 (少なくとも、公開されている推論コストの効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。
これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMのアルゴリズム効率向上が期待できることになります。
続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754
2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは〜未就学児から〜賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドラインをトレースすると、2027年までに再び未就学児から高校生規模の質的ジャンプが起こると予想される。
見て。モデルたちはただ学びたいだけなんだ。あなたはこれを理解しなければならない。モデルたちは、ただ学びたいだけなんだ。
GPT-4の能力は、多くの人に衝撃を与えた。コードやエッセイを書くことができ、難しい数学の問題を推論し、大学の試験を突破することができるAIシステムである。数年前までは、これらは難攻不落の壁だと思っていた。
しかしGPT-4は、ディープラーニングにおける10年間の猛烈な進歩の延長線上にあった。その10年前、モデルは犬猫の単純な画像を識別するのがやっとだった。4年前、GPT-2は半可通な文章をつなぎ合わせるのがやっとだった。今、私たちは思いつく限りのベンチマークを急速に飽和させつつある。しかし、この劇的な進歩は、ディープラーニングのスケールアップにおける一貫した傾向の結果に過ぎない。
ずっと以前から、このことを見抜いていた人々がいた。彼らは嘲笑されたが、彼らがしたのはトレンドラインを信じることだけだった。トレンドラインは強烈で、彼らは正しかった。モデルはただ学びたいだけなのだ。
私は次のように主張する。2027年までには、モデルがAIの研究者やエンジニアの仕事をこなせるようになるだろう、と。SFを信じる必要はなく、グラフ上の直線を信じるだけでいいのだ。
過去と将来の有効計算量(物理計算量とアルゴリズム効率の両方)の大まかな見積もり。モデルをスケールアップすればするほど、モデルは一貫して賢くなり、"OOMを数える "ことによって、(近い)将来に期待されるモデルのインテリジェンスの大まかな感覚を得ることができます。(このグラフはベースモデルのスケールアップのみを示している。)
この記事で取り上げた一般的な推定に基づく、効果的な計算(物理的な計算とアルゴリズムの効率の両方)の過去と将来のスケールアップの概算。モデルをスケールアップするにつれ、モデルは一貫して賢くなり、「OOMを数える」ことで、(近い)将来に期待されるモデルのインテリジェンスの大まかな感覚を得ることができる。(このグラフはベースモデルのスケールアップのみを示している。"unobblings "は描かれていない)。
この作品では、単純に「OOMを数える」(OOM = order of magnitude、10x = 1 order of magnitude)ことにします。1)計算、2)アルゴリズム効率(「効果的な計算」の成長として考えることができるアルゴリズムの進歩)、3)「アンホブリング」(モデルがデフォルトで足かせとなっている明らかな方法を修正し、潜在的な能力を引き出し、ツールを与えることで、有用性を段階的に変化させること)の傾向を見ます。GPT-4以前の4年間と、GPT-4後の2027年末までの4年間に期待されるそれぞれの成長を追跡する。ディープラーニングが効率的な計算のすべてのOOMで一貫して向上していることを考えると、将来の進歩を予測するためにこれを使うことができる。
世間では、GPT-4のリリースから1年間、次世代モデルがオーブンに入ったままであったため、ディープラーニングは停滞し、壁にぶつかっていると宣言する人もいた。しかし、OOMをカウントすることで、私たちは実際に何を期待すべきかを垣間見ることができる。
結果は非常にシンプルだ。GPT-2からGPT-4への移行は、時々まとまりのある文章を並べることに感動的だったモデルから、高校入試のエースになるモデルへの移行であり、一度だけの進歩ではない。私たちはOOMsを極めて急速に克服しており、その数値は、4年以上かけてGPT-2からGPT-4への質的なジャンプをさらに~100,000倍の効果的なコンピュート・スケールアップが期待できることを示している。さらに、決定的なことは、それは単にチャットボットの改良を意味しないということだ。"unhobbling "利益に関する多くの明らかな低空飛行の果実を選ぶことで、チャットボットからエージェントへ、ツールからドロップイン・リモートワーカーの代替のようなものへと我々を導いてくれるはずだ。
推論は単純だが、その意味するところは注目に値する。このような別のジャンプは、私たちをAGIに、博士号や同僚として私たちのそばで働くことができる専門家と同じくらい賢いモデルに連れて行く可能性が非常に高い。おそらく最も重要なことは、これらのAIシステムがAI研究そのものを自動化することができれば、次回のテーマである強烈なフィードバック・ループが動き出すということである。
現在でも、このようなことを計算に入れている人はほとんどいない。しかし、AIに関する状況認識は、一歩下がってトレンドを見てみれば、実はそれほど難しいことではない。AIの能力に驚き続けるなら、OOMを数え始めればいい。
続き I.GPT-4からAGIへ:OOMを数える (2) https://anond.hatelabo.jp/20240605204240
遠い未来、人類は究極の監視社会を構築していた。日常生活から親密な時間まで、人々の生活のあらゆる面が監視され、記録されていた。政府は「公共の安全のために必要」と主張するが、多くの市民は懐疑的だった。
ある日、ボブという名の不器用な政府職員は、監視システムから逃れようとする反抗的な市民グループの監視を任された。ボブは熱心だが、どこか抜けていて、ミスをしがちな職員だった。
グループの活動を監視していたボブは、誤って監視システムの不具合を引き起こし、誤動作させてしまう。突然、街中の監視カメラにボブの顔がライブ映像で映し出されるようになり、ボブは恐怖を覚えた。
パニックになったボブは不具合を直そうとしたが、事態はさらに悪化した。この不具合は他の都市にも波及し、人々は自分のプライベートな瞬間が映し出されることに気づき、混乱に陥る。
事態が制御不能になるにつれ、ボブは自分の手に負えないことを悟った。監視していた反抗的な市民たちと手を組み、監視システムを完全に停止させるため、荒々しい冒険の旅に出る。
監視システムを停止させようとするボブと反乱軍は、さまざまな困難や障害に遭遇する。
まず、監視システムのメインコントロールセンターにたどり着くには、迷路のような官庁街と地下トンネルを通り抜けなければならない。
ところが、そのコントロールセンターは、武装した政府職員が巡回する厳重な警備が敷かれていた。
しかし、ボブが誤ってアラームを作動させてしまったため、連鎖的に捜査官たちに気づかれてしまう。
必死の脱出で、ボブと反乱軍はハイテクな変装、偽の身分証明書、さらにはホバークラフトなど、あらゆる種類のガジェットやギズモを駆使して捜査官から逃れることを強いられた。
ある時は、監視システムをハッキングするための試作品を盗むために、政府の研究室に侵入しなければならなかった。
そして、その旅の間中、彼らを何としても阻止しようとする政府のエージェント・チームが執拗に追いかけてきた。
しかし、ボブと反乱軍たちは、監視システムを停止させ、人々に自由を取り戻すという目標を決して見失うことはなかった。
そして、彼らの努力と決意は実を結んだ。監視システムを停止させ、その背後にいる腐敗した役人を暴くことに成功したのだ。
そして、最初はしがない政府のエージェントだったボブは、監視とコントロールによって抑圧された世界の希望と勇気の象徴として、人々の目に映るヒーローになった。
そして、監視社会の市民は、ボブとその仲間たちの不運にも善意ある努力によって、真のプライバシーと自由を享受することができたのだ。
塵も積もれば山となるで、ボブと反乱軍は国民から英雄として讃えられた。政府はこの事態を計画的なテロ行為と言い逃れようとしたが、圧倒的な証拠があり、市民はそれを受け入れなかった。
監視システムが解体され、その実施に関与した政府関係者が裁かれたことで、社会は再生し始めた。人々は互いにつながり、社交し、プライバシーを楽しむようになった。
ボブは、ある種の有名人になった。行く先々で人々が彼を呼び止めて自撮りをし、彼の姿がTシャツやポスターにプリントされ、街中に溢れた。
当初、ボブはその注目度の高さに圧倒され気味だった。しかし、時間が経つにつれて、彼は自分の名声を楽しむようになった。プライバシーと自由の大切さを説く講演家として、全国を回るようになった。
監視システムについては、再建されることはなかった。その代わり、政府はより伝統的な法執行や情報収集に投資するようになり、侵略的な技術ではなく、人間の知性や探偵業に頼るようになった。
結局、監視社会の人々は、プライバシーと自由はどんな犠牲を払ってでも大切にし、守るべき貴重なものであるという重要な教訓を得た。そして、すべてはボブという名の不器用な政府エージェントの不運から始まったのである。
クソ安い輸入もののやつも、ブリングルスもポテトチップスクリスプもちょっと固すぎるんだよな。
サクッ、パリッっていうより、パキッみたいな食感があってまず入り口が弱い。
チップスターの適度なしっとり感というか、さくっとした食感は替えが利かない。
味も濃すぎず薄すぎず、ちょうどいい。
他の奴は基本的に味が濃すぎるのと香料が強いんだよな。
袋入りだと少し幅が広がって、オーザックはチップスターに肉薄していると思う。
あれも食感が非常に優れている。
オーザックのうすしお味は他のどんなお菓子のうすしお味とも違う謎の風味がある。
他はまぁ、誤差だな。
VIVE Flowなんかがそうだけど、既にサングラス型のVRゴーグルは出てきてる
https://www.vive.com/jp/product/vive-flow/overview/
5年後ぐらいにはサングラス型が主流になると思う
デスクトップ・ラップトップ・タブレットみたいに棲み分けてるのと同様に
大型VR(ケーブリング)・小型VR(現行Quest 2)・サングラス型みたいに棲み分けるだろうし
PS VR 2のデモ映像があるんだけど、その中で部屋の3Dスキャンをしてる
https://www.vive.com/jp/product/vive-flow/overview/
これ、PS5だから出来る、とかじゃなくて今のQuest 2でもほぼ出来てる
昔のiPhoneでもできるんだから当たり前ではあるんだけど、VRゴーグルかけたまま部屋を見渡せるのを知らない人は多いと思う
今は白黒だけどこれがカラーになるのはすぐだろうし
Amazonで検索するとQuest 2用のレンズって2000円ぐらいで売ってる
それを目のところにはめれば眼鏡なしでプレイできるしほぼ違和感ない
(ちょっと見えにくいところはある)
これでサングラス型でARとかまで出てきたらもはや眼鏡を付けてる人は乗り換えない理由がほとんどなくなると思う
欧米人はサングラスで目を隠すことに抵抗がないけれど日本人は目を隠したがらない
仮面舞踏会だと目の部分にマスクがあるのに対して忍者が口元を隠してるのを見ても文化的にそうなのだと思う
ニュージェネレーションズクライマックス 見たよ
ルーブ映画版で初登場したトレギアのタイガTVシリーズを経ての最終決着。
まあ、なんつーか 悪い意味でのドラゴンボール 戦闘力が青天井でインフレしていく。
ウルトラマンサーガとか、ハイパーゼットンとかあの辺の時代の映画は、予算がなかったのか とある謎の惑星の原野 か 宇宙空間で 戦ってたんだが
今回はTV版と共通してのマーブリングファインアーツさんのご尽力で、今回 調布~稲城~秦野~横浜市港北区~ あたりでロケしていた TVシリーズでいう綾香市世田原市北川町星山市ニュータウンや下町の風景と連続性がある。
そこでやたら火力の強い映画版の光線技(ファイナルなんとか、ウルティメートなんとか)を敵味方がぽんぽん繰り出すものだから(週に1回/30分ではなく、3回/80分)町の被害が尋常じゃない。
火の七日間か、ってくらい調布~稲城~秦野~横浜市港北区の街が、コラテラルダメージで蹂躙されていく。
ティガダイナガイア8兄弟映画あたりはCG宇宙空間戦で、敵が超巨大合体怪獣(CG)なので ウルトラマンたちがハエに見えるという、オールドファンにはすこぶる評判が悪かったのだが
最後にnetflixの”get down”というドラマにも触れておきたい。ヒップホップの創生について描いたドラマである。監督は”華麗なるギャツビー”を手掛けたバズ・ラーマン。jaden smithがハウスのクラブで、友達の男の子とキスをするシーンが話題になった。
ハウスは元々シカゴのゲイディスコ”ウェアハウス”を由来とする。ヒップホップも元々、ディスコを由来としていて、初期はエレクトロなどの引用(サンプリング)が多かった。故にハウスとヒップホップはディスコを親とした兄弟と呼ばれたりもする。
例えばSlum Villageのdj dezという人物は象徴的で、ヒップホップDJでもあり、ハウスDJでもある。Andresという別名義で、moodymannというディープハウスの大御所のレーベルからリリースしてたりもする。
上記したキスシーンは、不寛容の時代から、現在へとブリッジするものとして描かれた(ようにかんじた)。少なくともラッパーが同性とぶっちゅーなんてのは、20年前にはできなかった表現である。
Slum Village "Fall in love"
https://www.youtube.com/watch?v=s732BigTxZk
https://www.youtube.com/watch?v=nPT0Zw0z90g
Jose James "Desire (moodymann mix)”
https://www.youtube.com/watch?v=WHNZy-9u2FU
"Get Down"
https://www.youtube.com/watch?v=FYcVrWDOiao
補足。
Childish Gambinoは役者、コメディアンとしても活躍しており、netflixなどで公開されている”Atlanta"はべらぼうに面白い。
元嫁に尻に敷かれまくりながらも、養育費のためにがんばるサウスの男のお話。
Frank Ocean "Super Rich Kids"はソフィア・コッポラの”ブリングリング”の劇中歌である。おもろい映画なので、おすすめしたい。
歌うラッパーは昔も少数いた。Outkast、Ceelo、Bone Thugs N Harmony、Nelly、Nate doggなど。今のように誰でも歌ってる訳ではなかった。
SNSの活用で一番最初に売れたのはSouja boyである。然しながら、今日のTypicalな成功例とはすこし趣が違っている。彼の場合は、まずダンスが先行した。
Kodie Shane "Sad"における三番目のナードな男の名前が"Napoleon"なのは、"バス男"("Napoleon Dynamite")からの引用と思われる。いい映画です。勝手な邦題の暴力性よ。
6月末までのクーポンだけど事実上今日までに使うのが一番オトクだったから
平日昼間は安いな―
ポテトが結構量あったから急いで食べたかったけど手づかみで食べなきゃだったから熱くて大変だった
今日はちゃんとデンモクのりれきを写メってセットリスト記録しといた!
時間も限られてるから、バンバン途中停止してとにかく1時間でできるだけたくさん歌うぞ―とがんばった
なんとなく好きだたこと思い出して入れてみた
AメロなんとかいけてBメロギリギリで結構いけるかもと思ったら、
あとやっぱり地味だったから途中で停止した
ハルヒの歌
ラスサビ前の間奏が長いのが困るけどサビまで飛ばす機能使えばok
全部いけると思ったらラストのくるくるうんたらーってのが全然わかんなくて停止した
テレビサイズならいけると思ったらかなりテレビと違うパターンですぐ停止した
2番まで歌ったところで合いの手と掛け声のところ飛ばしてラスサビだけ歌った
あゆ好きなの
この歌も好き
茜が一番好きなんです
でもやっぱり茜が歌うからいいんであってryってことで2番まで歌って停止
うーんやっぱり歌も好きだしもともと男の歌だから違和感なく歌えるのもいいなあ
試しに入れてみた
でもテレビサイズで満足して1番までで停止
サビ直前のてをのばーすうーーーージャンッのところで手を突き上げてぐいっとコブシつくるの気持ちよすぎwww
サビのキーが少し高くて歌うのきつかったから1番だけでちょうどよかった
自分の声質的にバラードとかこういうしっとり系のほうが合うし歌も好き
でも2番までで満足して停止
前回も歌ったけど今回も
うーんカラオケもうずっと行ってないせいでビブラートのきかせかた忘れちゃってるんだよなあ・・・
単なるアルバム曲だけど地味に好きな曲なんだよね