augmented realityに関するfawのブックマーク (146)

  • セカイカメラがどんなトンチでできているのか、中の人に話してもらった

    昨年9月10日に初めて知った「セカイカメラ」。4カ月たってその現物をようやく見ることができた。期待は大きかったが、それが裏切られることはなかった。 頓智・(とんちどっと)が開発中のセカイカメラは、現実世界と仮想的な「何か」をオーバーレイさせていくAR(拡張現実)技術の1つだ。 アニメ「電脳コイル」の電脳メガネをそのままiPhoneに置き換えたようなもので、iPhoneアプリの画面からのぞくと、そこには現実の風景だけではなく、いくつかの物体が漂ってみえる。それが「エアタグ」だ。 セカイカメラは、iPhoneなどのデバイスに組み込んだアプリケーションと、そのバックエンドでエアタグを配置するためのコミュニケーションシステムと言える。利用者は、iPhoneなどにインストールしたセカイカメラのアプリを起動し、そのデバイスを目の前にかざすことで、その画面を通して、その場所にひも付けされた情報エアタグを

    セカイカメラがどんなトンチでできているのか、中の人に話してもらった
  • 世界をクリッカブルにするオープンプラットフォーム──「セカイカメラ」

    2月17日から19日にかけて開催されたファッションイベント「rooms」で、頓智・(とんちどっと)が開発中のiPhoneを用いた拡張現実(AR)アプリ「セカイカメラ」のワールドプレビューが開催された。今回は、TechCrunch 50やフランス元老院などでもプレゼンされ、すでに世界的に話題になっているこのセカイカメラのワールドプレビューの模様を紹介しよう。 iPhoneのカメラは通常、写真撮影の際にのみ使用される。しかし、セカイカメラではカメラからの情報をライブビューの映像として表示し、その上に「エアタグ」と呼ばれるタグを重ねて表示する。空間に浮かぶ情報にタッチすると、その内容が閲覧できる。 位置情報を用いて現実世界の映像に情報世界を重ねる。特別なタグなどが必要ない、自然なARが体験できるアプリだ。このアプリによって、iPhoneが現実世界から仮想世界の情報を探す、フィジカルな検索情報端末

    世界をクリッカブルにするオープンプラットフォーム──「セカイカメラ」
  • 手で操るデジタルデータ:MITの双方向キューブ(動画) | WIRED VISION

    前の記事 「世界最高馬力の天然ガス車」をイランのメーカーが開発 手で操るデジタルデータ:MITの双方向キューブ(動画) 2009年2月18日 Kim Zetter MITメディアラボの研究チームは、2月上旬に開催された『TED(テクノロジー、エンターテインメント、およびデザイン)会議』において、相互に作用するキューブ型のデジタル機器『Siftables』について説明した。 MITメディアラボで大学院研究助手を務めるDavid Merrill氏は、このデジタル・キューブの元になったのは、机の上に広げられた写真などを手で物をより分けたり(sifting)並べ替えたりするというコンセプトだと述べた。 「デジタル的なデータと、そうやって現実に相互作用できたらクールだとわれわれは考えた。ありとあらゆるデジタルデータを物質として実体化したかった」とMerrill氏は語った。 Merrill氏とJeev

  • TechCrunch | Startup and Technology News

    Unlike Light’s older phones, the Light III sports a larger OLED display and an NFC chip to make way for future payment tools, as well as a camera.

    TechCrunch | Startup and Technology News
    faw
    faw 2009/02/18
    セカイカメラ
  • Engadget | Technology News & Reviews

    My iPhone 11 is perfectly fine, but the new buttons on the iPhone 16 are compelling

    Engadget | Technology News & Reviews
  • 身体と世界と情報を統合:情報をどこにでも投影するウェアラブル・マシン:動画 | WIRED VISION

    前の記事 デジタル3D化された人類の祖先『ルーシー』 身体と世界と情報を統合:情報をどこにでも投影するウェアラブル・マシン:動画 2009年2月10日 Kim Zetter カリフォルニア州ロングビーチ発――カリフォルニア州ロングビーチで開催された『TED』(テクノロジー、エンターテインメント、およびデザイン)会議において、マサチューセッツ工科大学(MIT)メディアラボの学生が開発したウェアラブル・コンピューティング・システムが紹介された。あらゆる物体の表面を双方向モニター画面に変えるシステムだ。 装着者は、バーチャルな機器とインターネット上のデータを気が向いたときに呼び出し、見終わったらすぐに消し去ることができる。 MITメディアラボ『Fluid Interfaces』グループのPattie Maes氏によると、この研究は、人間に新たなデジタルの「第六感」を作り出すことが目的だという。

    faw
    faw 2009/02/10
    Projecter プロジェクター 紙 インタフェース 指
  • 人間に「第六感」を追加するMITの拡張現実デバイス | スラド

    MITの研究者らが、Webカメラとモバイルプロジェクタ、携帯電話を組み合わせた「拡張現実デバイス」を開発しているそうだ。このデバイスは「Digital Sixth Sense」(デジタルの第六感)などと呼ばれており、Webカメラで撮影した周囲の情報を解析し、撮影された物体の上に、それぞれに応じた情報をプロジェクタで投影するもの。たとえば、このデバイスを装着した人の手首に時計を投影したり、店頭に並んでいる商品の情報を認識し、価格比較や性能比較を表示する、といった利用例が示されている。 同様のものとしてヘッドマウントディスプレイを使用するものなども開発されているが、こちらのデバイスはプロジェクタを利用することでより自由度が高くなっている印象だ。まだコンセプトモデルではあるが、将来に期待したい、ワクワクする技術である。

  • オープンソースの視線認識エンジン·Opengazer MOONGIFT

    こういった技術がオープンソース化されるのは素晴らしいことだ。コンピュータはキーボードとポインタデバイスを使って操作するのが当たり前になっている。だがこれは今後も続くだろうか。いや、マルチタッチシステムに代表されるようにもっと自由に操作できるようになるはずだ。 目線でポインタデバイスを制御する その一つの可能性として視線はじゅうぶん可能性がある。既に体が不自由な人のためにも利用されているが、Opengazerはそれをオープンソースとして提供している。 今回紹介するオープンソース・ソフトウェアはOpengazer、Linux向けの視線認識エンジンだ。 OpengazerはWebCamを使って顔を映し出す。そしてその視線の動きに応じてポインタデバイスを移動させることができる。画面の範囲は決して狭くなく、それでもきちんと認識して移動するのが凄い。 デモ動画はUbuntu上で動作しているようで、現在

    オープンソースの視線認識エンジン·Opengazer MOONGIFT
  • はてなブログ | 無料ブログを作成しよう

    2024年下半期のフィルム写真たち ふと気がつくと2024年も残り僅か。 そしてふと振り返るとこのブログに掲載する写真がGRIIIで撮ったものばかりになっていたのだけど、決してフィルムに飽きたということではなく、フィルムはフィルムで淡々と撮り続けているし、モノクロもカラーネガもいつも通り自宅で…

    はてなブログ | 無料ブログを作成しよう
  • はちゅね召喚プログラム

    つくってみた。ステキなサウンド:ジミーサムP様sm4748812 ステキなMQO読み込みcppソース:工学ナビ様 ステキなミクのMQOモデル:三次元CG@七葉様 これまでにつくったものmylist/7023672【12/14追記】なんかタイトルが化けてたので直しました。ついでに召喚の漢字もこっそり修正。コメントどうもありがとうございます。領域選択時には正面から映してる必要があります。また、姿勢推定にはカメラの内部パラメータをあらかじめ求めておく必要があります。

    はちゅね召喚プログラム
  • 「センサーチップ搭載の薬」で、身体反応をモニター | WIRED VISION

    「センサーチップ搭載の薬」で、身体反応をモニター 2008年12月 9日 サイエンス・テクノロジー コメント: トラックバック (0) Priya Ganapati あと数年のうちには、錠剤を口にするという行為が、ただ薬を飲んで効いてくれるのを待つ、という以上の意味を持つようになるかもしれない。 バイオメディカル企業の米Proteus Biomedical社が、薬の効果を簡単にモニターできるシステムを開発した。超小型コンピューターとセンサーを薬剤に組み込み、携帯電話やインターネットにつなぐというものだ。 この技術を利用すれば、患者の重要データを自動的に収集し、糖尿病や高血圧といった慢性疾患の管理に役立てることが可能になる。特に、一定量の投薬に対する患者の反応を詳細に追跡するのに役立つとみられる。 Proteus Biomedical社は12月4日(米国時間)、この技術によって、『世界経済フ

  • 篠田プラズマ「曲面表示可能で裏からも見えるディスプレー」(動画) | WIRED VISION

    篠田プラズマ「曲面表示可能で裏からも見えるディスプレー」(動画) 2008年12月 9日 サイエンス・テクノロジー コメント: トラックバック (0) Jose Fermoso ITWorld.comの報道 フレキシブル(曲面表示可能)なディスプレーの最新試作機によって、日の新興企業がディスプレー業界の勢力図を塗り替えようとしている。 篠田プラズマの幅3メートルで薄さ1ミリというプラズマ・ディスプレーは、2008年はじめからすでに話題を呼んでいたが、[今年10月末に]横浜市で開催された展示会『FPD International 2008』では、2009年発売予定の同製品のほぼ完成版が新たに展示された。 [篠田プラズマは、世界で初めてフルカラー・プラズマディスプレーを作った富士通開発グループのリーダーだった篠田傳(しのだ つたえ)氏が2005年に設立] 最新試作機は、前回の試作機と同様に、

    faw
    faw 2008/12/09
    display 曲がる 曲げる
  • 義眼にウェブカメラを搭載:メッシュ状のマイクロセンサーは開発すみ | WIRED VISION

    義眼にウェブカメラを搭載:メッシュ状のマイクロセンサーは開発すみ 2008年12月 8日 サイエンス・テクノロジー コメント: トラックバック (0) Priya Ganapati Photo: Steve Mann Rob Spence氏(36歳)は、話すときに相手の目をまっすぐに見つめる。まもなく、彼の緑がかったはしばみ色の目の片方に、極めて小さな無線ビデオカメラが埋め込まれ、相手の目のあらゆる動きを録画するようになると想像すると、ちょっと狼狽してしまう。 Spence氏が置き換えようとしているのは、視力のある目ではない。数年間使ってきた義眼だ。カナダ人で映画制作者のSpence氏は、片方の目を見えないままにしておくことに満足していない。Spence氏が望んでいるのは、無線ビデオカメラを義眼に組み込み、いつでもどこでも周囲を見渡すだけで映画を作れるようになることだ。 「片方の目を失い、

  • Expired

    Expired:掲載期限切れです この記事は,ロイター・ジャパンとの契約の掲載期限(30日間)を過ぎましたのでサーバから削除しました。 このページは20秒後にNews トップページに自動的に切り替わります。

  • 【コラム】シリコンバレー101 (297) リアルなオブジェクトとネットをリンク、RFIDの箱庭「tikitag」で遊ぶ | ネット | マイコミジャーナル

    米国では感謝祭(11月第4木曜日)の翌日の金曜日"ブラックフライデー"から年末商戦がスタートする。小売店が未明から開店し、1日だけの大幅値下げを行う。最近では翌月曜日が、オンラインストアでのホリデーシーズンセールが始まる"サイバーマンデー"とも呼ばれている。しかし今年はそんなホリデーシーズンのお約束を無視して、フライングする小売店が続出。先週の月曜日ごろからブラックフライデー価格で買い物できる店が多かった。その甲斐あってか、ブラックフライデーにショッピングモールや家電量販店などをひと回りしてきた感じでは、"低調な出足"と報じられているほどキビしい状況ではなかった。ただ混雑していても、例年よりレジに並ぶ人の列は短かいように思えた。値下げに関心はあっても、買い物客のサイフの紐は固いということか……。 このままだとクリスマスプレゼントの支出が4割減ほどになる可能性があるという。そのためか雑誌やW

  • 地方都市・長崎で意外な成功!?――駅前デジタルサイネージ「ナビタッチ」の可能性

    地方都市・長崎で意外な成功!?――駅前デジタルサイネージ「ナビタッチ」の可能性:神尾寿の時事日想(1/2 ページ) 駅前の周辺案内図と携帯サイトを連動し、ケータイ向けにデジタル地図や広告コンテンツを配信する。最近注目のデジタルサイネージ(電子広告媒体)系のサービスの中でも、表示灯の「ナビタッチ」(参照記事)は、おサイフケータイ(モバイルFeliCa)やQRコードなどを活用するなど、先進的な取り組みを行っている。 テレビや新聞などマスメディア広告の効果や価値が減少し、一方で、交通広告など“リアルメディア”の相対的価値が上昇する中で、「ナビタッチ」の効果はどこまで上がっているのか。今回の時事日想は特別編として、日で初めてナビタッチが導入されたJR長崎駅の状況をレポート。注目度が上がる位置情報+携帯連携の最新事情について紹介する。 FeliCaかQRコードでケータイ連携 長崎の「陸の玄関口」で

    地方都市・長崎で意外な成功!?――駅前デジタルサイネージ「ナビタッチ」の可能性
  • スマートフォンの進化で拡張現実が身近に? | スラド

    iPhoneなどのスマートフォンを使った拡張現実のデモ動画が、Technology Reviewのブログ記事で紹介されています。これは、スマートフォンのカメラで撮影した動画にリアルタイムで情報やグラフィックを付け加えて表示するもので、撮影された風景に3Dオブジェクトが重ね合わされたり、情報が表示される、といったデモが紹介されています。 実際の映像にCGを使って情報を付加する拡張現実は、ターミネーターやドラゴンボール(のスカウター)、攻殻機動隊などの映画漫画ではお馴染みのものですが、まだ身近な存在にはなっていません。その原因は技術面ではなく、人前で付けるには恥ずかしいヘッドマウントディスプレイにあるとタレコミ人は勝手に推測していますが、スマートフォンにはたいていカメラが付いていますし、性能も向上してきているのでこれをインタフェースにすればすぐに普及するような気もします。たとえば、目的地まで

  • 「電脳コイル」はもう実現してる?! | スラド

    2007年11月に行われたISMAR 2007(複合現実感国際会議)で発表されたひとつの研究がmasayashiさんのブログで紹介されています。まずはそのデモをご覧下さい。 自然の空間をムービーとして撮影しただけでマーカー無しに三次元空間を認識し、そこに3Dのオブジェクトを合成しているのですが、驚くべきことに市販のノートパソコンでリアルタイムで処理がなされています。バーチャルリアリティってのは大掛かりな設備が必要な技術かと思っていたので、かなり驚かされました。 現段階では、静的な空間のみで動く物体との衝突や、3Dオブジェクトが実空間の物体の裏に回りこんで見えなくなる等はサポートしていないようですが、電脳コイルの世界(作品の設定は2026年)の実現は案外早そうです。

  • 「誰もが持つ共感覚」――催眠を使っての誘発に成功 | WIRED VISION

    「誰もが持つ共感覚」――催眠を使っての誘発に成功 2008年11月25日 サイエンス・テクノロジー コメント: トラックバック (0) Brandon Keim Image: Lady Orlando 音を「味」として感じる共感覚について紹介する動画 心理学者のチームが、催眠を使って、数字が色として感じられる共感覚の状態を引き起こすことに成功した。 このような共感覚は、およそ1000人に1人が生まれつき持っているもので、物理学者のリチャード・ファインマンや、作家のウラジーミル・ナボコフなど、歴史上の著名人にも共感覚者のいることが知られている。 ナボコフは、「『q』は『k』よりも茶色の度合いが強い色をしており、『s』は『c』のようなライトブルーではないが、空色と真珠色の混ざった不思議な色合いをしている」と書いている。 こうした感覚は長い間、空想の産物として無視されてきたが、現在では、知覚の謎

  • 次元を超えた画像解析技術――「Deep Zoom」と「Photosynth」を体験する

    次元を超えた画像解析技術――「Deep Zoom」と「Photosynth」を体験する:Lookup! せんせーしょん(1/4 ページ) いまや我々は日常的にPCを使っている。まるで写真のように高精細な動画を瞬時に表示するハイスペックなPC、そしてそれを映し出すディスプレイは一昔前では考えられないものだ。しかし、映画やアニメに出てくる“コンピュータ”とはどうも違うような気がしないだろうか。 古くは“コンピュータ”といえば研究所に備えられた巨大な筐体の中で磁気ディスクが回り、紙テープで打ち出された計算結果を見て博士が「ヤツの弱点はしっぽだ! しっぽへの攻撃が成功する確率は94%!」とか口走るのが定番だったが、PCが普及し始めるとこの描写も変わってくる。 もちろんその描写は、“コンピュータ”が重要な局面であればあるほど分かりやすい脚色が加えられ、現実離れしていく傾向がある。とはいえ、テクノロジ

    次元を超えた画像解析技術――「Deep Zoom」と「Photosynth」を体験する
    faw
    faw 2008/10/20
    画像処理