「ポケモンGO」はより現実に溶け込んでいく AIと共有技術で世界をプラットフォーム化するNianticの戦略(1/2 ページ) AR、VR、MR……どれもここ数年で特によく聞くようになった言葉だ。 ゲームや映像コンテンツを中心に少しずつ広がりを見せるVR(Virtual Reality:仮想現実)がある一方で、Windows MR(Mixed Reality:複合現実)を標ぼうするMicrosoftはヘッドセット型デバイス「HoloLens」を特定業界向けのツールとして活用すべくパートナーとの協業を進めている。 そしてAR(Augmented Reality:拡張現実)は、スマートフォンなどのデジタル機器を通じて現実世界に付加情報を与えることで世界観をさらに広げる仕組みを提供するものだ。最近ではAppleがiOS向けに「ARKit」を、GoogleがAndroid向けに「ARCore」を提
スマートフォンアプリのGoogle翻訳(iOS/Android)がアップデートされ、リアルタイムカメラ翻訳が日本語にも対応しました。カメラに写した文字がその場で翻訳されるというもので、実際に試してみたところかなり面白い機能となっています。 ここから起動します 使い方は、アプリを起動してカメラボタンをタップするだけ。最新バージョンに更新されていれば、カメラ画面の右下に「インスタント」ボタンが表示されます。この「インスタント」をオンにすれば、カメラに写った文字がリアルタイムに翻訳されるという仕組み。 この翻訳した言葉の表示の仕方が凝っており、「元の文字の上から翻訳した言葉を合成画像にして表示する」という形式を取っています。さらに文字の大きさや色まで再現するため、翻訳されたものが本当にそこにあるかのよう。未来っぽい。 例えばこのティッシュボックス こうなります 例えば自動販売機 こうなります 雑
この記事は Chainer Advent Calendar 2016の18日目の記事です。昨日は@zacapa_23さんのPokemonGANでした。僕もDCGANを使って百合漫画の解析に活かそうとしたことがあるので、なんだか親近感がわきます。ちなみにこの記事もDCGANがらみです。 数年前にニューラルネットで超解像を行う研究が発表されてから、近年のディープラーニングブームの中で、特に企業の研究として(学習型一枚絵)超解像が発表されています。国内でも、特にイラストへの応用として、waifu2xという実装が注目を浴びたりしました。GitHub - nagadomi/waifu2x: Image Super-Resolution for Anime-Style Art さて、いくつかある論文の中で、今回はTwitter社が9月に公開したもの( Photo-Realistic Single Im
(編注:2020/08/18、いただいたフィードバックをもとに記事を修正いたしました。) (2016/12/11、いただきましたフィードバックをもとに翻訳を修正いたしました。) H.264は、動画圧縮コーデックの標準規格です。ネット上の動画、Blu-ray、スマホ、セキュリティカメラ、ドローンなどなど、今やあらゆるところでH.264が使われています。 H.264は注目すべき技術のひとつです。たったひとつの目標、つまりフルモーションビデオの送信に要するネットワーク帯域を削減することを目指した30年以上の努力の結晶なのです。 技術的な面でも、H.264はとても興味深い規格です。この記事では、その一部について概要レベルでの知識を得られることでしょう。あまり複雑だと感じさせないようにするつもりです。今回おはなしする概念の多くは動画圧縮全般にあてはまるものであり、H.264に限ったものではありません
EdisonにCMOSカメラモジュールを繋げてみました。 使用したのはOV7670+FIFOカメラモジュールです。 Edisonの3.3V出力で動かせそうだったのと、割とネットに情報が多かったので購入してみました。 回路 Edisonの論理レベルは1.8Vで、OV7670は3.3Vなので、そのまま接続出来ないため、次の電圧レベル変換モジュールを使いました。 ・I2Cバス用双方向電圧レベル変換モジュール(PCA9306) ・8ビット双方向ロジックレベル変換モジュール × 2 『I2Cバス用双方向電圧レベル変換モジュール』は標準でプルアップ抵抗が付いていますが、Edisonは自前でプルアップしているので不要です。加えて、OV7670+FIFOモジュールもSDAはプルアップされているので不要です。 したがって、『I2Cバス用双方向電圧レベル変換モジュール』でプルアップが必要なのはOV7670+F
Popular Science:ドローンの動きというのはぎこちないものです。だからこそ、ドローンが飛行できる場所も制限されているのです。スタンフォード大学の航空宇宙工学専攻のRoss Allen氏とMarco Pavone氏は、ドローンに障害物を回避させることを教えており、ドローンはフェンシングの剣でさえ回避できるようになったのです。彼らの論文、「キノダイナミック動作計画のためのリアルタイムフレームワークの開発およびクワッドロータの障害物回避性能への応用」にて、Allen氏とPavone氏は、クワッドローターのドローンに障害物を避けて飛行させるようにした、自分たちのシステムを解説しています。今回の研究には膨大な数学的基盤があるのですが、Allen氏とPavone氏はほとんど誰が読んでも理解できる言葉で、今回の方法を1つの文章でかみ砕いて解説しています。いわく、「機械学習を通して探索を行い、
過去を振り返りながら現在のテクノロジーと対比させるという、温故知新的連載「立ちどまるよふりむくよ」をここにスタート。その第1回は「想い出のフォトグラフ」を、PFUのアルバムスキャナ「Omoidori」で再訪する。 もう会えない家族・友人、失われた場所、そういった想い出には、デジタル化されていないものが多い。フォトアルバムに残された銀塩写真もそうしたものの1つだ。 フォトアルバムなどに収められている銀塩写真は、覆っているフィルムや光沢仕上げなどがあるため、多くの場合、取り出してスキャンする必要がある。いったん取り出すと戻すのが大変で、順番が変わることも。台紙に直接糊付けされているものは、はがしたとしても写真が破けてしまう危険性もある。古い世代のものは糊付けされていて、比較的新しいフエルアルバム的なのは、透明フィルムに入れていくタイプなので取り出さないと反射しやすい。どっちにしてもやっかいだ。
もう知らないと乗り遅れる? 「VR(Virtual Reality)」の基礎知識:Oculus Rift、PlayStation VR、HTC Vive……(1/3 ページ) そもそもVR(Virtual Reality)とは何か 「VR(Virtual Reality)」は日本語で「仮想現実」といった訳語が定着していますが、それぞれの英単語の意味をそのまま訳すと「現実同然」といった意味になります。 ITmedia読者の方なら「仮想メモリ(Virtual Memory)」や「仮想マシン(Virtual Machine)」と言ったコンピュータ用語をご存じかと思いますが、これらの言葉はHDDやSSDなどメインメモリではないものを「メモリ同然」として扱ったり、プログラム上でコンピュータハードウェアをエミュレーションして「マシン同然」として扱えるものを指しています。 VRもそれと同じように、広義で
コンピュテーショナルフォトグラフィと呼ばれる技術分野に注目が集まっている。従来のカメラの撮像過程を変更し、シーンの単なるスナップショット画像以上の情報をイメージセンサーで取り込み、デジタル信号処理と組み合わせることで、従来のカメラでは不可能な「写真」を撮影しようという試みだ。本稿では、この分野の重要な一角を占め、撮影後の写真のピント変更を可能にするなど、多様な応用が期待できるライトフィールドの概念を用いた技術について説明する。 撮像過程の変革 カメラの機能の多くは、デジタル化が実現されても、依然としてアナログカメラのアナロジーであり続けている。すなわち、シーンから入射する光をカメラのレンズによって屈折/集光し、2次元の画像として記録するという撮像の本質は変わっていない(図1)。画素数を増やすだけでは製品の差異化が難しくなってきた昨今、カメラメーカー各社は、差異化の別の軸として、デジタル画像
複数人が同じVR空間で3Dモデルを囲んで作業や議論ができる共同VRプラットフォーム「Improov3」 2016-01-21 パリベースのVRチーム「MiddleVR」は、Improov3のベータ版を発表しました。 Improov3は、複数のユーザーがVR内でフルスケール3Dモデルの周りを囲んで、同時に作業することを可能にする共同VRプラットフォームです。最新デモ動画では、風力発電を分解しコア部分の製品を3Dモデルとし、組み立てシミュレーションをVRヘッドセットとモーションコントローラを利用して実践しています。 周囲にはモニターが複数あり、ブラウザが表示されていたり、ビデオ会話をしているモニターがあったり、それに加え、頭だけのアバターが複数人います。彼らは、違う場所からVRヘッドセットを使って同じ空間内を移動したり作業したりしています。互換性があるのは、Oculus Rift DK1、DK
Intel® RealSense™ SDK 2.0 is a cross-platform library for Intel® RealSense™ depth cameras. 📌 For other Intel® RealSense™ devices (F200, R200, LR200 and ZR300), please refer to the latest legacy release. The SDK allows depth and color streaming, and provides intrinsic and extrinsic calibration information. The library also offers synthetic streams (pointcloud, depth aligned to color and vise-versa
こんにちわ、アプリケーション基盤チームの青木(@a_o_k_i_n_g)です。好きなみかんは紅マドンナです。 今回は、サイボウズのサムネイル事情について記事を書きたいと思います。サイボウズに限らず通常の Web アプリケーションでもサムネイル作成はよくあると思いますが、ハマりどころが多く涙しているサムネイリストも多いかと思います。これからの時代を生きるサムネイリストが快適なサムネイルライフを送れるよう、知見を共有したいと思います。 弊社では画像変換ツールに ImageMagick を用いており、従って本知見は ImageMagick 固有のものがほとんどです。 画像比較は人間の眼で行うべし サムネイル周りに何か修正を入れたら修正前後の画像を比較しましょう。機械によるバイト列の比較では画像の良し悪しがわかりません。頼れるのは人間の眼だけです。肉眼で確認しましょう。 比較できるツールを作ると良
(この記事はGoogle Cloud Platform Advent Calendar 2015の12月3日分の記事です) Cloud Vision APIと私 Googleに入ってからまもなく5年、Google Cloud Platformのデベロッパーアドボケイト(エバンジェリストみたいな役割)の仕事に就いてから1年が経ちました。仕事の半分はアジア地域向けの開発者コミュニティ支援で、残り半分はGCPの新製品ローンチの支援をグローバル向けに行っています。 特にここ半年は、TensorFlowをはじめ、GCPの機械学習系プロダクトのローンチ支援にフォーカスしています。TensorFlowはその序章で、公開前からAlphaカスタマー向けのスライドを作ったり説明やデモしたりしていました。 そうしたGCPの新しい機械学習系サービスのひとつが、Cloud Vision APIです。これはGoogl
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く