Press ENTER to run the code or use the Run button in the toolbar. Note it can take up to 30 seconds before the shell finishes loading and is ready to run commands.
Course Logistics Lectures: Tuesday/Thursday 12:00-1:20PM Pacific Time at NVIDIA Auditorium. Lecture Videos: Will be posted on Canvas shortly after each lecture. These are unfortunately only accessible to enrolled Stanford students. Office Hours: We will be holding a mix of in-person and Zoom office hours. You can find a full list of times and locations on the calendar. Contact: Announcements and a
とりあえず ImageNet 系の論文で、目に入ったものから順々にまとめていきます。情報・ツッコミ歓迎。 前処理・Data Augmentation Mean Subtraction 入力画像から平均を引く。[103.939, 116.779, 123.68] を各ピクセルから引く。VGG はこれ。 Per-pixel Mean Subtraction 入力画像から平均を引く。ピクセル・チャンネルごとに計算された平均を引く。即ち、224x224x3 個の値について個別に平均を計算し用いる。AlexNet 論文から使われており、ResNet もこれ。 Random Crop 256x256 ピクセルに画像をリサイズし、そこから 224x224 のパッチをランダムに取り出す。AlexNet 論文で使われていた。ちなみに Chainer の ImageNet サンプルはこれと Horizonta
はじめに Deep Learningで画像を精度よく分類するにはとにかく枚数が必要です。しかし、大量の画像をすべて手作業で用意・タグ付けするのは困難です。そこで、タグ付けされた画像を加工することで画像の枚数を増やす(水増しする)ことが行われます。 今回は、水増しするためにどのようなことをするのかをTensorFlowのコードから学びたいと思います。 具体的にはCIFAR-10のコードから学んでいきます。 cifar10/cifar10_input.py 実際のコードでは以下のように複数の処理を組み合わせて画像の水増しを行っていました。 # Image processing for training the network. Note the many random # distortions applied to the image. # Randomly crop a [height,
機械学習を行うために、画像から特定の物体(領域)だけ切り出して認識したり学習データを作りたい、ということがよくあると思います。 本稿では非常に多くの機能を持つOpenCVの中から、そうした機械学習のために利用する機能にフォーカスしてその利用方法を紹介していきたいと思います。具体的には、下記のモジュールを中心に扱います。 CVPR 2015 Tutorials 基本的な切り出しの手順は以下のようになります。以下では、このプロセスに則り解説を行っていこうと思います。 前処理: 物体検出が行いやすいように、画像の前処理を行います 物体検出: 物体の検出を行い、画像から切り出します 輪郭検出: 画像上の領域(輪郭)を認識することで、物体を検出します 物体認識: OpenCVの学習済みモデルを利用して対象の物体を認識し、検出を行います 機械学習の準備: 切り出した画像を用い、予測や学習を行うための準
Deep Learning系のライブラリを試すのが流行っていますが、Exampleを動かすのはいいとしても、いざ実際のケースで使おうとするとうまくいかないことがよくあります。 なんとか動かしてみたけれど精度が出ない、データの加工の仕方が悪いのか、モデルのパラメーターが悪いのか、原因がぜんぜんわからん・・・という事態を乗り越えるには、やはり仕組みに対する理解が必要になってきます。 そんなわけで、本編では画像の用意という一番最初のスタートラインから、Chainerで実装したCNNを学習させるところまで、行うべき手順とその理由を解説していきたいと思います。 前段として理論編を書いていますが、ここではライブラリなどで設定しているパラメーターが、理論編の側とどのようにマッチするのかについても見ていきたいと思います。 なお、今回紹介するノウハウは下記リポジトリにまとめています。画像認識を行う際に役立て
数あるフレームワークに付属するExample、機械学習モデルを実装してみた、という話。これらに共通して言えるのは「テストがない」ということです。 機械学習のモデルだって、アプリケーションに組み込まれればプロダクションコードの一部です。テストがない実装を本番環境に組み込むか?というと通常そんなことありえないと思います。 ([スタジオジブリ 紅の豚](https://www.amazon.co.jp/dp/B00005R5J6) より拝借) 忘れられがちな点ですが、機械学習モデルは「リリースした瞬間」が最高精度になります。なぜなら、リリースした瞬間こそがその時点で手に入るフルフルのデータを使って鍛え上げたモデルであり、それ以降はどんどん未知のデータが入ってくるためです。 そのため、モデルの精度、また妥当性をいつでも検証できるようにしておくというのはとても重要です。これは通常のコードにテストをつ
3. References • (Settles 2009) Active Learning Literature Survey – よくまとまったサーベイ。本資料での用語は主にこちらに準拠 • (Schein+ 2007) Active Learning for Logistic Regression – LR に AL を適用する場合のサーベイとして使える • (Olsson 2009) A Literature Survey of Active Machine Learning in the Context of Natural Language Processing – こちらもしっかりしたサーベイ • (Guo+ 2007) Optimistic Active Learning using Mutual Information – Expected Error Reduction
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? そうだ、Deep learningをやろう。そんなあなたへ送る解説記事です。 そう言いながらも私自身勉強しながら書いているので誤記や勘違いなどがあるかもしれません。もし見つけたらご連絡ください。 Deep learningとは こちらのスライドがとてもよくまとまっています。 Deep learning つまるところ、Deep learningの特徴は「特徴の抽出までやってくれる」という点に尽きると思います。 例えば相撲取りを判定するモデルを構築するとしたら、普通は「腰回りサイズ」「マゲの有無」「和装か否か」といった特徴を定義して、それを
Bigtopと戯れる その1の続きです。ひたすら戯れましたが、課題が残ってしまったので続きを書くかもしれません。 目標 最新版のHadoopのRPMファイルを作ること 自分でパッチを当てたHadoopのRPMファイルを作ること 両方ともこの記事で達成します。 最新版のHadoopのRPMファイルを作る 2015/12/22時点のmasterだと、BigtopでインストールするHadoopのバージョンは2.7.1になる。 'hadoop' { name = 'hadoop' relNotes = 'Apache Hadoop' version { base = '2.7.1'; pkg = base; release = 1 } tarball { destination = "${name}-${version.base}.tar.gz" source = "${name}-${versi
Apache Bigtopとは、Apache Hadoop関連のプロダクト(Hadoop エコシステム)のパッケージング、テストなどを担当するツールですが、実際にどのようにして使えばいいのかについてはあまり深く知られていないと思います。本記事では、少しだけですがApache Bigtopの使い方について紹介します。 目標 最新版のHadoopのRPMファイルを作ること 自分でパッチを当てたHadoopのRPMファイルを作ること 本記事では、いずれも達成できていません。 前提 Bigtopのバージョンは、master (2015/11/21時点) CentOS 6系ベース (Azureを使っている都合で、実際はOpenLogic 6.7) 必要なライブラリ Hadoopをコンパイルするのに必要なもの(詳細はHadoop Wiki: HowToContributeを参照)に加えて、以下が必要
Distributed computing (Apache Hadoop, Spark, ...) Advent Calendar 2016 の24日目です。この記事では、Hadoop クラスタを手軽に手元に構築したいときに便利な、Apache Bigtop の機能について紹介したいと思います。 Apache Bigtop とは Apache Bigtop は、Hadoop とその周辺ソフトウェアをビルドし、 deb や rpm といった形式でパッケージ化することで、各種 Linux ディストリビューションへの導入を容易にするためのプロジェクトです。それ以外にも、以下のような機能を持っています。 作成したパッケージをクラスタ内の各ノードにデプロイし、適切に設定するためのプロビジョニング機能 デプロイ結果の確認や、ソフトウェアバージョン間の相互運用性の担保に使われる、統合テスト・スモークテス
Apache/ Bigtop/ Apache Bigtop | Last Published: 2024-07-10 Version: 3.4.0-SNAPSHOT Bigtop is an Apache Foundation project for Infrastructure Engineers and Data Scientists looking for comprehensive packaging, testing, and configuration of the leading open source big data components. Bigtop supports a wide range of components/projects, including, but not limited to, Hadoop, HBase and Spark. Packagin
... is a collection of libraries and tools that enable contribution and release processes for software projects. It provides: a robust system for automatically checking new contributions against a variety of community accepted requirements the means to document a well defined supported interface for downstream projects tooling to help release managers generate release documentation based on the in
はじめに 注意事項 この記事は何らかの理由でSELinuxを利用しなければならない時に発生する、意図せずプログラムが動かなくなる問題を解決するための手段を書いたものである。 作業対象のOSは作業中いつでも停止可能であるものとする。SELinuxの設定作業中に停止不可能とか無茶なので。 また、すべての操作はrootユーザで行っている。SELinuxは「管理者による強制的なアクセス制御」なのでrootユーザが操作しなければならない。 内容は主にCentOS 7で確認し、CentOS 6やFedora 22も一部確認に使用している。 SELinuxの管理で使用する各種のコマンドは初期からインストールされているものは少なく、またコマンド名がそれを含むrpmパッケージ名と一致しないものが多い。 このような場合はyum install *bin/<コマンド名>でインストールすることができる。Fedor
Dockerは、SELinuxのタイプにsvirt_lxc_net_tラベルを設定し、コンテナ内のプロセスからホスト上のリソース間のアクセス制御を強固なものにしています。 また、KVM仮想マシンプロセスのsvirtの仕組みと同じく、コンテナ間の同一タイプ(svirt_lxc_net_t)を持つプロセスに対しては、MCS(Multi-Category Security)のカテゴリラベルによりアクセスの制限をしています。 今回のエントリーでは、SELinuxによるDockerリソースのアクセス制御と、内部でDockerを利用するOpenShift v3が、そのSELinuxをどう取り扱ってるのかを見ていきます。 MEMO: Fedora 22上の Docker1.8.2とRHEL7上のDocker1.7.1で確認しています。
Docker provides an API for interacting with the Docker daemon (called the Docker Engine API), as well as SDKs for Go and Python. The SDKs allow you to efficiently build and scale Docker apps and solutions. If Go or Python don't work for you, you can use the Docker Engine API directly. For information about Docker Engine SDKs, see Develop with Docker Engine SDKs. The Docker Engine API is a RESTful
2017年11月以降のイベントについては,このページではなく https://dockerjp.connpass.com/ にて参加を募集しています. (We have been using https://dockerjp.connpass.com/ for managing RSVPs since November 2017) --- Learn, Collaborate & Dockerize! Meet other developers and ops engineers in your community that are using and learning about Docker. Docker is an open platform that helps you build, ship and run applications anytime and anywhere.
ニューラルネットワークを用いた機械学習の「ディープラーニング(深層学習)」は人工知能(AI)開発に欠かせない技術であり、AI以外にもGoogleフォトの画像の自動タグ付け機能やAmazonのレコメンド機能など、すでに実用化されている技術に活用されています。そんなディープラーニングを開発者が学習するためのとっておきの方法をGoogleのクラウド開発者がブログで紹介しています。 Learn TensorFlow and deep learning, without a Ph.D. | Google Cloud Big Data and Machine Learning Blog | Google Cloud Platform https://cloud.google.com/blog/big-data/2017/01/learn-tensorflow-and-deep-learning-w
連載目次 今回は本特集でこれまでに取り上げてこなかったが、覚えておくべき事項としてPythonの文字列の基本、ファイル操作の基本、幾つかの組み込み関数の使い方を見ていこう。 文字列 本特集では整数、浮動小数点数など、Pythonの基本データ型については明確に取り上げてこなかった(読者の多くはこうしたデータ型の概念については既にご存じであろうという考えからだ)。文字列もそうしたデータ型の1つではあるが、Python独自の文字列の使い方もあるので、以下ではこれについて見ていくことにしよう。なお、Pythonの組み込み型については「TensorFlowやChainerに興味があるけど、Python未経験の技術者が最低限知っておいた方がいい基礎文法まとめ (2/6)」にまとめてあるので、そちらを参照してほしい。 まず簡単に文字列についてまとめておこう。
Googleが開発者・製作者などのメイカーコミュニティに対して、どんなスマートツールを開発するべきか尋ねるアンケートを実施しています。Raspberry Pi財団も、Raspberry Piで使用可能なGoogleの機械学習や人工知能技術を使用できるツールが開発されるよう、ブログでGoogleのアンケートへの回答を呼びかけています。 Help Google develop tools for Raspberry Pi - Raspberry Pi https://www.raspberrypi.org/blog/google-tools-raspberry-pi/ Google brings AI to Raspberry Pi - BBC News http://www.bbc.com/news/technology-38742762 Googleはこれまで機械学習・IoT・ウェアラブル
東京大学 大学院情報理工学系研究科 ソーシャルICT研究センターは、IDとパスワードを必要としない次世代認証技術「ライフスタイル認証」の実証実験を実施している。 本稿では、1月27日~29日にかけて行われる東京都の商業施設「カレッタ汐留」内におけるデモンストレーションイベントの記者説明会の様子をお届けする。 実証実験が行われるのは、同センターが開発している「ライフスタイル認証」。既存のパスワード・IDであれば文字列の入力、生体認証であれば指紋の読み取りなど、「認証のための動作」をすることなく本人を認証する手法だ。 認証動作なしで個人の認証を行うために、IoT技術を活用。昨今普及がさらに進むスマートフォンや各種ウェアラブル端末などから得られる複数のデータを参照し、本人性や行動を機械学習で解析する。 利用するデータは、電波(Wi-Fi)、IPアドレス、GPS情報、検索履歴など。同実証実験は20
データ解析を駆使し、米国人の住宅の買い方を変えるスタートアップ企業、OfferPadが合計2億6,000万ドル(約294億円)の資金調達を行った。そのうち3,000万ドルは株式との交換で、2億3,000万ドルはLL Fundsからの借り入れだ。同社はこの資金を事業の拡大に用いる。 住宅売買の分野では既にOpendoor社がユニコーン企業となったことが知られるが、OfferPadはテクノロジーを駆使し、わずか数日で家を売りたいオーナーに最高額のディールを提供することが特徴だ。今回の資金調達でOfferPadの評価額は1億1,000万ドルとされた。 OfferPadは2015年にジェリー・コールマン(43)とブライアン・ベア(40)が設立した企業。コールマンはInvitation Homesの共同創業者としても知られ、Invitation社は最近IPO申請を行い、今後15億ドルの資金調達を目指
米Googleは1月25日(現地時間)、Webブラウザの安定版となる「Chrome 56」(バージョン56.0.2924.76)をWindows、Mac、Linux向けに公開したと発表した。今後数日から数週間かけてローリングアウトしていく。 一般ユーザー向けの主な新機能は、MozillaのFirefoxにもバージョン51で追加されたHTTPページ表示の際の警告と、ページのリロードの高速化だ。 HTTPS接続推進でHTTPで警告表示 Chrome 56についてGoogleでは、通信の内容を暗号化するHTTPS接続を推進する立場から、パスワードやクレジットカード番号を入力させるWebページに通信が暗号化されないHTTP接続が使われている場合、安全ではないページとみなすと予告していた。こうしたページではアドレスバーのURLの前に灰色で「Not secure」の文字が表示されるようになる。 Chr
はじめに 前回、WindowsへのDeepLearningライブラリKerasの導入と四角形が縦長か横長かの2値分類を行いました。まだ読まれてない方は、そちらからの方が分かり良いかもしれません。 さて、今回はディープラーニングを使ってまで2値の分類では面白くないと思うので、次のステップとしてMNISTという0~9の数字の手書き文字のデータセットを用いて、数字の多クラス分類を行います。この記事でも、ネットワークは前回と同じく多層パーセプトロン(MLP)を使用します。多層パーセプトロンについて説明していなかったので、最初に軽く説明します。初期値や最適化のパラメータ説明はその5あたりで別にとりあげます。 実行環境 Windows 10(64bit)with only CPU Python 3.5.2 Anaconda 4.2.0(64bit) Tensorflow 0.12.1 Keras 1.
Microsoft HoloLensとHTC Vive間を遠隔で繋げるテレプレゼンスプラットフォーム「Thrive」デモ映像あり 2017-01-27 VR/ARを得意とするチーム「Aetho」は、VR及びARを利用したテレプレゼンス・プラットフォーム「Thrive」を今年中にリリースする予定とし開発を進めています。 Thriveは、遠隔地の複数メンバーとその場で対面しているかのような臨場感で自然に対話することができるプラットフォームを目指しています。 現在HTC ViveとMicrosoftのHoloLensで動作するとしており、また、ViveとHoloLens間のシームレスな架け橋にもなるとしています。公式サイトにあるデモ映像ではViveとHoloLens同士で通信しコミュニケーションをとっている様子が確認できます。(IMMERSE YOURSELFボタンを押してもらうと再生されます。
2021-09-072017-01-26 安川情報システム、AR技術を活用しデジタルマニュファクチャリングの取り組みを強化 IoTによるビジネス変革を推進している安川情報システム株式会社は、ICTを使って工場を最適化するデジタルマニュファクチャリング(*1)への取り組みを更に強化する。培ってきたIoT/AI技術にAR技術を組み合わせたARソリューションで工場内の機器・設備等の情報を効果的に作業者に伝えることで、効率的な作業を支援する。同ソリューションは2017年秋から順次提供を開始する予定。 同社は創業以来、ICTを活用した製造業の支援を行ってきた。受託開発から始まり、IoTプラットフォーム「MMCloud」の提供などでデータによる情報管理や共有、状況の可視化、分析を行うことにより、工場の効率向上や最適化に貢献し、デジタルマニュファクチャリングを推進してきた。今回、マイクロソフト「Micr
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く