「SVM」を含む日記 RSS

はてなキーワード: SVMとは

2024-11-22

いまSVMビデオみてる

ちょっと気分的には改善してきた

おそらくタイヤはこびということで

体動かしたのが

奏功した

効を奏した?

2024-08-02

anond:20240801032838

とっ散らかった思い出話?で失礼します。

当時はLLMなんて影も形もなく、人工知能といえばなんかちょっといくらいのアルゴリズムをさしていて、

理論的にはニューラルネットワークSVMもあったもの機械学習が注目されるちょっと前の時代

(ちなみに設定上はマルチニューラルネットワークではなく、ニューロネットという似た何か)

今のような計算機もないし、理論的な話もフレーム問題みたいなやる気のない議論しか無く。

とりあえずプログラミング勉強したものの、なんかちょっと賢いアルゴリズムくらいしか学ぶものがなかった。

機械学習SVM)が流行ったのが大学に入った頃でこれはと思って飛びついたものの、まぁ大したことはできず。

対話ボットとしてでも再現できればと思っても、まともな生成は夢のまた夢だった。せめて対話分析ができればと思っても、言葉意味とか全然扱えない状態で、

対話分析なんかしても、定型文に近いパターンが扱えるかどうか。当時のペースだと100年経ってもマルチどころか、

イカリヤ(ハンドメイドメイ)も厳しい状況で、よく博士課程なんか進んだな。この当時から、こつこつ対話研究

続けていた方々には、本当に頭が下がります。で、対話は難しすぎるので、目先を変えたタスク博士課程を取る。

このころには、長瀬源五郎になれないということには気が付いてきてはいものの、誕生に関わる可能性のある

世界にいたかったのだと思う。

博士とった後くらいで、 Mikolov がLLMの遠い祖先といってもよいRNNLM とみんな大好き word2vecを作った。

この時点ではまだ、言葉意味ベクトルで表せるって程度で、その後のBERTくらいまではまだ性能があがってすごいくらいで、

まだマルチっぽいものも作れないしまだまだ遠いな、とちょっと高を括っていた。そろそろ対話研究する時期じゃないかとは思いつつも、手は動かず。

そして気が付いたら、GPT-2 が簡単コードを書けるようになっていた。この時点で、なぜ他のものは投げ捨てて飛びつけなかったか

今でもちょっと考える。その時点ではチェリーピッキング的なものでも、精度の問題ならいずれ勝手解決されることは分かっていたのになぁ。

で、結局今はLLMのプロンプトエンジニア。これはこれで面白いのだけど・・・マルチが作りたかったはずなのに、随分離れたとこに流れ着いてしまった。

今となってはマルチ風に会話できる対話ボットぐらいすぐに作れるんだが・・・、なんかもうそういうことじゃないんだよな。。。

例えOpenAIに転職してたとしても、マルチに近づけるわけではないんだが。なんか、大作の構想練り続けてうん十年みたいだなー。

2024-07-14

anond:20240714075751

いまどきSVMを原因で落とすっていうのも、この文章からにじみ出る内面からしても、最近SVM勉強たか他人罵倒して快楽を得たい粘着気質のチョイスって感じで渋いですね

基本中の基本ってかもう化石だろ もういま2024年だろ?お前いつの時代を生きてるんだ??

まぁこんなネチネチ言ってきそうな奴、仮にSVMを組めたら別の化石みたいなアルゴリズムを引っ張り出してきてはネチネチ言ってきそうだし応募者は逆によかったんじゃないか

2023-10-07

anond:20231007020741

AIって乱数派生だけどそれは知ってた?いや正確にはNNの派生だったりSVMが元だったりだけど

2023-04-01

anond:20230401014053

5年くらい前に機械学習SVMだろうがRFだろうが全部AIってことで落ち着いたはずだぞ

2021-12-04

anond:20211204145749

後編

プログラミングを学ぼうと思い立つ

行列VBAなんかじゃ無理っぽいし、なんかプログラミング言語を覚えようと決める。

なんでも、統計やるならRという言語がいいらしい。

最近じゃPythonというのも人気らしい。

とりあえず両方試そうということで、RのためにRとRstudioをインストール

Pythonはanaconda

プログラミングはなんかを製作する目標がないと挫折すると聞いていたので。

深層学習というもの流行ってると聞いて、ちょっと触りを勉強したくなる。

Excelでわかるディープラーニング超入門」

https://www.amazon.co.jp/Excel%E3%81%A7%E3%82%8F%E3%81%8B%E3%82%8B%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0%E8%B6%85%E5%85%A5%E9%96%80-%E6%B6%8C%E4%BA%95-%E8%89%AF%E5%B9%B8/dp/4774194743/ref=sr_1_1?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&keywords=Excel+%E6%B7%B1%E5%B1%A4%E5%AD%A6%E7%BF%92&qid=1637482610&s=books&sr=1-1

この本は面白かったので、深層学習目標プログラミングを覚えよう!

後になって、これはとんでもない間違いだったことに気づく。深層学習機械学習の違いも判らないまま、RよりPythonを先に触ることに。

教本にしたのはこちら。

ゼロから作るDeep LearningPythonで学ぶディープラーニング理論実装

https://www.amazon.co.jp/%E3%82%BC%E3%83%AD%E3%81%8B%E3%82%89%E4%BD%9C%E3%82%8BDeep-Learning-%E2%80%95Python%E3%81%A7%E5%AD%A6%E3%81%B6%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0%E3%81%AE%E7%90%86%E8%AB%96%E3%81%A8%E5%AE%9F%E8%A3%85-%E6%96%8E%E8%97%A4-%E5%BA%B7%E6%AF%85/dp/4873117585/ref=pd_lpo_2?pd_rd_i=4873117585&psc=1

途中まではまあなんとか。

微分って便利だな。行列計算できるの便利だなっていうところまでいったが、クラスという概念理解できず、途中からハテナが浮かんで読み進められず。

うん、もうちょっと易しい本を探そうと思って手に取ったのが

「独学プログラマー Python言語の基本から仕事のやり方まで」

https://www.amazon.co.jp/%E7%8B%AC%E5%AD%A6%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9E%E3%83%BC-Python%E8%A8%80%E8%AA%9E%E3%81%AE%E5%9F%BA%E6%9C%AC%E3%81%8B%E3%82%89%E4%BB%95%E4%BA%8B%E3%81%AE%E3%82%84%E3%82%8A%E6%96%B9%E3%81%BE%E3%81%A7-%E3%82%B3%E3%83%BC%E3%83%AA%E3%83%BC%E3%83%BB%E3%82%A2%E3%83%AB%E3%82%BD%E3%83%95/dp/4822292274/ref=sr_1_1?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&crid=1T6BBXYJ16G6T&keywords=%E7%8B%AC%E7%BF%92%E3%83%97%E3%83%AD%E3%82%B0%E3%83%A9%E3%83%9E%E3%83%BC&qid=1637483073&s=books&sprefix=%E7%8B%AC%E7%BF%92%2Cstripbooks%2C279&sr=1-1

なんとか読了。自信をつける。

しかし、Gitとかbashの章はさっぱり。

実は、いまだにコマンドプロンプトとパワーシェルbashの違いが分かってない。

つづいてPyQに2か月くらい登録してみる。

https://pyq.jp/

とりあえずデータ分析コースを終わらせる。

なかなかPythonが楽しくなってきたが、クラス意味が今一つ掴めないままいったん中断。

この辺で、自分統計に興味があってもプログラミングに興味がないんじゃないかということに気づく。

結局Excelへ戻り、PowerQueryとの出会って、再びPythonとRに回帰した話

なんだかんだもがきながら、PythonもRもモノにならず、日常ちょっとした計算グラフを作ったりはExcelを使い続ける日々が続く。

あるいは、Excelで成形して、検定かけやす形式にしてRで検定するとか。

Rに触れてなかったな、Rは完全に独学。「こんなことやりたいなぁ、ググってみるか、ほうなるほど」って感じ。

そんなさなか、放送大学で「Rで学ぶ確率統計」という講義があるのを知り、さっそく入学して受講。

なかなか面白かったし、PythonばっかりでRあんまり触ってなかったからいい刺激になった。

恥ずかしながら、負の二項分布やガンマ分布ってよう知らんかった。

しかし、講義は楽しかったがなにか書けるようになったかというとそんなことはなく、依然として基本はExcel

まあ、実際csvじゃなく、手書きデータとかをExcelに打ち込んだりする程度なんでPythonやRを使うまでもなかったというのもあるんだけど。

そんなとき出会ったのがこちら、パワークエリというもの

Excelパワーピボット 7つのステップデータ集計・分析を「自動化」する」

https://www.amazon.co.jp/Excel%E3%83%91%E3%83%AF%E3%83%BC%E3%83%94%E3%83%9C%E3%83%83%E3%83%88-7%E3%81%A4%E3%81%AE%E3%82%B9%E3%83%86%E3%83%83%E3%83%97%E3%81%A7%E3%83%87%E3%83%BC%E3%82%BF%E9%9B%86%E8%A8%88%E3%83%BB%E5%88%86%E6%9E%90%E3%82%92%E3%80%8C%E8%87%AA%E5%8B%95%E5%8C%96%E3%80%8D%E3%81%99%E3%82%8B%E6%9C%AC-%E9%B7%B9%E5%B0%BE-%E7%A5%A5-ebook/dp/B07SCK1ND9/ref=sr_1_2?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&keywords=%E3%83%91%E3%83%AF%E3%83%BC%E3%82%AF%E3%82%A8%E3%83%AA&qid=1637483953&s=books&sr=1-2

パワークエリを覚えたらピボット形式Excelファイルとか、セルの結合が多用されたExcelファイルを、成形加工するのが非常に楽になった。

しかも、同じフォーマットで記録されてるデータならフォルダにぶち込んで一気にまとめ上げることも可能

控えめにいって神!

としばらくパワークエリを礼賛してたのだけど、各ステップPythonのpandasやRのdplyrでも出来ることに気づく。というか最初から気づけ。

こりゃ、一気に覚えちまおう、統計というより、データの前処理だなと思ってUdemyでRの動画を買ってみた。

AIエンジニアが教えるRとtidyverseによるデータの前処理講座

https://www.udemy.com/course/r-tidyverse-preprocess/

すっかりR信者になる。

それまで教本を呼んでもdplyrの便利さが今一つわからなかったのに、パワークエリで具体的にモノを作ると、dplyrに翻訳したら、すいすい。スピード10倍。

便利さにようやく気付く。

ハドリーウィッカムって神だな。

そんで、pandasに翻訳したらどうなんだろ?と思ったらもっと速いw

すごいなPython

Rへの入信はたった数週間。再びPythonに興味。

機械学習

さて、ゼロから作るディープラーニングを再開しようと思ったけれども、そもそも機械学習をすっ飛ばし深層学習って無茶だったと反省し、まずは機械学習に。

機械学習エッセンス -実装しながら学ぶPython,数学,アルゴリズム- (Machine Learning)

https://www.amazon.co.jp/%E6%A9%9F%E6%A2%B0%E5%AD%A6%E7%BF%92%E3%81%AE%E3%82%A8%E3%83%83%E3%82%BB%E3%83%B3%E3%82%B9-%E5%AE%9F%E8%A3%85%E3%81%97%E3%81%AA%E3%81%8C%E3%82%89%E5%AD%A6%E3%81%B6Python-%E3%82%A2%E3%83%AB%E3%82%B4%E3%83%AA%E3%82%BA%E3%83%A0-Machine-Learning/dp/4797393963/ref=tmm_hrd_swatch_0?_encoding=UTF8&qid=1637485264&sr=1-1

で、この本がすごい。

5章あるんだけど、機械学習アルゴリズムは5章だけなんだなw

それまでは何に割かれてるんだって?数式の証明とか、便利な計算法、例えばニュートン法とかラグランジュ未定乗数法とかw

こんだけ引っ張っておいて、いよいよ本番の第5章もゴリゴリ数式をスクリプトに落とし込んでいってるのに、「これは学習のためでscikit-learnっての使えばたった1行」っていう無慈悲

いや、ほんと数学勉強になったし、こうやってゴリゴリやるとなんのためにクラスというもの存在するのかようやくわかった。

線形代数って便利なんだなと。行列スカラー値のように何の気なしに扱えるようになると、あの頃苦しんでいた実験計画法タグメソッド、今読み直したら別の印象があるんじゃないかなと思うようになったり。

この本を読む途中、「マンガでわかる統計学因子分析編」で学んだことが理解の助けになった。

なんたる僥倖

線形回帰、リッジ回帰SVM、PCA、k-means、クラスター分析、一気に手札が増えた。

ふたたび実験計画法

Pythonで学ぶ実験計画法入門 ベイズ最適化によるデータ解析

https://www.amazon.co.jp/%EF%BC%B0%EF%BD%99%EF%BD%94%EF%BD%88%EF%BD%8F%EF%BD%8E%E3%81%A7%E5%AD%A6%E3%81%B6%E5%AE%9F%E9%A8%93%E8%A8%88%E7%94%BB%E6%B3%95%E5%85%A5%E9%96%80-%E3%83%99%E3%82%A4%E3%82%BA%E6%9C%80%E9%81%A9%E5%8C%96%E3%81%AB%E3%82%88%E3%82%8B%E3%83%87%E3%83%BC%E3%82%BF%E8%A7%A3%E6%9E%90-%EF%BC%AB%EF%BC%B3%E6%83%85%E5%A0%B1%E7%A7%91%E5%AD%A6%E5%B0%82%E9%96%80%E6%9B%B8-%E9%87%91%E5%AD%90%E5%BC%98%E6%98%8C-ebook/dp/B09C89HZRV/ref=sr_1_1?__mk_ja_JP=%E3%82%AB%E3%82%BF%E3%82%AB%E3%83%8A&keywords=python+%E5%AE%9F%E9%A8%93%E8%A8%88%E7%94%BB&qid=1637486019&s=books&sr=1-1

実験計画法って、fisherの古典的なやつ、ラテン方格に割り付けて、ってやつかと思ったら、線形代数使えればもうなんでもありなのな。

そこにきて、ベイズ、今まで避けてたのに出会ってしまった!!

結論から言うと、超面白い。

これ、すごいな。

Python万歳

いいのかこんな便利分析個人でやれて。

機械学習実験計画法がここでつながるとか、控えめにいって最高だな。

まだ読了してないので、また後日。

2020-12-18

機械学習の5大アルゴリズムに今はSVM入るかねえ

勉強しか出てこなくない?

2020-10-03

兵庫県立大学大学院 情報科学研究科 博士前期課程2021年入学一般入試

兵庫県立大学大学院 情報科学研究科 2021年入学一般入試 受験

2021年度開設であるので、今年度は全く情報なし。

この冬に予定されている院試受験者と、来年度以降の受験者のために内容をメモしておく。

前提として私の背景は下記となる

入試

研究科のページから教員一覧に目を通して、やりたい研究に近い研究室で学生ウェルカム感のあるウェブページもつ先生に連絡した。

そのあとオープンキャンパスに出席し、そこでの座談会で事前に連絡させてもらった先生と話したが、どうも研究テーマ研究室とミスマッチ感がでていたので、その先生に他の先生を紹介してもらった。最終的には、紹介してもらった先生第一希望受験申し込みをおこなった。

研究計画書

つの項目について2ページ以内で書かないといけない。

いわゆる"研究計画書"・"論文"みたいな仰々しいフォーマットではなく、見出しフォント大きく、太字にして、必要なところはリスト形式にして、と、口頭試問前提の読みやすさ重視のフォーマットにした。

例えるならGitHubのREADMEのようなフォーマットで書いた。といっても下記については一般的なレポート記法に従った

志望動機

半ページ強を使った。内容としてはざっくり下記の3点を記載した。

現在もしくはこれまでに専門的に取り組んだ研究(例えば卒業研究)等の概要

半ページ弱使った。卒業研究はどうも書きづらかったので、幸い長いこと取り組んでいるプロジェクト研究ではない)があり、そのプロジェクトについて、研究ぽいとこだけ抽出して概略を書いた。

博士前期課程修了後に希望する進路

2行程度書いた。博士後期課程行きたいけど、そのとき金銭事情にもよるから未定ということを書いた。

入学後に取り組みたい研究について

2枚目丸々1ページを使った。

構成研究テーマ名・背景・方法・成果

背景・方法・成果で1/4ずつ、加えて残りの1/4に研究テーマの概略図(パワポ1枚みたいな)を載せた。

下手なこと書いて口頭試問で痛い目に合わないことを意識して、とにかく専門用語・具体的なアルゴリズム名は避けるようにした。

統計機械学習なら、平均・分散までしか使わない。SVMディープラーニングなんて言葉は避ける。可能な限り高校生でも知っていそうな言葉だけ使うようにした。そうすると参考文献を書く必要もなくなり全体的にスッキリした体裁になった。といいつつ専門用語まったくないのも薄っぺらい気がしたので、確実に解説できる1語だけを記載して、その1語には参考文献の番号振って、ページ末端に小さいフォントで参考文献を記載した。

あと、提案手法評価方法だけはすごい意識した。このあたりは"研究計画書の書き方"で、グーグル検索してもらったほうが詳しい。

小論文

会場は大きめのホール受験生は30名ほど。多くの受験生はスーツだったが、Tシャツジーンズ受験生もいた。試験当日の座席配置と合格発表の番号を見るに私服受験生も受かっていた。

問題は2問でた。

必答1問 A4 1枚

"研究科で何を学んで何に活かすか"みたいなテーマだった。私は具体的な志望業界があるので、データ分析に関する研究をして、その業界研究職でこういう仕事がしたいということを書いた。

選択1問 A4 1枚

テーマから選ぶ

  1. あなた企業データ分析業務の立ち上げをすることになった、社内で人を集めるか or 外注するか どちらか選びその理由を書け
  2. データ収集-データ処理-アルゴリズム-可視化を通じて、社会課題をどう解決するか。
  3. 生体情報が普及した場合医療現場はどう変わるか
  4. 企業情報漏えいをなくすためにはどうするべきか

私は2を選んだ。具体的なシチュエーションを想定したうえで、下記のような観点で、ストーリーを作った。AIビジネス/ビッグデータビジネスの事例の本で読んだことを項目にあてはめて回答した。

口頭試問

待合室として教室に移動させられる。1人30分で、口頭試問は3会場あって1人ずつ呼ばれる。試験時間は当日に案内があった。一番遅い人は4時間待ちだと思う。待合室は比較的出入り自由。待合室にスタッフがいるわけでもない。自分試験時間に待合室にいればよいと案内あったが、途中、試験時間時間変更があった。受験生は各々スマホいじったり、トイレにたったり、おそらく外出もしていた。すごい暇なのでスマホの充電は十分にしていったほうがいいと思う。

試験会場は少し狭めの教室希望をだした先生+3~4名の先生方が長机に並んでいて、その前にパイプ椅子がおかれているような形式先生方はおそらくコース混合だったと思う。

希望先生から研究計画書に書いた統計用語から発展した内容の用語について説明できるかという質問があり、教室の黒板を使って説明した。たまたま口頭試問対策でヤマはってた質問だったが、対策していなければ答えられない用語だった。必修講義統計基礎レベルではでてこない用語で、統計応用レベル教科書でこんなこと書いてたなという内容を説明した。といっても決して"専門書"レベル範囲ではないので、私が勉強不足なだけかもしれない。分からないことは分からないで通して、しどろもどろになりつつ自己採点100点満点中40点ぐらいの説明になった

そのあと他の先生方も含めて、いろいろ質問を浴びせられた、なぜこの研究科を選んだのかとか、なぜこのテーマをやるのか、どうやるのかとか面接に近い感じ、研究計画書に書いた、これまでの研究希望進路についてはとくに聞かれなかった。終始、なごやかな雰囲気ではあった。

こんな雑多なメモだが、役に立つと嬉しい。

2020-08-25

いずれ雪かきをする私へ

お前は浅学非才無能怠惰であるが、親の教育の賜物で国立大学に入れた。

しかデータサイエンティストになりたいなどと夢を見たせいでお前のスキルボロボロである。まず、お前の学部で学ぶ、経済学であるが、経済学マクロ経済学ミクロ経済学テスト問題を解けるようにしただけで本質は掴めず、データサイエンスに少しでも近づこうと取った計量経済学講義コーディングテストは余裕でクリアしたが、面接理論を答えられず落単した。

プログラミング学部のまわりのやつらよりは多少できたが、それでも1番ではなく、当然外の世界を見れば、底辺もいいところである

数学離散数学はなにもわからず、落単した。

肝心の機械学習についてであるが、情報学部のパターン認識講義をとったものの、ただコードが動くように書き、手書き数字識別できるようになっただけで、SVM理論的背景もNNがなんたるかということも理解きぬまま、C評価単位がきたのみである

かといって努力せず、まわりの人と交流することもなければ、無理やり実績を作ってインターンに行くようなこともしなかった。

よくて数行のコードGoogle Analyticsを使う程度の仕事しかできないお前はそうして雪かきをして一生を終えるだろう

2019-04-27

anond:20190427231513

じゃあ例えばSVMでどうやってそいつ自身より性能いいアルゴリズム作るんだよ

結局人間が重み付け職人するだけだろそれ

2018-07-16

anond:20180714173946

AIだろ。ばかかよ。

クソアルゴリズムでも、SVMでも、NNでも、DNNでもAIに決まってんだろ。

2017-11-06

ではどうやって"AI人材"を選考すればよいのか

AI人材採用局所的に話題になっている。

http://aiweeklynews.com/archives/49678692.html

Excelはがっつり使える

Pythonのnumpyやpandasでデータの処理ができる

SVMや重回帰分析普通に使える(数式も少しは分かる)

Chainerを触っている (pipでインストールのみでもOK

これくらいできると、AI人材の平均レベル(と相手に思って貰える)なので採用見込みはかなりあると思います

例えばですが、python自分パソコン環境構築して、「Hello,world!」と表示できるようになったら、面接に申し込んで、「少しはpythonできます」と言ってみるのも一つの方法かもしれません。

実際に見分け方がわからなくてこれに引っかかって採用してしま場合もあるんだろうな、とも思う。

自分がこの手の人材エンジニア)を採用する場合にどうやって質問をすれば見極められるのかエンジニア採用にも関わっている身としてを考えてみた。

AI人材という呼称自体がぞわぞわするけど、一旦そこは我慢する。

取りたいロールをはっきり認識/確認する

まず採用を行う前に、AI人材を取って何をしてもらいたいのかをチームないし採用意思決定者としっかり確認する。

エンジニア系のAI仕事と大雑把に言っても

1.画像/映像認識技術活用したい

2.大量のデータ対象として分析予測を行いたい

3.上記大量のデータを貯めたり一括処理したりするための基盤システムを作りたい

など、あとは案件ベースなのか自社開発なのかそれぞれ必要となる能力オーバーラップしつつも異なっているため。

(以下、今回の目的が1や2だったと仮定する。)

バックグラウンド確認

あなた機械学習の関わりを教えてください

機械学習経験のある分野 / 得意な分野 / やってきたことを教えてください(実務でなくてもok

バックグラウンド確認する。実務や研究経験の話が出てくるのがメジャーだと思うが、エンジニアとしてのバックグラウンドがあれば独学勢でも野良kagglerなどレベルの高い人はいるので実務経験に絞らなくても良いと思う

全般知識確認

機械学習全般基本的なところから確認していく。質問としてはこんな感じだと思う

教師あり学習教師なし学習の違いを説明してください

・分類問題回帰問題の違いについて説明してください

過学習ってなんでしょうか

イメージとしては非エンジニア職でも必要になる「この辺りの言葉が通じないと絶対困ったことになる」一般常識確認する感じ。

ディープラーニングについて

画像映像認識などディープラーニング系の業務が多い想定の場合

普段使うディープラーニングライブラリは何ですか

から始まって

あなたの組んだモデルについて教えてください

・どうやって訓練したのですか?

・どうしてそのような構成にしたのですか?

と突っ込んでいく。

きちんと自分で考えて組めているか確認するのがメイン。

ディープラーニング以外の機械学習について

・フィッシャー情報量から何が分かるか

・共役事前分布についてどのように用いるもの

MCMC法で事後確率の近似を取る時に気をつけることを教えてください

確認したいことはディープラーニングしか」できない人かではないかという点。

ある程度統計ベイズ法周りの知識が無いと詰むため。逆にディープラーニング不要業務ならこっち一本でも可。

手法の詳細・原理説明

・この問題最尤推定をしてみてください(簡単文章題

・勾配降下法について説明してください

・畳み込みニューラルネットワークについて仕組みを説明してください

盲目的にライブラリを使ってるだけでないかという点を確認したい。

SVM入力適用するだけならsklearnで5行書くだけで誰でも出来る。手法の背景や対象データ特性をきちんと考えて使っているかを見たい。

・kaggleのコンペに参加したことはあるか

・あればその時の課題手法をできるだけ詳しく

メダルの取得状況

kaggleに参加した経験があればnoteからその人の手付きを直接評価できるし、メダルという他メンバから客観的評価できる定量指標もある。

その他

学習意欲とか普段姿勢確認したい。もしかするとここが一番重要かも。

・分からない項目をはっきり分からないと言えるか

普段何を参考に勉強しているか / 論文を読む習慣があるか(最近読んだ論文があれば教えてください)

・今興味のあること

こういう観点必要、とか○○なんてもう古いよ、みたいなツッコミどころ満載だと思うのでコメント/トラバで突っ込んで欲しい

2016-05-27

自慢気にDeep Learning使ってるやつは大体クソ

色んなライブラリが出てるからDeep Learningを使うこと自体全然難しくない。

おかげで暇人Deep Learningをちょっと試してみたみたいな記事がよくホッテントリに上がってくる。ブクマをつけてるやつらは大抵、自分で試してみる気力とか能力のない残念な人たち。

ところが、記事の内容を見てみるとマジで単に使ってみてるだけなんだよな。なんでDeep Learningを使わなきゃいけないのかさえ考えてない思考停止ほとんどの場合は、昔からある3層のニューラルネットとかSVMで十分な性能が出る問題になんとなくDeep Learningを当てはめているだけ。

あのな、Deep Learningみたいに膨大なパラメータを持ってる学習モデル簡単過学習を起こすから素人が下手に扱うとむしろ精度が落ちるもんだ。そこそこ難しいタスクに対して上手く学習するには、とんでもない量の訓練データ必要になる。しかも、Deep Learningは手動で設定する必要があるハイパーパラメータの数も膨大で、学習率とかノード数、正則化パラメータみたいなやつらを地道に調整しなけりゃいけない。はっきり言ってめちゃくちゃ泥臭い作業だ。

なんでGoogleとかがDeep Learningで成功しているか、少しでも考えたことあるか?あいつらは過学習なんて関係なくなるほど、無茶苦茶たくさんのデータを手元に溜め込んでるんだ。しかも、ハイパーパラメータ設定の勘所を掴んでる職人みたいな技術者を金の力でどんどん集めている。

Deep Learningは理論的な下支えがほとんどなくて、勘と経験則で成り立ってる世界だ。数年前の定説簡単にひっくり返ることが多いし、正直なところあれは研究と呼べるものではないと思う。「なぜかは知らんがやってみたらうまくいった」みたいな事実が羅列されてるだけ。思いついた手法が上手くいくかが運任せという意味では、ガチャを引いてるのとだいたい同じ。無課金勢がいくら知恵を絞っても廃課金勢には勝てない世界

というわけで、お前らがぽっと出のアイディアDeep Learning使ったところでゴミみたいなアプリが出来るだけだからやめとけ。

そんな時間があったら、ちゃんとした機械学習の本読んどけ。PRMLとか。

数学が難しい?じゃあ、線型代数確率論勉強をやり直せ。そいつらは機械学習が廃れても役に立つからさ。

2015-08-19

大学院入試面接試験でよく出るテンプレ質問

そろそろ大学院入試シーズンなので,聞かれそうな質問をまとめてみた.

質問は大きく分けて2種類ある.コンテキストに強く依存した質問と,テンプレ質問だ.

このうち,後者は仮に試験官が一切話を聞いていなかったとしてもできる質問だ.時間を掛ければ対策はできる.

よっぽど試験官の頭が良くない限りはテンプレ質問ばかり来るから

テンプレ質問の準備をしておけば院試は恐れることはない.試験範囲が決まった筆記試験のようなものだ.

また,コンテキスト依存質問も発表内容のみからできる質問と,そうではない質問に分けることができる.

コンテキスト(発表内容)依存

発表に対して,論理的に行われる質問

『「手法にはナイーブベイズ法,決定木,SVMがあり,そのうちSVM採用する」

とおっしゃっていましたが,なぜ他の手法採用しなかったのですか?』

といった質問基本的院試は発表時間が短く,

穴のない発表をすることは難しいので(試験官がちゃんと話を聞いていれば)

この手の類いの質問はよく来る.

対策

論理的に行われる質問は,論理を押さえておけば容易に対策できる.

まり

あたりを押さえておけばいい.

例に挙げた質問に対しては,他の手法採用しない理由SVM採用する積極的理由

きちんと答えられればOKだ.

コンテキスト研究領域依存

これは試験官がその領域に対する知識を持っていて,かつ突っ込みどころがあるときに来る質問だ.

質問の種類としては一番対策が困難だが,これを綺麗に返すことができれば評価うなぎ登り

例えば,『「機械学習SVMを利用する」とおっしゃいましたが,

ニューラルネットワークなど別の手法はご検討されなかったのでしょうか』

といった質問だ.もちろん検討しているけれど時間の都合上紹介しなかったという

雰囲気を出しつつ,隠しスライドでも出しながら説明すれば良い.

対策

この質問に関しては,ひたすら基礎勉強サーベイをして知識を身に付けるしかない.

時間がないのであれば不勉強を悔いつつ,このような質問が来ないように誘導しよう.

テンプレ質問

これらの質問は発表とは一切関係なく,

研究」というもののものに対してよくされる質問だ.

あなたの発表がわかりやすく,かつ試験官の頭がいい場合

こういう質問だらけになることはまずないが,現実はそうではない.


逆に言えば,誰もが思いつくようなこのような質問

うまく答えられない場合評価はかなり低くなってしまうだろう.


あなた研究新規性は何ですか?」
あなた研究有用性は何ですか?」

テンプレ質問筆頭.このような質問が来るということは

プレゼンでは何も伝わらなかったということなのだけれど,

いつでも明確な回答ができるように準備しよう.

あなたが属する**という分野に,あなた研究が貢献することは何ですか?」
あなた研究によって,誰が喜ぶのでしょうか?」

上記新規性有用性の変形だが,こちらの方がやや難しいことがある.

志望研究科が学際的な場合特に前者の質問にはかなり困るけれど,

何となくそれっぽいことを答えよう.

「背景/目的/手法/評価方法がよくわかりませんでした」

時間が短い場合,これらを全て押さえた十分な発表を行うことは難しい.

ただし,これらについてはいつ聞かれてもいいように,

発表には使わなくてもスライドは用意しよう.

「どのようにこの研究評価するのですか?」

そもそも評価が難しい研究だとこの質問結構厳しい.

修士院試であればどうせ研究は終わっていないのだから,絵空事を答えればいい.

「この研究で一番難しいところは何ですか?」
「いくつかの手法を試していますが,どれが一番効いているのですか?」

このような質問をする人は大抵何もわかっていないので,何を答えても納得してくれる.

「先行研究は何ですか?」
「先行研究に対し,あなた研究が優位な点は何ですか?」

読んで無くてもタイトルを5本くらいは挙げて,

うち2本くらいはアブストくらい読んで適当に答えれば完璧だ.

「先行研究がない」なんてことはないというのが常識なので,

背景だけ,あるいは手法だけでも似ている研究を見つけてきて

それらしい説明をしよう.


院試なんてもの通過儀礼なので適当に流せばいいと思うけれど,

これらの質問学会その他にも応用できるので日頃から考えておくと良い.


また加減が難しいところではあるけれど,例えば先行研究を一切説明しないなどのように

あえて穴を作っておいて質問をそこに誘導するという手法もある.

うまい返しができたことでのプラス評価が,

明かな穴がある発表をしたことのマイナス評価を上回る場合有効だ.

学位審査院試といった場においては狙ってもいいかもしれないが,

学会などにおいては検討していなかったことに対して質問が来ることの方が

はるか大事なのですべきではない.

2015-01-09

http://anond.hatelabo.jp/20150109194001

SVMかじった程度で何が分かるんだwwwwwwwwwwwwwwwwww

2014-11-28

Ringについて2

相変わらずコメント欄は荒れていますね。

https://www.kickstarter.com/projects/1761670738/ring-shortcut-everything/comments

下記URL日記で指摘したとおり、まともなものは出てこなかったようですね。

http://anond.hatelabo.jp/20140611123426

ただ、バッテリー問題認識率の問題はある程度解決したようです。

バッテリー

筐体を大きくすることで何とかしたようですね。

逆転の発想のブレークスルーです。かっこいいリングという前提条件を覆すという。

台無しですね。

認識

登録できるジェスチャーを5つに絞ることでごまかしているようですね。

認識パターンスマートフォン側に保存されるはずなので、メモリ云々ではないでしょう。

単に認識対象が増えると認識率が下がる。

5つならランダムで出しても5回に1回はあたるが、10個なら10回に1回になる。

ということでしょう。多少の情報があれば確率は、まあ、50%くらいにはなるんでしょう。

チュートリアルなんか認識対象が絞られてるから簡単だし、もしかしたら何をやっても認識するかもね。

あと、おそらく認識対象が増えると識別時間かかりそうですね。

どうせ単純なSVMかなんかでしょう。

というわけで、台無しですね。

一方でスタッフメディア等に露出し続けているようです。

今後の活躍が楽しみですね!

2014-04-09

http://anond.hatelabo.jp/20140409010816

から数値計算が得意とか適当こいてんじゃねーよ。

金融で使われてるのはデリバティブの合成が記述やすからだろうが。

数値計算が得意とか言うならゲーム機でも動く高速・高効率GIレンダラとか流体シミュレータとかの実用的な実装が可能になってから言えカス

1000万枚の学習データハンドリングするSVMとか最近流行りのCNNとか実装できんの?Haskellで。

2009-09-08

http://anond.hatelabo.jp/20090908192852

用語並べるのはいいけど、勉強したことあるの?

ニューラルネットだろうがSVMだろうがなんだろうが(ていうかそこに並列にボルツマンマシンとかどう考えても枯れてる話を持ってくるセンスがよくわからん)、ノード数増やしたところで人間の思考に近いものすら作れないのはほとんど自明だろ。

人間仕事を肩代わりできるだけの複雑さを持っていればいいんだ。あとはどうやって学習させるかの問題。

その「どうやって学習させるか」が大問題なんだっての。

無論ネットワークを構築するだけでは学習できないので外界を知覚するセンサーを与えたりしなければならない。人間と同じようなセンサーを与え、人間と同じような環境学習させなければ人間と同じような知能にはならない。

簡単に言ってくれちゃってるけど、そのセンサーとやらはどうやって実現するわけ?

でその学習した記憶はどうやって人間並みの効率性でストックするつもりなの?

 
ログイン ユーザー登録
ようこそ ゲスト さん