小池氏「厚化粧」は顔にアザがあるからと説明 石原氏には「女心が…」 拡大 都知事選に立候補している小池百合子氏が28日、フジテレビ系「直撃LIVE グッディ!」に生出演し、石原慎太郎氏が増田寛也氏の応援演説で「年増の厚化粧」などとコメントしたことに、「私は顔にアザがあるので、医療用のものを使っている。そういったことをご存じないのでは」と、余裕の笑みで切り返した。 番組では、MCの安藤優子から「(石原発言は)相当頭来たんじゃないですか?」と切り込まれると「日本の男性であのぐらいの方、直接そういうことおっしゃいません?私も、また言ってらぁ、という感じで。安藤さんも経験あるんじゃありませんか?」とコメント。 安藤も「あります、あります」とうなずくと、「今日はSPF50のUVカットを使っていて、ちょっと厚いですけど」とジョーク混じりに前置きした上で「私は顔にアザがありまして、それをカバーするために
「厚化粧の人に都知事になって欲しくない」 鳥越氏に寂聴氏からメッセージ 拡大 東京都知事選に立候補しているジャーナリストの鳥越俊太郎氏(76)が28日、三軒茶屋駅前で街頭演説を行い、駆けつけた作家の澤地久枝氏(85)が、京都在住の作家で僧侶の瀬戸内寂聴氏(94)から預かったメッセージを読み上げた。 澤地氏は「寂聴さんは『あの厚化粧の人に都知事になんかなって欲しくない。自民党公認の人、公認を受けていない女の人は絶対に反対』と言った」と代読。ライバルの小池氏、増田氏にNOを突きつける内容に聴衆から歓声が上がっていた。 演説に先立ち鳥越氏は、フジ系「直撃LIVE グッデイ!」に出演。週刊新潮が報じた女性疑惑について質問され、「この話は誰かがこういうことがあったと言っている話で打ち消しようがない」などと語った。この日、鳥越氏の弁護団は記事は事実無根として、名誉毀損(きそん)と公選法違反の疑いで東京
1. Nakayama Lab. Machine Perception Group The University of Tokyo 東京大学 大学院情報理工学系研究科 創造情報学専攻 中山研究室 中山 英樹 2. Nakayama Lab. Machine Perception Group The University of Tokyo 1.Deep learning(深層学習)とは? 2.一般画像認識:Deep learning 以前と以後で何が変わったか ◦ Bag-of-visual-words (VLAD, Fisher Vector) ◦ Convolutional neural network (ConvNets) 3.Deep learningの数理 ◦ なぜ優れた性能が実現できるのか? ◦ ブレークスルーを生んだ各要素技術 ◦ 中山研究室での研究紹介 4.実
典型的な4歳児は、2時間に1回嘘をつく。 このようなことがいくつかの研究でわかっています。さらに、6歳児は嘘をつくことがもっと多いと言われれいるそうです(つまり、1時間に1回も!)。 子育て中のみなさん。そんなわが子にどう対応していますか?子どもとの信頼関係をうまく築くためには、どうしたらいいのでしょう? 実はこれ、9歳の娘を持つ私が、今まさに直面しているジレンマなのです。 娘との絆は深い、と私は個人的に思っています。 たとえば娘は、準備しておいたおやつを食べなかったり、図書館の本を家に忘れたりといった悪いことをやらかしても、私にはオープンに話してくれます。つまり、私たちの関係は、娘にとって決して不愉快なものではないはずです。それなのに彼女は、ときどきしらじらしい嘘をつくのです。 そんなときの娘は、意地でも嘘を認めようとしません。やがて2人ともイライラし、どうにもならない膠着状態に陥るのが
1. Nakayama Lab. Machine Perception Group The University of Tokyo 東京大学 大学院情報理工学系研究科 創造情報学専攻 中山研究室 中山 英樹 2. Nakayama Lab. Machine Perception Group The University of Tokyo 1.Deep learning(深層学習)とは? 2.一般画像認識:Deep learning 以前と以後で何が変わったか ◦ Bag-of-visual-words (VLAD, Fisher Vector) ◦ Convolutional neural network (ConvNets) 3.Deep learningの数理 ◦ なぜ優れた性能が実現できるのか? ◦ ブレークスルーを生んだ各要素技術 ◦ 中山研究室での研究紹介 4.実
トップページ→研究分野と周辺→ニューラルネットワーク→ 誤差逆伝播法(BP:バック・プロパゲーション)は1986年、米スタンフォード大学のラメルハート教授らが発表した多層階層型ニューラルネットワークの学習方法。入力層へ或る情報が与えられたら、出力層はそれに対応した或る情報を出力しなければならない場合の学習方法となる。 最初は入力層→中間層→出力層への結合係数はランダムに与えられるので、或る入力情報に対し、出力層はそれに対応した出力をするとは限らない。望ましい出力との誤差を教師信号として与える事により、次第に結合係数を変化させ、最終的に正しい出力が得られるようにする。ここでは、結合係数を変えて行く事を学習と呼ぶ。 この学習方法には、最急降下法(勾配法)という計算方法が使われる。 最急降下法(勾配法) 図の2次関数でyの極小値を与えるxが2である事は、計算で求められる。しかし、ここでは敢えて別
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く