最近(というほど最近でもないが)、"Lo-fi Hip Hop(ローファイ・ヒップホップ)”・"Lo-fi beats(ローファイ・ビーツ)"なる音楽ジャンルがストリーミングサービスやSNSを中心に話題となっており、日本での認知度も特に若者の中で高くなってきた。 はっきり言うが、私はこの手のジャンルが嫌いである。ただ音楽それ自体は耳馴染みもよく、なんだかんだ聴いていると「これは良いなあ」となる。では私のこの何とも言えない嫌悪感は何なのか。その正体を言語化していく。 音楽性より、カルチャー自体 Lo-fi Hip Hopのここが嫌い、というところ3点を以下にまとめた。 これを見てわかるのは、すべてが「音楽に付随するカルチャーイメージ」への嫌悪感だということだ。ハードロックは好きだがそのプロモーションからギチギチの商業主義を感じて嫌悪する、そんな80年代のロックキッズ達と似たようなものかもしれ
ロスレスとMP3ってどのくらい差があるんだ? 専門家に聞いてみた2024.04.12 19:0088,501 Maxwell Zeff - Gizmodo US [原文] ( そうこ ) 「音楽聴くなら絶対ロスレス音源がいいよ? MP3より音がいいから」なんて、一度は聞いたことがあるようなセリフです。 データ容量をギュっと縮めた圧縮音源であるMP3。データ圧縮時の劣化を最小限に留めた、または圧縮していないロスレス音源。 なるべくロスがない方がサウンドクオリティがいいのは事実です。ロスレスがアーティストが意図する生の音に近いのも事実です。…事実なのですが、やっぱり言わずにはいられません。 その音、聴き分けられるの? 圧縮音源とロスレスの差って、フツーの人が聴いてもわかるのかい? 少々古い話で恐縮ですが、2014年に米Gizmodoが読者アンケートをとっていました。質問は「ロスレス音源とMP3
レコーディング、ミキシング、マスタリング、歌ってみたや演奏してみたなどなにかしらの形で音楽制作やDTMに携わったことがある人なら必ず一度は耳にしたことがあるソニーのロングセラーモニターヘッドホン「MDR-CD900ST」。 「業界標準」だとか「プロがみんな使ってる」とかそんな評判を聞いて試してみたら「あれ、こんなもん……?」と思った方も多くいると思います(笑)そんな900STについて、個人的に思っていることを以下にまとめました。 元々はソニーのスタジオだけで使われていた今ではサウンドハウスをはじめ、いろんなお店で普通に買うことができますが元々はソニーのスタジオで使うヘッドホンとして開発され、ソニーのスタジオ以外では手に入ることもできなかったそうです。 その後、1989年(平成元年!)に法人向け販売が始まり、1995年に家庭向け販売もスタートしたそうです。 ほんとに業界標準で、プロもみんな使
市がJRゲートタワー15階に設置したストリートピアノ。苦情が相次ぎ、現在は利用休止となっている=名駅で 市が、名駅のJRゲートタワー十五階に設置した「ストリートピアノ」が三月末から利用休止となっている。誰でも自由に演奏できるグランドピアノで、気軽に音楽に触れてもらう狙いだったが、近くの店舗の客から「演奏がうるさい」などの苦情があったためという。一部の人が大音量で演奏したことが原因で、設置から一年足らずで市が対応を迫られた。 (細川暁子) 文化的なにぎわいづくりとして近年、駅や街中にピアノを設置する取り組みは各地でさかんになった。人気のポップス曲をアレンジした演奏や、聴衆が集まる様子を映した動画が多数、ユーチューブなどに投稿され、演奏待ちの列ができる場所もある。...
はじめに 耳コピがしたい! でも 絶対音感なんてない! そんなあなたに... Googleさんがピアノ演奏の音源(.wav)をMIDIファイル(.mid)に変換してくれるツールを用意してくれています。実際に使ってみて精度の高さに驚いたので紹介します。 Magentaって? 作曲、音楽の解析、音楽制作の支援などを目的とした、Googleの機械学習プロジェクト Onsets and Frames モデル Magentaには複数のモデルが含まれている。 その中でもピアノ演奏の音源を解析し、MIDIに変換するモデル。 環境 MagentaのOnsets and Frames モデルはローカルで動かす他、Web版、Colab版が用意されています。以下にリンクを貼っておきます。 Web版 Colab版 自分の環境ではWeb版、Colab版が上手くいかなかったのでローカルで試すことにしました。 Micr
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米マサチューセッツ工科大学(MIT)とMIT-IBM Watson AI Labの研究チームが開発した「Music Gesture for Visual Sound Separation」は、楽器を演奏する複数人の動きを深層学習で分析し、個々の楽器の音を分離する手法だ。ピアノ、フルート、トランペットなどの楽器を複数人で同時演奏した場合に、その映像から演奏者それぞれのメロディーを抜き出す。 映像解析ネットワークと視覚音声分離ネットワークの2つからなる「自己教師あり学習」を採用。映像解析ネットワークでは、人体のキーポイント18点、手のキーポイント21点を抽出。次に身体の動きと前後関係を統合し、
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く