曲を作ってみた。

ライブに来ていただいた皆さん、ありがとうございました。
内々のものでしたが、結構評判がよろしかったようで、いろいろありましたが、一同、やっぱりやってよかった、と胸をなでおろしてるところです。

今回は結構、新作オリジナルの曲がありまして、不肖わたくしめも一曲作ってバンドのメンバーに演奏してもらいました。

バンドメンバーに聴いてもらったデモです。
ライブ本番の動画でなくてすいません。いろいろ大人の事情で...
これだったら自前のものなので大人の事情クリアです。

本番では、まいちゃん、づんちゃんに歌ってもらいつつ、ベーストラックに合わせて20弦箏(づんちゃん)、サックス(剛くん)、ドラム(大ちゃん)を演奏してもらいました。おおいに盛り上がりました。ありがとうございました。

こういうの、どうやって作るの?と聞かれたので簡単に。

DAWを使う

僕の場合は、いつも効果音を作ったり、録音したりに使っているTracktion4を使います。
でもTracktionには楽器がついてないので自分でいれる必要があります。
フリーのものをダウンロードしてきてとか。
今回は
Tracktion3についていたドラムマシンRM4と
エレクトロなかっこいい音がお手軽に出てくるdigits、
サウンドフォントが使えるsforzando
を主に使いました。

でも、最初はお手軽にGarageBandとかでいいと思います。
楽器も揃ってるし。始めるまでの手間も、始めてからの手間も少ない。

なんでもいい。使いやすいと思った物で。
最初、ダンスっぽいからLiveかな、と思ってLiveで作り始めたんだけど、だめでした。
合わなかった。すぐに止めました。

特に楽器が弾けるわけではないので、音符を一つずつ打ち込んでいくパターンです。
弾けたらまた違うんでしょうが、こういう曲の場合、特に不具合は感じません。

MuseScoreを使う

楽譜をメンバーに渡すためと、Sinsyに歌ってもらうためにMuseScoreで楽譜を書きました。
TracktionからMIDIでエクスポートして読み込ませたり、コピペしたりが可能です。
(ただし、Tracktionからのエクスポートが癖があって(バグ?仕様?)bpm120に直して、かつ、先頭に何でもいいのでダミーで音符をいれておかないと正しく出力されませんでした。)

Sinsyを使う

Sinsyで歌のデータを渡して歌ってもらいました。
ちなみにYokoさんは唱歌、Xiang-Lingさんはポップス向きだと思います。
歌ってもらった物を曲に貼ります。

ここでラフミックスを作って楽譜を見ながら演奏してもらいました。
ここで生楽器と合わせるのにコンサートピッチ442Hzにする必要がでてきました。
これができるのは楽器ではsforzandoだけなので、Tracktionでの作業は諦めて、MIDIデータをLogicExpressに移行しました。

Logicを使う

Logic内蔵の楽器はマスターピッチ、音律を調整する機能があります。今回はそれを使うことにしました。
似たような音の楽器を捜して曲を構成し直します。
sforzandoはそのまま移行してピッチを上げます。

MIDIからAudioにする

いい感じになったらトラックごとにオーディオにします。
いいように思えても、楽器によって発音のタイミングはバラバラ。
一般的には低音楽器は遅く、高音楽器は早い。
それを目で見て合わせられるように一旦オーディオに書き出すのです。

ミックスダウンしてデモが出来上がります。
練習用のマイナスワンのカラオケと本番用のクリックトラックも作りました。

番外編
Sonic Visualiserを使う

かっこいいメロディーとかコード進行とか、あの曲のあそこ、いったいどうなってるんだろう?と思うことがありませんか?
絶対音感とかない僕はSonic Visualiserを使います。
特によく使うのがLayer>Add Melodic Range Spectrogram。
音が目で見えるようになります。便利。

iMovieを使う

ニコ動とかyoutubeにアップするのに使います。といっても画像と音楽を読み込んで歌詞を入れただけですが。
サイトによっていろんな制限があるので、それにあわせないといけないところが面倒です。

コメント