フェスに出演しました 3

イメージ
アイヌ文化フェスティバル2021に出演しました。 備忘録として。 前日仕込み とはいっても音響は自前の機材をほとんど使わないので、使いそうなモノ(ワイヤレス関連と卓まわり特にPC、インターフェイス関連)だけよりわけて荷揚げです。 スピーカー、卓、PCCなど場所を指定して置いてもらいました。 奥のモニター。いつもの場所にスタンドで立ててもらいました。 メイン&前モニター。 前モニターは場所が厳しくてこの位置に。同軸なので軸外の音の変化がすくないのが良い。 メインはラインアレーなんで、客席では明瞭度が高い。舞台上では、低音の回り込みは少なく客席からの跳ね返りは大きく感じられる。 卓廻り。手前がCL3。奥がCL5。 手元全貌。 PCはいつも通りの右側に戻しました。台本は箱馬を重ねた上にのっています。 緑のトレーは3Dプリンターで作ったもの。RIVAGEに合わせて作ったので、CLには収まりが悪く、ちょっと斜めになっています。 写ってませんがヘッドホンは自前のを引っ張り出してきました。 TBマイクは借りた58です。 案の定、照明、映像に時間がかかり、隙間で音出しして、あとはレイヤーやユーザーデファインドキーの設定に時間を費しました。 カスタムレイヤーの設定 CLのいやらしいところはMIX/MTXのレイヤーがインプットの側のブロックに出せないところ。 こんな風にNanoPadをCentraLogic上に置いちゃうと、MIXにアクセスしにくくなってしまう。 最初はNanoPadをどけながらいじっていたんだけど、かなり面倒。 カスタムレイヤーがみっつ設定できるので、A2に出力用のカスタムを設定したらとたんに便利になりました。LS9的な使い勝手が復活です。 ユーザーデファインドキーの設定 これはLS9にも設定してるんだけど、comp1/EQ/Home画面のbookmark、TB On/Off、TB画面を呼びだせるようにしておくと便利です。 何だか調子が悪い?..本番中に止まる 他団体のリハがお先で進んでいくんだけど、何だか調子が悪い感じ?繋がらないチャンネルがあったり、出音が変だったり… 曰くDanteを目一杯使っていて、かつDanteとMADI変換してるところがあって上手くいってないのではないか、あとCL5自体もおかしい、とのこと。まぢか。困る

曲を作ってみた。

ライブに来ていただいた皆さん、ありがとうございました。
内々のものでしたが、結構評判がよろしかったようで、いろいろありましたが、一同、やっぱりやってよかった、と胸をなでおろしてるところです。

今回は結構、新作オリジナルの曲がありまして、不肖わたくしめも一曲作ってバンドのメンバーに演奏してもらいました。

バンドメンバーに聴いてもらったデモです。
ライブ本番の動画でなくてすいません。いろいろ大人の事情で...
これだったら自前のものなので大人の事情クリアです。

本番では、まいちゃん、づんちゃんに歌ってもらいつつ、ベーストラックに合わせて20弦箏(づんちゃん)、サックス(剛くん)、ドラム(大ちゃん)を演奏してもらいました。おおいに盛り上がりました。ありがとうございました。

こういうの、どうやって作るの?と聞かれたので簡単に。

DAWを使う

僕の場合は、いつも効果音を作ったり、録音したりに使っているTracktion4を使います。
でもTracktionには楽器がついてないので自分でいれる必要があります。
フリーのものをダウンロードしてきてとか。
今回は
Tracktion3についていたドラムマシンRM4と
エレクトロなかっこいい音がお手軽に出てくるdigits、
サウンドフォントが使えるsforzando
を主に使いました。

でも、最初はお手軽にGarageBandとかでいいと思います。
楽器も揃ってるし。始めるまでの手間も、始めてからの手間も少ない。

なんでもいい。使いやすいと思った物で。
最初、ダンスっぽいからLiveかな、と思ってLiveで作り始めたんだけど、だめでした。
合わなかった。すぐに止めました。

特に楽器が弾けるわけではないので、音符を一つずつ打ち込んでいくパターンです。
弾けたらまた違うんでしょうが、こういう曲の場合、特に不具合は感じません。

MuseScoreを使う

楽譜をメンバーに渡すためと、Sinsyに歌ってもらうためにMuseScoreで楽譜を書きました。
TracktionからMIDIでエクスポートして読み込ませたり、コピペしたりが可能です。
(ただし、Tracktionからのエクスポートが癖があって(バグ?仕様?)bpm120に直して、かつ、先頭に何でもいいのでダミーで音符をいれておかないと正しく出力されませんでした。)

Sinsyを使う

Sinsyで歌のデータを渡して歌ってもらいました。
ちなみにYokoさんは唱歌、Xiang-Lingさんはポップス向きだと思います。
歌ってもらった物を曲に貼ります。

ここでラフミックスを作って楽譜を見ながら演奏してもらいました。
ここで生楽器と合わせるのにコンサートピッチ442Hzにする必要がでてきました。
これができるのは楽器ではsforzandoだけなので、Tracktionでの作業は諦めて、MIDIデータをLogicExpressに移行しました。

Logicを使う

Logic内蔵の楽器はマスターピッチ、音律を調整する機能があります。今回はそれを使うことにしました。
似たような音の楽器を捜して曲を構成し直します。
sforzandoはそのまま移行してピッチを上げます。

MIDIからAudioにする

いい感じになったらトラックごとにオーディオにします。
いいように思えても、楽器によって発音のタイミングはバラバラ。
一般的には低音楽器は遅く、高音楽器は早い。
それを目で見て合わせられるように一旦オーディオに書き出すのです。

ミックスダウンしてデモが出来上がります。
練習用のマイナスワンのカラオケと本番用のクリックトラックも作りました。

番外編
Sonic Visualiserを使う

かっこいいメロディーとかコード進行とか、あの曲のあそこ、いったいどうなってるんだろう?と思うことがありませんか?
絶対音感とかない僕はSonic Visualiserを使います。
特によく使うのがLayer>Add Melodic Range Spectrogram。
音が目で見えるようになります。便利。

iMovieを使う

ニコ動とかyoutubeにアップするのに使います。といっても画像と音楽を読み込んで歌詞を入れただけですが。
サイトによっていろんな制限があるので、それにあわせないといけないところが面倒です。

コメント

このブログの人気の投稿

カフボックス作った。andなぜノイズが出る?

シーンでフェードアウト on LIVE

AudioToolsを使ってみた