機械とヒト

音楽の3大要素「メロディー リズム  ハーモニー」の中の一つであるリズム。
普段フリーテンポで演奏することはなくもないが、通常我々は「クリック」というガイド音を聞きながら演奏をしている。
これはレコーディングの時はもちろんのこと、ライヴ現場でも多くの曲に用いられている場合がほとんどと言っていいだろう。
 
クリックは元々ピアノの練習などに使われるメトロノームと同じで「キッコッコッコッ」「カンッカンッカンッカンッ」といった打楽器音(リムショットやカウベル)だったり、あるいは「ピッポッポッポッ」といった電子音が使われる。
ドラマーによっては「この音じゃなきゃダメ」と指定する人がいるほど、実は重要な音なのだ。
VAMPSライヴのクリックも、8年の間に4回のアップデートを行ってきていることは案外知られていない(そりゃそうだ、我々にしか聞こえてない音なのだから(笑))
 
クリックの第一の理由は「安定したテンポに合わせた演奏」ができることだ。
バンドメンバー全員が聞く場合もあるしドラマーだけが聞く場合もある。
VAMPSの場合はカウントなしで全員が演奏をはじめる曲があることからも分かる通り、全員が聞いている。
 
そしてもう一つ大きな理由がある。 
それが機械との同期である。
今のところは人間がコンピューターに合わせて演奏をするしか手段がないので、ガイド音としてクリックを聞かなければならないのだ。
  
コンピューターは非常に優秀なミュージシャンにもなってくれるが、いろいろ融通の利かないことも多い。
もっとも苦手なこととして真っ先に思いつくのが、人間の欠点のはずの「テンポが安定しない」「ニュアンスが安定しない」などがことごとくできないという点だろうか?(笑)
 
人間はテンポを安定させることが難しい。
コンピューターはテンポを安定させないことが難しい。
もっと平たく言うと、人間は同じ演奏を二度とできない。
コンピューターは同じ演奏しかできない。
 
もちろん双方とも近いところまで再現させることは可能だ。
しかし本質的な意味では「特性としては本来向いていない」と言って差し支えないかと思う。
 
例えば「Vampire’s Love」の前奏のピアノソロにしても毎回演奏が変わる。
その日の心情やコンディションなんて繊細な理由がなくともタッチが強くなったり弱くなったりするし、感極まってバッチリ決まることもあれば派手なミスタッチになることもある(おぉ恐ろしい)。
繰り返し練習することで限りなく同じ演奏に近づきはするが、決して完全一致はしない。
 
僕の腕前がヘッポコだというわけでない。
程度の差は別次元だが、カラヤンのような偉大な指揮者であっても毎回演奏時間は変わるのだ。
(ここでカラヤンさんを味方につけられたのは心強い(笑)
 
一方のコンピューターは演奏データを蓄積させていくことによって演奏にバリエーションをつけていくことはできるが、決してフィーリングがつくことはない。
あくまでも記録された演奏データを再生する以上のことはできないのだ。
 
 人間同士の演奏は、その時の顔合わせだったり歌のテンションだったりギタリストのストローク加減だったりで毎回微妙にテンポが前後する。
曲中で自然に変わっていく場合もあるし、示し合わせをしているでもなしにリタルダンドでゆっくり終わったりすることもある。
ミュージシャン同士が不思議な回路でつながっているような感覚だ。
 
コンピューターはこういった人間のセッションに参加をすることができない。
Siri風に言うならば「それができるのは人間だけです。…今のところは」となる。
 

近年になって人間のフィーリングで演奏された自然なグルーヴ感を解析できる技術が開発された。
それまでは非常に忍耐を求められる作業であったのだが、「テンポを分析」というコマンドを実行するだけで瞬時に解析してくれる画期的な機能だ。
テンポを分析
数値化され視覚的に表示される人間の「グルーヴ」。同じテンポと感じていても実はこんな感じで常に微妙に揺れ続けている。(画面はアンプラグドのリハーサルで演奏された「SWEET VANILLA」を解析したもの)
 
この機能を使えば、クリックを聞かずに人間のフィーリングで演奏した曲に、後から様々な電子楽器を同期させることができることになる。
つまり「ヒューマンビートマスターの打ち込み音楽」を作ることが可能になったのだ!
 
 
……しかしこの機能が思ったほどは定着していないように思う。
それこそかなり細かく小数点二桁テンポまで追い込んだ解析にもかかわらずだ。
理由は一つではないと思うが、自分の率直な感想を言わせてもらうならば、なんというか……
コンピューターの演奏のクセにヘタッピに感じてしまうんである(笑)
 
「あれ?このヘッポコな感じはどこかで聞いたことがあるぞ?」
 
と考えを巡らせて気がついたのだが、「クリックに合わせた演奏を初めてやるような初心者の演奏」に傾向が似ているのだから話として実に興味深い。
 
なんとか気持ち良く演奏できるようになったのに、「キッコッコッコッ」というガイド音に合わせて演奏をすると、そのテンポについていくのに必死になってしまい、とたんに安定した演奏ができなくなってしまうといった現象だ。
コンピューターの逆パターンもまさにそんな感じで「無理にこじつけている」ように聞こえてしまうのだから、機械とヒトの利点と欠点と共通点と……?あれあれ?と混乱してしまうのがまた面白い。
 
 特性としては本来向いていない方向性をお互いに追い求め続ける機械とヒト。
ここ数年、人工知能(AI)の開発がめざましい進歩を遂げているらしい。
 
今現在はまだ融合の難しい音楽事情ではあるけれども、いずれは画期的な発明がされるかもしれない。
上記のテンポ解析にしても、もしそれがリアルタイムに検知されるようになったらどうだろうか?
我々が「キッコッコッコッ」というクリック音を聞かずともコンピューターが勝手にくっついてくるような技術に昇華するかもしれない。
さらにSiriのような技術が応用されるようになれば、人間のセッションに参加するコンピューターミュージシャンが生まれることになるかもしれない。
 
 
今の感覚ではとても信じられないけれども、未来の技術というのは常に現在の常識では考えられないものであることが望ましいそうだ。
「ドラえもん」のような発想力こそが明るい未来を創り出すのだ。
「ターミネーター」のような暗い未来を暗示するような発想はいっそのことしない方がよろしい。
 
人工知能については「かなり危険」と警鐘を鳴らす専門家が多いが、例えば音楽などの方向で研究されていく分には人類絶滅の危機とかに発展しそうもないと思われるのでどんどんやってほしい。
もっとも僕のような零細ミュージシャンにとっては失業の危機につながるかもしれないけれども…(笑)
 
それでも今とは違う未来を見てみたい欲求は止められない!
 
以上、機械とヒトとの音楽的な関わり、そしてこれからの関わりについての考察でした。
 

 福岡オフ日、ホテルにこもってずっとそんな妄想と下調べと実験と分析をしておりました(笑)
街を散策するのも楽しいけれど、僕はこういった脳内散歩をするのも好きなようです。
 
しかしお腹が空いたのでこれから美味しいものを食べに行くのです(^o^)