MENU

録音レベルが低い音源をノーマライズで解決してはいけない理由

この記事のまとめ

録音レベルが低い音源をノーマライズすることのデメリットを解説。ノーマライズに頼らない録音方法についても解説ノーマライズの都市伝説についても調査!

マイクで録音した音が小さいからノーマライズしても大きくならないノーマライズしたらノイズも一緒に大きくなった。対処方法が知りたい

自動で音量を変更してくれるノーマライズは便利ですが、「どうすればノーマライズを正しく動くのか?」ということを知っておかないとあまり効果は望めません。

DTM初心者の多くは「それを使えばよくなると思い込んでボタンを押しますが実際はほとんど効果がない」ことを経験しています。

それだといつまで経ってもDTMのスキルは上がりません。この記事では「効果と理由」についてしっかりと説明しているので、「なぜ?がなるほど!」に変わっていくことを実感できると思います。

目次
UG
作編曲家(DTMブロガー)
作編曲家/DTMブロガー&講師 /
日本シンセサイザー協会準会員/
テレビ番組/CM、映画、よさこい、
ゲーム、などのBGM及び効果音を作成

ノーマライズ(オーディオノーマライズ)とは?

ノーマライズとは次のような定義があります。

2.3.2 ノーマライズ

ノーマライズは,ある音圧レベルをしきい値として,信号の最大音圧をしきい値に合わせ る処理を行う.時間領域で出力レベルを低下させるだけのため,聴感上での音質に変化がな いことが利点である.しかし,周波数ごとに歪みが発生する音圧が異なるため,音楽再生端 末によるイコライザーで周波数ごとに音圧を調整すると,歪みが発生する場合がある.ま た,歪みの発生していない周波数まで音圧を低下させることにもなる.

平成21年度 学士学位論文:相関を用いた音圧制御による 音響非線形歪み補正

音量正規化(ノーマライズ)とは、音響信号処理のひとつで、ある音声データ全体の音量(プログラムレベル)を分析し、特定の音量へ調整する処理である。 音声データを適正な音量に整えたり、複数の音声データの音量を統一する目的で用いられる

wikiより

「自動で音量を大きく」してくれるものという認識が多いですが、実は少しだけ誤解があります。

まずはこちらの動画を御覧ください(ノーマライズ後での音量差にご注意ください)

ノーマライズをすることで全体の音量はあがりますが、注意したいのはその基準は一番大きい音(ピーク)がゼロデシベルを超えないように自動調整するのがノーマライズです。

画像
画像

つまり、ノーマライズしたいオーディオファイルのピークが大きければ大きいほど、ピーク以外の箇所はノーマライズをしても音量を持ち上がりません。

冒頭に「音量が小さいからノーマライズしたけど思ったように大きくならない」というのはここが原因です。

カッティングギターなどではこのピークとの差が大きいためノーマライズをしてももともと大きく聴こえていた箇所がさらに大きくなっただけで

あまりメリットはないような感じもしますが、録音したものがどんなピークをもっているかをしるだけでもその後どうすれば聞こえやくできるか?という

方法を知る一つの手段として活用することができます。ただ、ノーマライズにそれ以上のデメリットがありますがそれは後述します。

ここまでのまとめ

ノーマライズ処理とは?

ノーマライズ処理とは一言で言えばボリュームを上げただけ、つまり「音量を大きくしているだけ」です。

スマホやitunesプレイヤーの音量を自分で上げるのではなく自動で上げているのと同じです。

ノーマライズ化のメリットは?

トラックの音量を最大化することで、コンプ等のダイナミクス系プラグインを正しく動作させられる。(中級者向け)

ネットで検索すると「オーディオノーマライズ」という言葉がありますが、やっていることは変わりません。「オーディオの音量を大きくする」という意味から、オーディオノーマライズという言葉が独り立ちしただけです。

ノーマライズのデメリット

マイクを使って小さい音量で録音した場合、このときマイクは録音対象以外のルームノイズ(エアコンやパソコンのファンノイズ)はたまたとなりの犬の鳴き声から街の喧騒までマイクが収集できるありとあらゆる音が録音されています。

録音対象の音量が大きい場合はノイズが目立たいないかもしれませんが、ノーマライズすることでノイズも目立つようになります。そこから、コンプやEQなど恩寵政党のエフェクトプラグインを使っても濁った音に変わりはありません。

濁ったノイジーな音は音楽にとってデメリットでしかありません。

解決方法 録音レベルを上げる

ノーマライズするのであればノイズがない環境であるのが前提ですが、有名大学の無響音部屋にでもいかない限りノイズがない部屋は存在しません。

ノイズを大きくしないためにも小さい音で録音するのではなく、音割れが発生しないできるだけゼロデシベル付近に近い値で録音することがクオリティの高い録音方法であり、

ノイズより実音の方が大きく取れているのでノーマライズをしてもノイズの増え方は最低限になります。

録音レベル 調整のポイント

しかし、ゼロデシベル付近を意識するのは簡単ではありません。

では最適な録音レベルとはどれくらいなのか?ということでしょう。ボーカルの場合、思い切り大声で歌うサビなどでピークが-6dB〜-3dBになるようにインプットゲインを調整するとよいでしょう。

またギターやベースでピークの差が激しい場合なども含めて録音時にコンプをかけどりするケースもあります。

深くかけすぎると逆に埋もれるだけなのでゲインリダクションが−3dB程度になるくらいをイメージして調整すると自然になります。

コンプの使い方はスレッショルドを理解すれば簡単に使いこなせる

それでもノイズが気になる場合

どんなに録音レベルに気をつけてもレベルオーバーによって音の歪みが発生したり、外部ノイズに苦しむことは誰でも一度は通る道です。

そういう場合はノイズ除去アプリケーション等を使用するのがよいです。

RX 8 Izotopeはノイズ対策の決定版と言われるほどシンプルな動作で確実に録音時に入り込んだノイズを軽減してくれます。多くのDTMerはプラグインやソフト音源にお金をかけることがありますが、ノイズまみれの曲にどれだけ良いプラグインやソフト音源を使ってもそのポテンシャルは発揮できません。

良い音源を買うこと自体を否定はしませんが、ノイズ対策とはいわばエチケットの領域なので人に聴いてもらうことを前提した場合、ノイズ対策はしっかりすることをおすすめします。

ノーマライズとコンプレッサー 違いについて

「音量を大きくするのが目的ならコンプレッサーもノーマライズじゃない?」と思うかもしれませんが、まったくの別物です。コンプはスレッショルドとレシオでどれくらい音を圧縮するかを決めます。大きい音と小さい音の差をなくすのがコンプレッサーです。

それに対してノーマライズは一番大きな音がゼロデシベルまで上がれば、小さな音はそれ以上大きくなりません。

まとめ

  • ノーマライズのデメリットは録音対象以外のノイズを持ち上げることでレコーディグしたもののクオリティが下がる
  • 録音レベルは小さいよりは大きくするのがポイント
  • 録音レベルは-3dB〜-6dBの間をピークとすること

ノーマライズで音は変わるのか?(中級者向け)

ノーマライズで音が変わるのか?そもそもその音の変化は誰でも聴けばわかるものなのか、一部のトップエンジニアの人たちにしかわからないことなのか。今まで具体的なその検証方法が行われているわけではないので、何が正解かわからないというのが実情です。

とあるエンジニアさんが、ツイッターでクライアントからのオーディオファイルのデータの画像をアップしていました。そしてその画像には「こんな小さい音量で送ってくるなんてbitの無駄使いだよな。もっと音を大きくしろよ」というつぶやきがありました。

しかし、別のエンジニアさんからは「ノーマライズは音が悪くなるよ」という話を聞きました。

その理由は「ノーマライズはフェーダー調整だけではないプロセスが入っているから「音が悪くなる」とのことでした。

しかしノーマライズとは基本的な技術はボリュームの自動調整です。「音量を0dbに上げるだけなのになぜ音が悪くなるんだ?」という疑問が湧いてきたので調べてみました。

ノーマライズ音源比較方法

音の変化について調べる一般的な方法は同じファイルを2つ用意して1つは逆位相にするというものです。通常であればお互いの音が打ち消し合って無音になります。ノーマライズが単なる「自動音量調整機能」であれば、ノーマライズ後に増加したぶんのボリュームを手動で下げれば、逆位相で音は消えるはずです。もし消えないのであれば、音量調整以外のプロセスがはいり、ファイル的にも別のファイルになっているということが考えられます。

音が小さいと何が問題?

基本デジタルもアナログも割れないギリギリで録音することが大切なのは変わりません。アナログの場合は入力過大すぎるとアナログ特有のリミッターがかかり飽和感がうまれそれが味となることがありますが、デジタルの場合は入力限界のゼロデシベルを超えてしまうと「バリバリバリ!」音が割れてしまいます。

デジタルレコーディングにおいて音が小さいのがダメということではなく大きい音量でとった方がよりキレイにとれるよ!という感覚で覚えておいたらよい話です。(ここはまた別のときにお話します)

逆相チェックで確認

動画(サイン波が発生するのでボリューム調整をお願いします)

方法は同じサイン波を並べて片方を逆位相にします。(LogicProXではGAINというプラグインを使っています)当然逆位相にすると打ち消し合います。次に片方をノーマライズします。

ノーマライズで増えた分をGAINのコントロールで下げ再び逆位相にすると打ち消し合って消えます。これで2つは同じデータであることがわかります。(これはミキサーのフェーダーでしても同じ結果がでます)

おまけ 24bitと32bitfで書き出した場合の違い

画像

この状況で24bit書き出しをすると

もはやサイン波ではありませんが、これを32bitFで書き出すと

画像

割れないwサイン波のまままぁ上記の使い方は一般的ではないですが、書き出しでこれだけ違いがあるということです。32bitFloatに関してはsleep Freaksさんのこの動画による説明がわかりやすいのでオススメです。

Twitter界隈でのノーマライズに対する意見

これらを見る限り画素数の問題が1番わかりやすいかもしれませんね」デジカメの画像も拡大していくとボコボコしてくる。あれと同じようなものみたいです。

Gainでも位相差は発生するのか?

これもGAINで+16dBあげたものをフェーダーで-16dBにして逆位相にすると打ち消し合って無音になるのでこちらもノーマライズ同様同じデータであることがわかります。

そもそも生録にノーマライズによるデータの違いは検証できない今回はシンセ波形を使って100%再現可能な環境ですが、マイクを使った生録の場合に同じデータを揃えるのは不可能です。小さい音量で収録されてファイルをノーマライズすると当然フロアノイズも大きくなります。つまり音楽的に不必要なノイズも大きくなってしまいます。なので、ノーマライズを多用するべきではないのです。

さいごに

一般的なチェックをする限り、ノーマライズもゲインも「フェーダー調整でしかない」と言えそうです。これがアナログ的なプロセスを含むプラグインなどである場合は当然同じデータにはならないと思います。

しかしノーマライズやゲインで「音が変わる変わらない」を議論する前に「一曲でも良い曲を書け」というのが一番の検証結果な気がしています。

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
目次
閉じる