Sat Oct 29 2016 07:51:32 GMT+0900 (JST)
ウェブオーディオのプログラムを書くときにこの二つのモデルで考えている。
シンセサイザーモデルというのは、発音した後にパラメータが変わったり終了するタイミングが決まるもの。言い換えると発音時点で不確定な要素があるもの。状態を保持する必要がある。
シーケンサーモデルというのは、発音時点でパラメータの変化や終了するタイミングなどが確定しているもの。状態を保持しなくて良いので単純な関数呼び出しとして書ける。
ほとんどの場合はシーケンサーモデルで十分なんだけど、全体に作用するエフェクトなんかはシンセサイザーモデルで考えないといけない。オーディオソースの保有によって使い分けるのが良い?
統一したインターフェースで書ける方が良いのか、異なる考え方なので違う方が良いのか。
Sat Oct 29 2016 07:32:16 GMT+0900 (JST)
Sat Oct 29 2016 07:16:02 GMT+0900 (JST)
React/Redux + WebAudio のサンプルコードを更新
データの流れはこういう感じが良いはずだけど、グルグル回りすぎると分かりにくいかもしれない。このへんはもうちょっとまとめてQiitaにでも書きたい。