Sat Oct 29 2016 07:51:32 GMT+0900 (JST)

シンセサイザーモデルとシーケンサーモデル。

ウェブオーディオのプログラムを書くときにこの二つのモデルで考えている。

シンセサイザーモデルというのは、発音した後にパラメータが変わったり終了するタイミングが決まるもの。言い換えると発音時点で不確定な要素があるもの。状態を保持する必要がある。

シーケンサーモデルというのは、発音時点でパラメータの変化や終了するタイミングなどが確定しているもの。状態を保持しなくて良いので単純な関数呼び出しとして書ける。

ほとんどの場合はシーケンサーモデルで十分なんだけど、全体に作用するエフェクトなんかはシンセサイザーモデルで考えないといけない。オーディオソースの保有によって使い分けるのが良い?

統一したインターフェースで書ける方が良いのか、異なる考え方なので違う方が良いのか。

Sat Oct 29 2016 07:32:16 GMT+0900 (JST)

ちょっと中途半端だけど作業が止まってしまったのでプッシュする。

デコレータを使ってコンポーネントを共通化した。メンテナンスコストを考えると3つのリポジトリがそれぞれあるのは問題で共通部分はパッケージ化した方が良いのだけど面倒くさい。