日 | 月 | 火 | 水 | 木 | 金 | 土 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
ECCV2008で発表された論文。Compressされた画像信号そのままで(復元することなく)背景差分に相当する演算をおこない、オブジェクトの有無を判定する。復元しないまま、閾値をmoving averageで適切に逐次更新していくのがミソ。
http://www.dsp.ece.rice.edu/cs/DCS112005.pdf
Compressed Sensingの基本は、ひとつのセンサの計測データに対するエンコード/デコードであるが、上記論文は分散配置したセンサに対するそれに関する理論。
Compressed Sensingは、エンコード側で(圧縮率を高くしつつデコードしやすいように)工夫すrのではなく、エンコードには対して気を使わずデコード側で頑張る話である。ので、上記論文も、分散配置したセンサがそれほど気を使わずにエンコードして中央のサーバにデータを送信して、サーバ側が頑張ってデコードする。このとき、分散配置したセンサが共通の音源からの音であるとか、似た地域の気温分布であるとか、計測データをセンサ間で共通する要素とそうではない要素とに分解できるような場合について「サーバ」でどのくらいデコードを頑張れるかを考えている。
なんというか、なるほどなぁという感じは得られる論文。エンコード側で工夫する感覚が染みついているので、途中何度も違和感を感じて読みにくかった。
Distributed target localization via spatial sparsity
センサネットワークでは、ノードの位置推定にRSS (Received Signal Strength)を参照する手法が良く知られているようだけれども、その手法はお世辞にも頑健とは言えない。この論文は対雑音性能と通信量について解析して、優良な方法であることを主張している。重要な関連技術について文献[17]の詳細を知りたくなった。
さすが、よくまとまっています。
http://igorcarron.googlepages.com/cslisting
compressed sensingには、なんとなくワクワクするものがある。
MPEGなどでは、頻出するパターンに短いコードを割り振ることで圧縮。画像をencodeするときに工夫する。こちらは、元画像全体から適当な特徴を計算しておいて、その特徴を説明する(できるだけ少ない数の)パターンを推定する。画像をdecodeするときに工夫する。
図のアーキテクチャが語るように、一度レンズを通して「全体」を計測して、そのうち適当な部分を選択して足し合わせてsingle-pixelで受光して送信する。少数の送信内容を受信した側が、L^1ノルム最小化で復号する。特徴量が局所的な量ではなく、全体に分散配置した部分からの寄せ集めで定まる量であることが新鮮だけれども、応用先を限定もしている。digital mirror arrayのように、「全体」でシンクロナイズして動作する仕掛けが必要であり、この仕掛けの工夫が実応用の際の鍵のひとつとなると思われ。
最近のコメント