「大規模実時間データ処理の基礎」講座を終えて
2012/5/11に「第21回ソフトウェア開発環境展」併設の基礎講座にて
「大規模実時間データ処理の基礎~今を分析するデータ 処理技術~」
と題して、ストリームデータ処理を中心にお話させていただきました。
ビッグデータ処理では、データ量(Volume)に加えて、
種類(Variety)、速度(Velocity)を検討対象に含めるべきとの
コンセンサスが取れつつあり、ストリームデータ処理はビッグデータ処理の
速度を向上するキー技術として再度注目されています。
基礎講座では、以下のお話をしました。
1. 大規模データ(ビッグデータ)
2. 実時間データ処理システム
3. 実時間データ処理要素技術と適用事例
4. 他関連要素技術
5. 最新研究動向とまとめ
ストリームデータ処理の特長と原理から説明しましたが、
ここで想定以上に熱く語ってしまい、
それ以降の適用事例とデモ、CEP(Complex Event Processing)技術や
分散オブジェクトキャッシュ技術の説明は急ぎ足になってしまいました。
反省です。
ストリームデータ処理やCEPはメジャーベンダーの製品化も進み、
ITシステムに取り入れられつつある一方で、依然として研究も盛んで
データ管理の最先端の学会での発表も続いています。
特に最近ではHadoopに代表されるBigData処理向けの
他のデータ管理技術との融合がトピックになっています。
今後、ストリームデータ処理を核にして、お客様のビッグデータ活用の価値を
最大化できるような技術やソリューションの研究開発に取り組んで参ります。
引き続き、よろしくお願いします。
コメント