ビッグデータ
ビッグデータ
Big data
概要
ビッグデータは,従来の一般的なデータ処理基盤では,扱うことが不可能な大量かつ複雑なデータのことを指す。蓄積されたビッグデータを分析することで有益な知見を導き出すことが期待できる。
説明
近年,センサ等の観測機器が生成するデータ,インタネット上での消費者の行動,スマートフォン等のデバイスで生成される画像,動画,位置情報その他のデータ,各種のシミュレーションの結果得られるデータなど膨大なデータが生成され蓄積されており,その量は指数関数的に増加している。情報機器の性能向上,ビッグデータ分析基盤の進歩により,従来不可能であったビッグデータの分析が可能になり,ビジネスにおける新たな有益な知見を導き出す動きが加速している。2001年のレポート1)でコンサルティング会社METAグループのDoug Laneyは,ビッグデータを分析する上で留意すべき特徴として,3つのV,Volume(データ量の大きさ), Velocity(分析に必要な速さ), Variety(データの種類の多さ)を挙げている。自然科学の世界においても収集・蓄積されたビッグデータを主な研究の対象とするパラダイムシフトが起きている2)。
参考文献
- Laney, D.: 3D Data Management: Controlling Data Volume, Velocity, and Variety, Application Delivery Strategy, Meta Group (2001).
- Hey, T. et al.: The Fourth Paradigm:Data-intensive scientific discovery, Microsoft Research (2009).
関連項目
最終更新日
- 2019.12.01.
- 吉野松樹 (編集委員会編)