ビッグデータ

さまざまな種類や形式のデータによって構成された巨大なデータ群のこと。数十テラバイトから数ペタバイトのデータ量を指すが、今後さらに肥大化すると予測される。ビッグデータ登場の背景には、インターネット環境やデバイスの進化、ユーザーの増加に伴い、非構造化データ(動画や音声、テキストなど)などが飛躍的に増えたことが挙げられる。

ビッグデータは「Volume=容量の大きさ」「Velocity=処理の速度」「Variety=多様な種類」の3つの要素(3つのV)から成り立ち、従来の技術では処理が困難とされていた。近年、コンピュータの処理能力や通信速度の向上、大量のデータを蓄積できるクラウドの普及などによって、ビッグデータの記録や保管、解析が可能になってきた。これまで捨てていた情報を収集・分析することで、ビジネスや社会に有益な知見を得て、新たなビジネスモデルやサービス誕生の期待が高まる。また、ビッグデータはデジタルトランスフォーメーション(DX)推進における重要なファクターとしても注目されている。

ビッグデータの活用は急速に進んでいるが、一方で課題も残されている。データ分析の準備と整備に労力と時間がかかること。データの中には個人情報が含まれるため、データ活用を誤るとプライバシーの侵害になること。そして、最大の問題は、人材の不足だ。ビッグデータを分析・解析し、ビジネスに活用するための知見・情報を引き出すには、データサイエンティストと呼ばれる専門職が欠かせない。しかし、現状では数万人規模で不足していると言われており、その育成は急務である。
(青木逸美)

ICTサプライヤーのためのビジネスチャンス発見マガジン
  • Find us on
  • X(Twitter)
  • iDATEN(韋駄天)
  • iKAZUCHI(雷)
  • 教育ICT総合サイト