ビッグデータ施策を有効に活用

全社一丸となってビッグデータに対応し、その投資効果を十分把握した上で試験的な段階を脱していざ成熟期に入ろうとしている企業が新たに直面する究極の課題。 それが、ビッグデータをいかに実用化するかです。

大げさな形容ばかりが先行し、ビッグデータの定義や技術、ベンダーの膨大な選択肢が存在する昨今、適切なソリューションを見極めることは必要以上に困難になっています。 その状況下で企業は、まず低コストかつ極力シンプルなビッグデータ環境の設計・構築を目指す必要があります。 これは、全社規模でのデータと分析の真の集権化に向けて前進すべく、安定性と高い統合レベル、スケーラビリティを実現することを意味します。

データと分析の集権化とは、社内において、ビッグデータ施策とビッグデータ分析の力を必要とするすべての部門にこれがもたらされている状態を意味します。 有用な知見を見出し、的確な意思決定を行い、ビジネス上の課題 を解決するには、インフラストラクチャやデータストリーム、ユーザー向けのツールセットが必要であり、 ビッグデータとはこれらを基盤として価値を発揮します。

ビッグデータの概要、ビッグデータの定義、ビッグデータのテクノロジー

ビッグデータ施策は機会獲得の原動力

では、まず何から着手すればよいのでしょうか。 ビッグデータをエンジンのようなものと考えればわかりやすいでしょう。 パフォーマンス向上のためには、適切な部品(要素)を、シームレスかつ安定した持続可能な形で組み立てる必要があります。 その要素として、以下が挙げられます。

  • データソース: 実用的かつ機能的なシステム、マシンログやセンサー、ウェブやソーシャルメディアなどのさまざまなソース
  • データプラットフォーム、データウェアハウス、ディスカバリー・プラットフォーム: データの格納と管理、また、顧客に関する知見、そしてアクションへの転換(この段階が特に重要)を担う
  • ビッグデータ分析ツールおよびアプリ: エグゼクティブやアナリスト、マネージャなどが、顧客に関する知見やモデルシナリオにアクセスしたり、日々の業務遂行やビジネス管理に使用する「フロントエンド」

この段階では、ビッグデータという資産の力を最大限活用し、実際にビジネス価値を創出することが焦点になります。 各要素を連動させて機能させるには、現行のデータストリームとリポジトリの検証だけでなく、ビジネス上の具体的な目標と長期的な業界のトレンドの見極めにもつながる戦略的なビッグデータ設計、そして考え抜かれたビッグデータアーキテクチャが必要です。 つまり、ビッグデータを機能させるための万能なテンプレートなど存在せず、これは既存の製品で解決するものでもありません。

ビッグデータの重要性が増すのはこれからであり、これらのインフラストラクチャは将来的な運用のための基盤であると認識すべきです。 つまり、高額な投資が必要になると考えてよいでしょう。 しかし、将来を見越して早くからビッグデータを採用した企業の多くは、一般的な予想に反し、適切なビッグデータ環境の構築はむしろコスト削減につながるという結論に至っています。 さらに驚くべきは、このコスト削減は相当額に上り、比較的短期間でビジネスに還元されるという事実です。

ここで重要なのは、ビッグデータの技術とプログラムは、柔軟なフレームワークが整っていてこそ、さまざまな部門をサポートし、全社的な業務改善をもたらすという点です。 このフレームワークを無視してビッグデータプロジェクトだけを貪欲に先へ先へと進めることは、実らぬ投資に終わるという多大なリスクを伴います。 ガートナ―の推定によると、ビッグデータプロジェクトの90%は、実用化と全社規模での反復に至っていません。 ビッグデータで間もなく成功を収める残り10%の企業は、早くからその全体像に目を向けた取り組みを進めています。

有効性の高いビッグデータ環境とは

  • データセットのシームレスな使用: ビッグデータのメリットの多くは、データセットの混合や併用、比較によってもたらされます。つまり、統合なくして分析活用型への革新を遂げることは不可能です。
  • 柔軟性と低コスト: 低コストで極力シンプルであること、また、ニーズの変化(規模の拡大および特定のユーザーグループへの特化)に応じて拡張可能な柔軟性が求められます。
  • 安定性: 膨大なデータへのアクセスとインタラクションを容易にするには、安定性が不可欠です。 これは、インフラストラクチャのパフォーマンスが、ビッグデータによるビジネスパフォーマンス向上の鍵を握っていることを意味します。
ビッグデータの重要性が増すのはこれからであり、これらのインフラストラクチャは将来的な運用のための基盤であると認識すべきです。

ビッグデータとHadoop: 注目すべき技術

Hadoopとは、使用可能な状態にするのが非常に困難でコストも高額だったために、これまで無視されてきたものも含むあらゆるタイプのデータを保存できるファイルシステムです。 ビッグデータとHadoopは、既存のビッグデータ分析環境への統合によってビジネス上の洞察強化に役立つであろうデータのオンザフライモデリングを通じて、その価値を発揮します。

ビッグデータの統合: 最も重要な要因

再利用性の低さは、大抵適切な統合が行われていないことに起因します。 つまり、統合は、ビッグデータの成功を左右する最も重要な要素のひとつです。

Forrester Researchは、ビッグデータの価値の80%は統合によって発揮されるとしています。 つまり大局的に見れば、ビッグデータは、適切なユーザーが容易にアクセスでき、堅牢なビジネスルールが明確に定義され、ガバナンスが確立されていてこそ高い価値を持つということです。 過去の取引データや膨大な顧客履歴といったより詳細なデータセットについても、信頼性の高いストレージと確実なデータマネジメントさえ整備されていれば、データサイエンティストやデータを探索するユーザーが必要に応じてそのレビューを行い、モデリングできます。

ビッグデータの統合にあたっては、全体を大きく捉える必要があります。 つまり、すべてを総合して包括的、多次元的に捉えるということです。 そのためには、点と点を結ぶようにして個別のデータを関連付け、サイロ化されている部門同士をある程度(完全には統合できなくとも)結び付ける必要があります。

高度な統合、 設計に優れたエコシステム、 統合型のアーキテクチャ、 データと分析の集中化。 ビッグデータプログラムを機能させるのに、必ずしもこれらすべての要素をそろえたり、技術的な詳細にこだわる必要はありません。 しかしこれらは、ビッグデータプログラムを有効に機能させるための鍵を握る要素であることは確かです。