今日、人间は、そしてそれ以上に机械は、有史以来人类が作り出した全データ量よりも多くのデータを1週间で作り出しています。そして、その翌週には、データ量が再び人类の全知识量の2倍となるのです。このデータを光ファイバーケーブルで光の速さで伝送できることも相まって、意思决定に利用できるデータの范囲とスピードは、人间の能力を超えてナノ空间に突入しています。
このようにデータを蓄积していく一方で、その安全性はどうなのかが気になるところです。私たちの悬念(さらには来るべきナノクリシス)にもかかわらず、ビッグデータの利点は、付随する危険性よりもはるかに有望である。人间の统计学者でさえ津波としか思えないようなデータが、喉が渇いた础滨にはただの水滴にしか见えない。インテリジェントなシステムは、そのデータの海を饮み込むと、私たちのためになる素晴らしい発见をすることができるのです。
データは、人间の入力、センサーの読み取り、他の础滨の操作结果の3つのソースからシステムに到着します。
データは、ローカルサーバー、リモートサーバー(クラウドを含む)、デバイス内、フラッシュドライブや颁顿などのリムーバブルメディアにあるデータの集合体であるデータレイクに保存されています。
各データポイントは、品质と実用性の両方からアクセスされます。どのデータポイントも误りであったり、无関係であったりする可能性があります。
アルゴリズムとは、定义された目的のために结果を计算するように设计されたプロセスである。各アルゴリズムには多くのステップがありますが、问题を解决するために必ずしもこれらすべてのステップが必要になるわけではありません。アルゴリズムは人间が书いたものなので、どのステップでも意図しないバイアスが含まれている可能性があります。先见の明のあるリーダーは、组织が使用するすべてのアルゴリズムが公正な结果を生み出すように努力します。
各结果は、他のコンピューティングデバイス、ロボット、运动机械など、チェーンの次のエンティティがアクセスできる场所に顺番に格纳されます。
その结果を受けて、后続のエンティティは、物理的な动きやさらなる计算など、望ましい行动をとります。
あらゆる分野で、础滨が目の前の复雑なものを选别し、繰り返されるパターンを特定することで、日々、大きな理解の飞跃が起きているのです。あるパターンがある结果と日常的に関连づけられると、础滨は既知のパターンが现れるたびに、まさにその结果を予测することができます。このいわゆる予测分析は、人间の能力を超えており(机械という超人的な领域で行われている)、しばしば人间の理解を超えている。これらの通信のコンテンツは人间が作るが、そのすべてに埋め込まれているデータは机械だけで収集?共有されている。