大数据绝不是指海量数据_大数据究竟是什么?
传统的数据分析、是通过提出假设然后获得相应数据、最后通过数据分析来验证假设
而大数据是从收集的海量数据中、通过算法将这些来自不同渠道、格式的数据进行直接分析
从中寻找到数据之间的相关性、简单而言、大数据更偏重于发现、以及猜测/印证的循环逼近过程
而大数据的价值体现在对它的分析利用上、一直以来、大数据的瓶颈并不是数据规模巨大导致的存储
运算等问题、而是在前端数据的收集途径、以及对数据进行结构化处理、进而引导后期的商业决策中的模型和算法问题
极其复杂、包括结构化、半结构化和非结构化的数据、企业需要整合并分析来自复杂的传统和非传统信息源的数据
包括企业内部和外部的数据、随着传感器、智能设备和社会协同技术的爆炸性增长
数据的类型变得难以计数、包括文本、微博、传感器数据、音频、视频等
而现在大热的数据分析师正在做的是这样的工作:收集信息、将信息结构化数据化
最后才是我们能看到的大数据带来的神奇力量、但问题是其中对数据进行处理工作量太大了
根据访谈和专家测算、数据分析师的 50%~80% 的时间都花在了处理数据上
在智能手环公司 Jawbone 负责数据工作的 Monica Rogati 说:
处理数据是整项工作中巨大的部分、但有时我们感到沮丧、因为好像不停地处理数据就是我们做的所有事情
这听起来有点像冰山理论、即我们能看到的大数据只是冰山露出来的一个小角
而我们看不到的地方、如大数据的前期工作、就是海水下是更巨大的部分
但咨询公司麦肯锡曾在 2011 的报告中指出:
“数据、已经渗透到当今每一个行业和业务职能领域、成为重要的生产因素
人们对于海量数据的挖掘和运用、预示着新一波生产率增长和消费者盈余浪潮的到来、”
是的、存在问题的地方也潜藏着机会、原始数据的格式和来源不可计数、举一个例子
假如一家食品行业的企业需要进行大数据的收集和分析、它能收集的数据包括产量、出货的位置信息、天气报告
零售商每日销售量、社交媒体评论等、而根据这些信息、企业能够洞察出市场的风向和需求的变化、进而制定相应的产品计划
的确、获得的信息越多越有利于企业做出明智的决策、但这个决策是建立在不同的数据集之上的
这些来自各种传感器、文档、网页、数据库的的数据、全部都是不同的格式
它们必须要被转换为统一的格式、这样软件才能理解它们、进行分析
将各类数据进行格式统一是一个严峻的挑战、因为数据和人类语言一样都具有模糊性
有些数据人类知道是什么意思、但电脑却不能识别、因此我们需要人工来一次又一次地重复这个工作
现在已经有不少的初创公司试图开发相关的技术来减轻这项工作、例如 ClearStory Data
一家在帕洛阿尔托的初创公司、它开发的软件能识别不同的数据来源、将它们整合、并将结果用视觉方式呈现
如图表、图形或数据地图、再如 Paxata、一家加州的初创公司、专注于数据的自动化
发现、清理、调配数据、通过 Paxata 处理过的数据能被送入各种分析或可视化软件工具
大数据目前的情况和计算机发展的轨迹有点相似、一种先进的技术、最初往往只被几名精英掌握
但随着时间流逝、通过不断地技术创新和投资、这项技术、或者说工具、会变得越来越好
特别是当其融入到商业领域中后、这项工具就能得到广泛应用、成为社会中的主流