您所在的位置:网站首页  >  图文信息中心  >  图书馆  >  好书推荐

好书推荐

《大数据时代》

发布时间:2021-10-10    点击次数:

    作者: [英] 维克托•迈尔•舍恩伯格(Viktor Mayer-Schönberger) / [英]肯尼思·库克耶 

  内容简介:

  《大数据时代》是国外大数据研究的先河之作,本书作者维克托•迈尔•舍恩伯格被誉为“大数据商业应用第一人”,拥有在哈佛大学、牛津大学、耶鲁大学和新加坡国立大学等多个互联网研究重镇任教的经历,早在2010年就在《经济学人》上发布了长达14页对大数据应用的前瞻性研究。

  维克托•迈尔•舍恩伯格在书中前瞻性地指出,大数据带来的信息风暴正在变革我们的生活、工作和思维,大数据开启了一次重大的时代转型,并用三个部分讲述了大数据时代的思维变革、商业变革和管理变革。

  维克托最具洞见之处在于,他明确指出,大数据时代最大的转变就是,放弃对因果关系的渴求,而取而代之关注相关关系。也就是说只要知道“是什么”,而不需要知道“为什么”。这就颠覆了千百年来人类的思维惯例,对人类的认知和与世界交流的方式提出了全新的挑战。

  本书认为大数据的核心就是预测。大数据将为人类的生活创造前所未有的可量化的维度。大数据已经成为了新发明和新服务的源泉,而更多的改变正蓄势待发。书中展示了谷歌、微软、亚马逊、IBM、苹果、facebook、twitter、VISA等大数据先锋们最具价值的应用案例。

  作者简介:

  他是十余年潜心研究数据科学的技术权威,他是最早洞见大数据时代发展趋势的数据科学家之一,也是最受人尊敬的权威发言人之一。他曾先后任教于世界最著名的几大互联网研究学府。现任牛津大学网络学院互联网治理与监管专业教授,曾任哈佛大学肯尼迪学院信息监管科研项目负责人,哈佛国家电子商务研究中网络监管项目负责人;曾任新加坡国立大学李光耀学院信息与创新策略研究中心主任。并担任耶鲁大学、芝加哥大学、弗吉尼亚大学、圣地亚哥大学、维也纳大学的客座教授。

  他的学术成果斐然,有一百多篇论文公开发表在《科学》《自然》等著名学术期刊上,他同时也是哈佛大学出版社、麻省理工出版社、通信政策期刊、美国社会学期刊等多家出版机构的特约评论员。

  他是备受众多世界知名企业信赖的信息权威与顾问。他的咨询客户包括微软、惠普和IBM等全球顶级企业;而他自己早在1986年与1995年就担任两家软件公司的总裁兼CEO,由他的公司开发的病毒通用程序,成为当时奥地利最畅销的软件产品。1991年跻身奥地利软件企业家前5名之列,2000年 被评为奥地利萨尔斯堡州的年度人物。

  他也是众多机构和国家政府高层的信息政策智囊。他一直专注于信息安全与信息政策与战略的研究,是欧盟专家之一,也是世界经济论坛、马歇尔计划基金会等重要机构的咨询顾问,同时他以大数据的全球视野,熟悉亚洲信息产业的发展与战略布局,先后担任新加坡商务部高层、文莱国防部高层、科威特商务部高层、迪拜及中东政府高层的咨询顾问。

  所著《大数据》一书是开国外大数据系统研究的先河之作,而在这之前,他已经在《经济学人》上和数据编辑肯尼斯.尼尔-库克耶一起,发表了长达14页的大数据专题文章,成为最早洞见大数据时代趋势的数据科学家之一。而他的《删除》一书,同样被认为是关于数据的开创性作品,并且创造了“被遗忘的权利”的概念而在媒体圈和法律圈得到广泛运用。该书获得美国政治科学协会颁发的唐•K•普赖斯奖,以及媒介环境学会颁发的马歇尔•麦克卢汉奖。同时受到《连线》、《自然》《华尔街日报》《纽约时报》等各大权威媒体广泛好评。

  目录:

  引言 正在发生的生活、工作与思维的大变革

  第一部分 大数据时代的思维变革

  第1章 更多:不是随机样本,而是所有数据

  第2章 更杂:不是精确性,而是混杂性

  第3章 更好:不是因果关系,而是相关关系

  第二部分 大数据时代的商业变革

  第4章 数据化:一切皆可“量化”

  第5章 价值:“取之不尽,用之不竭”的数据创新

  第6章 角色定位: 数据、技术与思维的三足鼎立

  第三部分 大数据时代的管理变革

  第7章 风险:让数据主宰一切的隐忧

  第8章 掌控:自由与责任并举的数据管理

  结语 已经发生的未来

   

  《大数据时代》的原文摘录
      Google:系统唯一关注的就是特定检索词条的频繁使用与流感在时间和空间上的传播关系之间的联系。 社会新能力:前所未有的方式,通过对海量数据进行分析,获得有巨大价值的产品和服务,与深刻洞见。 Oren Erzioni:Harvard CS 1st(1986 grad) 飞机票价格预测 到2012年为止,Farecast系统用了将近十万一条价格记录来帮助预测美国国内航班的票价。准确度高达75%。 社会需要放弃它对因果关系的渴求,而今需关注相关关系,只要知道是什么,不需要知道为什么。 硅谷技术成熟度曲线:经过新闻媒体和学术会议的宣传后,新技术趋势一下子跌到谷底。 【大数据先锋】:天文学,信息爆炸的起源 人类存储信息量的增长速度比世界经济的增长速度快4倍,而计算机数据处理能力的增长速度比世界经济增长速度快9倍。 量变导致质变,当我们改变规模时,事物的状态有时也会发生改变。 纳米技术! 大数据是把数学算法用到海量的数据上来预测事情发生的可能性。 大数据【我们分析信息时的三个转变】: 1.我们可以分析更多数据,甚至处理和某个特别现象相关的所有数据,而不依赖与随机采样。 2.研究数据如此之多,以至于我们不再热衷于追求精确度。只要掌握大题的发展方向就好。 3.不再热衷于寻找因果关系,二是相关关系。 大数据对个人的影响是惊人的,使专业性不那么重要了。 【马其诺防线?】 !对我们而言,危险不再是隐私的泄露,而是被预知的可能性。 【IBM资深大数据专家】:Jeff Jonas:要让数据说话。 【大数据与三个重大的思维转变有关】: 1.要分析于某事物相关的所有数据,而不是依靠分析少量的数据样本。 2.乐于接受数据的纷繁复杂,而不再追求精确性。 3.不再探求因果,而是相关。 当样本数量达到了某个之后,我们从新个体身上得到的信息会越来越少,就如同经济学中的边际效益递减一样。 随机采样不是和考察子类别的情况,因为一旦继续细分,随机采样的结果的错误率会大大增加。就像模拟照片打印,远看不错,一旦聚焦某个点就会模糊不清。 【DNA分析】2012年,基因组解码的价格跌破1000美元,这也是非正式的行业平均水平。从2007年期,硅谷新兴的科技公司23 and me就开始分析人类基因,价格仅为几百美元。 Jobs是世界上第一个对自身所有DNA和肿瘤DNA进行排序的人。支付了几十万美元。他得到的是包括整个基因密码的数据文档。 【全数据模式:样本=总体】 通过使用所有数据,我们可以发现可能会在大量数据中淹没调的情况。eg:信用卡诈骗是通过观察异常情况来识别的。 谷歌流感趋势预测建立在数亿的数学模型上,而它们又建立在数十亿数据节点的基础之上。 【cool!Lytro相机,把大数据用到了基本的摄影中,可以记录整个广场里的所有光,达1100万之多,具体生成什么样的照片可以在拍摄后再根据需要决定,没有必要一开始就聚焦。】 【哇哦,托福听力【=。=|| social network point:如果把一个在社区内有很多链接关系的人从社区关系网中提出开来,这个关系网就会变的没那么搞笑但却不会解体;但如果把一个与所在社区之外的很多人有着连接关系的人从这个关系网中剔除,整个关系网很快就会破碎成很多小块。 【混乱性】:不精确,格式不一致。 谷歌翻译!接受了有错误的数据 《数据的非理性效果》:大数据的简单算法比小数据的复杂算法更有效。 错误并不是大数据固有的特性,而是一个亟需我们去处理的现实问题,并且有可能长期存在。 BBP(the billion prices project) MIT的两位经济学家(Alberto Cavell 和 Oberto Rigobon)提出了一个大数据方案,接受更混乱的数据,提供给联邦政府。通过一个软件在互联网上收集信息。 照片的标签取代预先的分类标准。 传统的数据库引擎要求数据高度精确和准确排列,数据不是单纯地被存储,它往往被划分为包含“域”的记录,每个域都包含了特定种类和特定长度的信息。 索引时实现就设定好了的,这就限制了人们的搜索。增加一个新的索引往往既消耗时间,又惹人争议,因为需要改变底层的设计。 非关系型数据库出现,包容了结构多样性,要求更多的 Pat Helland:来自微软的世界上最权威的数据库设计专家之一:《如果你有足够多的数据,那么“足够好”真的足够好》:处理海量数据会不可变面的导致部分信息的确实,虽然有“损耗性”,但是能快速得到想要的结果弥补了这个缺陷。 【多样性】是解决同步更新的一种方法。 Hadoop是与谷歌的MapReduce系统相对应的开原市分布系统的基础架构,非常善于处理超大量的数据。通过八大数据变成小模块然后分配给其他机器进行分析,它实现了对超大数据的处理。它预设硬件可能会瘫痪,所以在内部建立数据的副本,他还家丁数据两只大导致数据在处理之前不可能整齐排练。它假定了数据量的巨大时的数据完全无法移动,所以人们必须在本地进行数据分析。 H的数据输出结果没有关系型数据库输出的结果那么精确,他不能用于卫星发射这种精确度要求很高的任务,但是顾客细分这种就很快。 VISA使用Hadoop. Zest Finance由谷歌前任首席信息官道格拉斯·梅里尔创立。帮助决策者判断是否应该想拥有不良信息的人提供小额短期贷款。 只有5%的数字数据是结构化的且能适用于传统数据库。 【社会的两个折中的想法】: 1.我们默认自己不能使用更多的数据,所以我们就不回去使用更多的数据。但是,数据量的限制正在逐渐消失,而且通过无限接近“样本=总体”的方式来处理数据,我们会获得极大的好处。 2.在小数据时代,追求精确度是合理的。但是对于其他事情,快速获得一个大概的轮廓和发展脉络比严格的精确性要重要的多。 大数据更强调数据的完整性和混乱性,帮助我们进一步接近事实真相。“部分”和“确切”的吸引力是可以理解的。但是,当我们的事业局现在我们可以分析和能够确定的数据上市,我们对世界的整体理解就可能产生偏差和错误。
引自 前三章