manbetx官方网站

收拾好数据期末考试复习提纲–概念整理。整理好数量期末考试复习提纲–概念整理。

九月 30th, 2018  |  中超

颇数目简介

颇数目简介

挺数额的定义

Volume(数据容量)、Variety(数据类型)、Viscosity(价值密度)、Velocity(速度)、Veracity(真实性)

深数额的定义

Volume(数据容量)、Variety(数据类型)、Viscosity(价值密度)、Velocity(速度)、Veracity(真实性)

酷数额的性能

切莫结构性、不完备性、时效性、安全性、可靠性

杀数量的习性

非结构性、不完备性、时效性、安全性、可靠性

非常数据处理的均经过

数码搜集与记录 –>  数据抽取、清洗、标记  –> 
数据并、转换、简约  –>  数据解析和建模  –>  数据说明

老大数额处理的净经过

数据收集和记录 –>  数据抽取、清洗、标记  –> 
数据并、转换、简约  –>  数据解析以及建模  –>  数据说明

好数量技术之表征

1.解析到的多寡如果不自由取样

2.讲究数量的纷繁,弱化精确性

3.体贴数据的相关性,而未以果关系

雅数据技术之风味

1.分析到的数额如果无自由取样

2.强调数量的纷繁,弱化精确性

3.关爱数据的相关性,而不因为果关系

异常数目的关键技术

注处理、并行化、摘要索引、可视化

十分数据的关键技术

流动处理、并行化、摘要索引、可视化

充分数额利用趋势

分割市场、推动公司进步、大数目解析的初方式出现、大数额及叙计算高度融合、大数据总体设施陆续出现、大数量安全

挺数目以趋势

分开市场、推动企业提高、大数量解析的新点子出现、大数目与出口计算高度融合、大数额整体设施陆续出现、大数据安全

是研究范式

率先范式(科学实验)、第二范式(科学理论)、第三范式(系统模拟)、第四范式(数据密集型计算)

是的研究范式

率先范式(科学实验)、第二范式(科学理论)、第三范式(系统模拟)、第四范式(数据密集型计算)

格雷法则

1.科学计算数据爆炸式增长

2.化解方案为横向扩张的网布局

3.以计用于数据要未是数用于计算(把程序于数迁移。以计算呢主干转移吗因数量为核心)

格雷法则

1.科学计算数据爆炸式增长

2.解决方案为横向扩张的网布局

3.以计用于数据如果非是数额用于计算(把程序为数迁移。以计算也核心转移也坐数量吧骨干)

CAP理论

Consistency(一致性)、Availability(可用性)、Partition
Tolerance(分区容错性)

CAP理论

Consistency(一致性)、Availability(可用性)、Partition
Tolerance(分区容错性)

CAP定理

一个分布式系统不可能还要满足一致性、可用性、分区容错性三独系统要求,最多只能以满足个别单。

CAP定理

一个分布式系统不可能还要满足一致性、可用性、分区容错性三个网要求,最多只能以满足个别单。

CAP选择

1.放弃分区容错,导致可扩展性不愈:MySQL、Postgres

2.放弃可用性,导致性不是特意高:Redis、MongoDB、MemcacheDB、HBase、BigTable、Hypertable

3.放弃一致性,对一致性要求低:Cassandra、Dynamo、Voldemort 、CouchDB

CAP选择

1.放弃分区容错,导致可扩展性不强:MySQL、Postgres

2.放弃可用性,导致性不是特别大:Redis、MongoDB、MemcacheDB、HBase、BigTable、Hypertable

3.放弃一致性,对一致性要求小:Cassandra、Dynamo、Voldemort 、CouchDB

HDFS

HDFS

HDFS目标

1.兼容廉价的硬件配备

2.流数额读写

3.十分数据集

4.粗略的文书模型

5.强硬的跨平台兼容性

HDFS目标

1.兼容廉价的硬件设备

2.流数读写

3.充分数据集

4.简的文书模型

5.雄的跨平台兼容性

HDFS主要组件(图来源哈尔滨理工大学老数量课程李先生的课件)

图片 1

HDFS主要组件(图源哈尔滨理工大学大数额课程李先生的课件)

图片 2

HDFS读文件

图片 3


 

图片 4

HDFS读文件

图片 5


 

图片 6

HDFS写文件

图片 7

HDFS写文件

图片 8

HDFS容错

1.心跳检测:NameNode和DataNode之间

2.文本块完整性:记录新建文件所有片的校验和

3.集群载重均衡:自动从负载重的DataNode上迁移数据

4.文书去:存放在/trash下,过一段时间才正式删除。在hdfs-site.xml中布置

HDFS容错

1.心跳检测:NameNode和DataNode之间

2.文书块完整性:记录新建文件所有片的校验和

3.集群载重均衡:自动从负载重的DataNode上迁移数据

4.文件去:存放在/trash下,过一段时间才正式删除。在hdfs-site.xml中安排

MapReduce

MapReduce

函数式编程优点

1.逻辑可证

2.模块化

3.组件化

4.轻调试

5.易为测试

6.再次胜的生产率

函数式编程优点

1.逻辑可证

2.模块化

3.组件化

4.易调试

5.易给测试

6.双重胜之生产率

函数式编程的特色

1.没有副作用:没有改动过函数在那个作用域之外的计量并于别函数使用

2.无状态之编程:将状态保存在参数中,作为函数的附赠品来传递(不是甚懂)

3.输入值和输出值:在函数式编程中,只有输入值和输出值。函数是主导的单位。在面向对象编程中,将对象传来传去;在函数式编程中,是将函数传来传去。

函数式编程的风味

1.从未副作用:没有改动过函数在该作用域之外的量并吃其他函数使用

2.无状态之编程:将状态保存在参数中,作为函数的附赠品来传递(不是非常明白)

3.输入值和输出值:在函数式编程中,只有输入值和输出值。函数是基本的单位。在面向对象编程中,将目标传来传去;在函数式编程中,是拿函数传来传去。

MapReduce流程图(图来源南京大学黄宜华先生的课件)

图片 9

MapReduce流程图(图自南京大学黄宜华先生的课件)

图片 10

好数额流式计算

老数据流式计算

流式数据的特性

实时性、易失性、突发性、无序性、无限性、准确性

流式数据的特色

实时性、易失性、突发性、无序性、无限性、准确性

深数目流式计算模型

数据流管理体系:固定查询、ad hoc查询

雅数量流式计算:Twitter Storm、Yahoo S4

酷数目流式计算模型

数据流管理体系:固定查询、ad hoc查询

杀数据流式计算:Twitter Storm、Yahoo S4

Storm总体架构

主节点Nimbus:负责全局资源分配、任务调度、状态监控、故障检测

从节点Supervisor:接收任务,启动或终止工作经过Worker。每个Worker内部有多独Executor。每个Executor对应一个线程。每个Executor对应一个或多单Task。

Zookeeper:协调、存储长数据、从节点心跳信息、存储整个集群的备状态信息、所有配置信息

Storm总体架构

主节点Nimbus:负责全局资源分配、任务调度、状态监控、故障检测

起节点Supervisor:接收任务,启动或停工作历程Worker。每个Worker内部有差不多个Executor。每个Executor对应一个线程。每个Executor对应一个要多只Task。

Zookeeper:协调、存储头条数据、从节点心跳信息、存储整个集群的富有状态信息、所有配置信息

Storm特征

1.编程简单

2.支持多语言

3.作业级容错

4.水准扩展

5.底层使用Zero消息队列,快

Storm特征

1.编程简单

2.支持多语言

3.作业级容错

4.品位扩展

5.底层使用Zero消息队列,快

Storm缺点

1.资源分配没有考虑任务拓扑的结构特征,无法适应数据负载的动态变化

2.采取集中式的作业级容错,限制了网的只是扩展性

Storm缺点

1.资源分配没有设想任务拓扑的结构特征,无法适应数据负载的动态变化

2.采用集中式的作业级容错,限制了系的但扩展性

追寻引擎

追寻引擎

寻引擎的概念

据悉早晚之国策、运用特定的处理器程序、从互联网及采访信息,对信息进行组织同处理以后,将这些消息显示给用户的体系给搜索引擎。

检索引擎的定义

基于早晚的国策、运用特定的微处理器程序、从互联网上采集信息,对信息进行集体和处理下,将这些消息显示给用户的网让搜索引擎。

觅引擎的咬合

搜索器:搜集信息

索引器:抽取索引

检索器:在仓房中检索,排序。

用户接口:展示

招来引擎的结合

搜索器:搜集信息

索引器:抽取索引

检索器:在仓房中摸索,排序。

用户接口:展示

找寻引擎的干活进程

爬行 -> 抓取存储 -> 预处理 -> 排名

搜寻引擎的做事历程

爬行 -> 抓取存储 -> 预处理 -> 排名

找引擎的评头品足指标

查全率、查准率、响应时间、覆盖范围、用户方便性

摸引擎的评说指标

查全率、查准率、响应时间、覆盖范围、用户方便性

特别数据解析

十分数量解析

数据解析的目的

针对乱的数据开展汇总、萃取、提炼,进而找出所研究对象的内在规律,发现那价。

数据解析的目的

本着乱的数额进行集中、萃取、提炼,进而找出所研究对象的内在规律,发现其价。

数据解析的意义

于纷纷扬扬之数遭到剖析产生有价的情,获得对数据的咀嚼。

数据解析的意义

在混乱之多寡中分析有有价之始末,获得对数据的咀嚼。

多少解析的档次

1.探索性数据解析(为了形成值得假设的考查)

2.定性数据解析(非数值型数据)

3.离线数据解析(先存于磁盘,批处理)

4.在线数据解析(实时)

数量解析的项目

1.革命性数据解析(为了形成值得假设的验证)

2.定性数据解析(非数值型数据)

3.离线数据解析(先存于磁盘,批处理)

4.在线数据解析(实时)

相关文章

标签:,

Your Comments

近期评论

    功能


    网站地图xml地图