excel数据透视表中,报表筛选、行标签、列标签、数值。这四个是什么意思

excel数据透视表中,报表筛选、行标签、列标签、数值。这四个是什么意思,第1张

excel数据透视表中报表筛选的意思就是根据用户的要求将满足条件的数据通过筛选记录下来,行标签的指的是整个一行的字段,列标签是指每竖排的字段,而数值的意思就是每一个单元格的内容。

扩展资料

应用:

在Access中可以用“数据透视表向导”来创建数据透视表。这种向导用Excel创建数据透视表,再用Microsoft Access创建内嵌数据透视表的窗体。

报表概述

处理源数据:

在创建数据透视表 (数据透视表:一种交互的、交叉制表的 Excel 报表,用于对多种来源(包括 Excel 的外部数据)的数据(如数据库记录)进行汇总和分析)或数据透视图报表 (数据透视图:提供交互式数据分析的图表,与数据透视表类似。

可以更改数据的视图,查看不同级别的明细数据,或通过拖动字段和显示或隐藏字段中的项来重新组织图表的布局)时,可使用多种不同的源数据 (源数据:用于创建数据透视表或数据透视图的数据清单或表。

源数据可以来自 Excel 数据清单或区域、外部数据库或多维数据集,或者另一张数据透视表。)类型。

工作表数据:

您可以将 Microsoft Office Excel 工作表中的数据作为报表的数据来源。该数据应采用列表 。

格式,其列标签应位于第一行。后续行中的每个单元格都应包含与其列标题相对应的数据。目标数据中不得出现任何空行或空列。

Excel 会将列标签用作报表中的字段 (字段:在数据透视表或数据透视图中,来源于源数据中字段的一类数据。数据透视表具有行字段、列字段、页字段和数据字段。数据透视图具有系列字段、分类字段、页字段和数据字段)名称。

使用命名区域:

若要使报表的更新更易于进行,请为源区域命名一个名称 (名称:代表单元格、单元格区域、公式或常量值的单词或字符串。名称更易于理解,例如,“产品”可以引用难于理解的区域“Sales!C20:C30”),并在创建报表时使用该名称。

如果命名区域在扩展后包含了更多数据,则可以刷新 (刷新:更新数据透视表或数据透视图中的内容以反映基本源数据的变化。如果报表基于外部数据,则刷新将运行基本查询以检索新的或更改过的数据)报表来包含新的数据。

Excel 表格:

Excel 表格已经采用列表格式,因而是数据透视表不错的候选源数据。当刷新数据透视表时,Excel 表格中新增和更新的数据会自动包含在刷新 *** 作中。

包括汇总Excel 会自动在数据透视表中创建分类汇总和总计。如果源数据包含用“分类汇总”命令(位于“数据”选项卡上的“大纲”组中)创建的自动分类汇总和总计,则应在创建报表前再用该命令将分类汇总和总计删除。

外部数据源:

您可以从数据库、OLAP 多维数据集或文本文件等位于 Excel 外部的源中检索数据。例如,对于要汇总和分析的销售记录,可以为它们维护一个数据库。

Office 数据连接文件如果使用 Office 数据连接 (ODC) 文件 (odc) 为报表检索外部数据,则可以直接将该数据输入到数据透视表中。我们建议使用 ODC 文件为报表检索外部数据。

非 OLAP 源数据这是数据透视表或数据透视图报表使用的基础数据,该数据来自 OLAP 数据库之外的源。例如,来自关系数据库或文本文件中的数据。

参考资料来自:百度百科-数据透视表

1、适用人员不同:OLTP主要供基层人员使用,进行一线业务 *** 作。OLAP则是探索并挖掘数据价值,作为企业高层进行决策的参考。

2、面向内容不同:OLTP面向应用,OLAP面向主题;

4、数据特点不同:OLTP的数据特点是当前的、最新的、细节的,二维的、分立的;而OLTP则是历史的,聚集的,多维的,集成的,统一的;

5、存取能力不同:OLTP可以读/写数十条记录,而OLAP则可以读上百万条记录;

6、工作事件的复杂度不同:OLTP执行的是简单的事务,而OLAP执行的是复杂任务;

7、可承载用户数量不同:OLTP的可承载用户数量为上千个,而OLAP则是上百万个;

8、DB大小不同:OLTP的DB大小为100GB,而OLAP则可以达到100TB;

9、执行时间要求不同:OLTP具有实时性,OLAP对时间的要求不严格。

扩展资料:

OLTP与OLAP的实际应用

OLAP工具是针对特定问题的联机数据访问与分析。它通过多维的方式对数据进行分析、查询和报表。维是人们观察数据的特定角度。

例如,一个企业在考虑产品的销售情况时,通常从时间、地区和产品的不同角度来深入观察产品的销售情况。这里的时间、地区和产品就是维。

这些维的不同组合和所考察的度量指标构成的多维数组则是OLAP分析的基础,可形式化表示为(维1,维2,,维n,度量指标),如(地区、时间、产品、销售额)。

多维分析是指对以多维形式组织起来的数据采取切片(Slice)、切块(Dice)、钻取(Drill-down和Roll-up)、旋转(Pivot)等各种分析动作,以求剖析数据,使用户能从多个角度、多侧面地观察数据库中的数据,从而深入理解包含在数据中的信息。

应用OLTP,就必须重新定义OLTP在企业信息化体系结构中的地位。OLTP不再只是一套能处理订单的老式应用程序。对典型的OLTP系统处理的大规模数据流更新进行同时分析,这种情况很罕见,因为一般认为这不是OLTP的目的。

数据仓库更新固有的延迟阻碍着对最新数据的近实时分析。组织如果要对于数据的变化迅速作出反应,IT部门就必须让OLTP产生比以往更大的作用。

Lambda架构的核心理念是“流批一体化”,因为随着机器性能和数据框架的不断完善,用户其实不关心底层是如何运行的,批处理也好,流式处理也罢,能按照统一的模型返回结果就可以了,这就是Lambda架构诞生的原因。现在很多应用,例如Spark和Flink,都支持这种结构,也就是数据进入平台后,可以选择批处理运行,也可以选择流式处理运行,但不管怎样,一致性都是相同的。

Kylin

Kylin的主要特点是预计算,提前计算好各个cube,这样的优点是查询快速,秒级延迟;缺点也非常明显,灵活性不足,无法做一些 探索 式的,关联性的数据分析。

适合的场景也是比较固定的,场景清晰的地方。

ClickHouse

Clickhouse由俄罗斯yandex公司开发。专为在线数据分析而设计。

Clickhouse最大的特点首先是快 ,为了快采用了列式储存,列式储存更好的支持压缩,压缩后的数据传输量变小,所以更快;同时支持分片,支持分布式执行,支持SQL。

ClickHouse很轻量级,支持数据压缩和最终数据一致性,其数据量级在PB级别。

另外Clickhouse不是为关联分析而生,所以多表关联支持的不太好。

同样Clickhouse不能修改或者删除数据,仅能用于批量删除或修改。没有完整的事务支持,不支持二级索引等等,缺点也非常明显。

与Kylin相比ClickHouse更加的灵活,sql支持的更好,但是相比Kylin,ClickHouse不支持大并发,也就是不能很多访问同时在线。

总之ClickHouse用于在线数据分析,支持功能简单。CPU 利用率高,速度极快。最好的场景用于行为统计分析。

Hive

Hive这个工具,大家一定很熟悉,大数据仓库的首选工具。可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能。

主要功能是可以将sql语句转换为相对应的MapReduce任务进行运行,这样可能处理海量的数据批量,

Hive与HDFS结合紧密,在大数据开始初期,提供一种直接使用sql就能访问HDFS的方案,摆脱了写MapReduce任务的方式,极大的降低了大数据的门槛。

当然Hive的缺点非常明显,定义的是分钟级别的查询延迟,估计都是在比较理想的情况。 但是作为数据仓库的每日批量工具,的确是一个稳定合格的产品。

Presto

Presto极大的改进了Hive的查询速度,而且Presto 本身并不存储数据,但是可以接入多种数据源,并且支持跨数据源的级联查询,支持包括复杂查询、聚合、连接等等。

Presto没有使用MapReduce,它是通过一个定制的查询和执行引擎来完成的。它的所有的查询处理是在内存中,这也是它的性能很高的一个主要原因。

Presto由于是基于内存的,缺点可能是多张大表关联 *** 作时易引起内存溢出错误。

另外Presto不支持OLTP的场景,所以不要把Presto当做数据库来使用。

Presto相比ClickHouse优点主要是多表join效果好。相比ClickHouse的支持功能简单,场景支持单一,Presto支持复杂的查询,应用范围更广。

Impala

Impala是Cloudera 公司推出,提供对 HDFS、Hbase 数据的高性能、低延迟的交互式 SQL 查询功能。

Impala 使用 Hive的元数据, 完全在内存中计算。是CDH 平台首选的 PB 级大数据实时查询分析引擎。

Impala 的缺点也很明显,首先严重依赖Hive,而且稳定性也稍差,元数据需要单独的mysql/pgsql来存储,对数据源的支持比较少,很多nosql是不支持的。但是,估计是cloudera的国内市场推广做的不错,Impala在国内的市场不错。

SparkSQL

SparkSQL的前身是Shark,它将 SQL 查询与 Spark 程序无缝集成,可以将结构化数据作为 Spark 的 RDD 进行查询。

SparkSQL后续不再受限于Hive,只是兼容Hive。

SparkSQL提供了sql访问和API访问的接口。

支持访问各式各样的数据源,包括Hive, Avro, Parquet, ORC, JSON, and JDBC。

Drill

Drill好像国内使用的很少,根据定义,Drill是一个低延迟的分布式海量数据交互式查询引擎,支持多种数据源,包括hadoop,NoSQL存储等等。

除了支持多种的数据源,Drill跟BI工具集成比较好。

Druid

Druid是专为海量数据集上的做高性能 OLAP而设计的数据存储和分析系统。

Druid 的架构是 Lambda 架构,分成实时层和批处理层。

Druid的核心设计结合了数据仓库,时间序列数据库和搜索系统的思想,以创建一个统一的系统,用于针对各种用例的实时分析。Druid将这三个系统中每个系统的关键特征合并到其接收层,存储格式,查询层和核心体系结构中。

目前 Druid 的去重都是非精确的,Druid 适合处理星型模型的数据,不支持关联 *** 作。也不支持数据的更新。

Druid最大的优点还是支持实时与查询功能,解约了很多开发工作。

Kudu

kudu是一套完全独立的分布式存储引擎,很多设计概念上借鉴了HBase,但是又跟HBase不同,不需要HDFS,通过raft做数据复制;分片策略支持keyrange和hash等多种。

数据格式在parquet基础上做了些修改,支持二级索引,更像一个列式存储,而不是HBase schema-free的kv方式。

kudu也是cloudera主导的项目,跟Impala结合比较好,通过impala可以支持update *** 作。

kudu相对于原有parquet和ORC格式主要还是做增量更新的。

Hbase

Hbase使用的很广,更多的是作为一个KV数据库来使用,查询的速度很快。

Hawq

Hawq是一个Hadoop原生大规模并行SQL分析引擎,Hawq采用 MPP 架构,改进了针对 Hadoop 的基于成本的查询优化器。

除了能高效处理本身的内部数据,还可通过 PXF 访问 HDFS、Hive、HBase、JSON 等外部数据源。HAWQ全面兼容 SQL 标准,还可用 SQL 完成简单的数据挖掘和机器学习。无论是功能特性,还是性能表现,HAWQ 都比较适用于构建 Hadoop 分析型数据仓库应用。

以上就是关于excel数据透视表中,报表筛选、行标签、列标签、数值。这四个是什么意思全部的内容,包括:excel数据透视表中,报表筛选、行标签、列标签、数值。这四个是什么意思、OLTP和OLAP有何区别_什么是OLAP、技术选型 - OLAP大数据技术哪家强等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/sjk/9467615.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-28
下一篇 2023-04-28

发表评论

登录后才能评论

评论列表(0条)

保存