
正在进行BI选型,不知道tableau怎么样
有没有哪些比较显著的缺点
之前公司进行BI选型,也调查了市面上的部分BI软件,所以对于这几个还是比较了解的,正好都在调查的范围。
qlikview 和tableau都是国外的软件,所以对于国内的复杂业务,还是有一定的不适应性,现在分别讲下各自的优缺点吧,给你选型做参考~首先是qlikview,qlikview对于使用者有一定的要求,因为其很大一部分功能是基于脚本编辑的,所以就要求使用者有脚本编辑能力,由于qlikview是国外软件,所以在国内的中文资料较少,不易于学习。
qlikview的数据分析能力也稍弱于其他三个,比较侧重于开发和数据可视化,扩展性不错,总体来说,学习起来有困难,学习成本较高,不容易上手,企业内部使用也不容易推广。
其次是tableau,在国内拥有众多可选择的BI软件情况下,个人认为没必要选择tableau,其一是价格,价格确实不低,在BI选型的时候价格也是一个重要的考量因素,能达到同样效果的,一般肯定会选择价低者。
其二,学习成本,大家都知道tableau是国外的老牌BI软件,所以很多的学习教材,包括教学视频,其实都是英文版的,这就加大了学习成本,包括企业内部推广成本,其三,tableau对数据源质量要求很高,不符合它使用规范的数据会引发数据的错乱,而对数据进行预处理需要对数据有深刻的理解和结构化认识,对使用者素质要求较高,这样反而加重了对数据清洗的工作量,当然,tableau在数据可视化方面以及用户权限分配上做的还是挺不错的。
finebi的话,在国内的市场份额还是蛮大的,早期是专注于传统报表的图表组件功能,在敏捷BI的冲击下市场受到了冲击并开始转向敏捷路线,但仍然依赖于Cube处理数据,操作略复杂不支持数据挖掘。
最后说说我比较看好的datafocus吧,用完datafocus之后,最大的感受就是操作简单,功能强大,这个操作简单程度是其他几个没法做到的,主要依赖于他们的交互方式,采用的是他们独有的自然语言处理引擎技术,所以数据分析就跟百度搜索一样,直接输入自然语言,系统智能地以最合适的图表来回答,这个方式很新颖也很方便易学,而且他们在权限控制,图表类型,数据处理方面表现的也蛮强大,可以满足一些复杂的业务当然,最后怎么选择,选择怎么样的BI,还是要结合自己的实际情况啦~最好可以先试用下,很多产品都是可以试用的,例如finebi啊,tableau啊,datafocus啊,都是可以试用哒~
tableau和qlikview哪个好用
OurwayBI采用Node.js。
Node.js是一个Javascript运行环境(runtime),它实际上是对Google V8引擎进行了封装。
V8引擎执行Javascript的速度非常快,利用基于时间序列的内存计算技术,减少与数据库的交互,可大大提升效率。
操作指引更易上手:OurwayBI为了让用户不进行任何培训即可掌握常用操作,设置了操作指引,智能引导用户逐步掌握基本操作及各项技巧。
整个产品的UI进行了大量细节优化,以增加使用者的美观要求与使用体验等。
新手怎么学习数据分析
对于很多想要从事互联网数据分析的人来说,一大难点就是如何准备行业知识。
一方面很少有学校设置像“互联网数据分析”这样的专业,即使有的学校有诸如 digital marketing 类似的专业,跟公司做的也还是差别不小。
另一方面还有很多人想从别的行业跳到互联网行业,像 Facebook analytics data scientist 就有很大一部分以前是做金融、咨询之类的。
不管是刚毕业的,还是之前从事别的行业想要转到互联网行业的人来说,如果能顺利搞定面试中的案例分析 (case analysis),基本就成功了一大半。
以 Facebook analytics data scientist 的工作要求为例,基本上一半的要求是跟 technical 相关,例如 SQL 等,另一半则主要跟产品相关,考察的是产品思维 (product sense) 和案例分析的能力,此外还有少数的统计、数学、概率等。
面试中产品思维、案例分析相关更是占据半壁江山。
不同行业不同公司要求会很不一样,比如说银行做数据分析、建模会要求 SAS\\\/SQL,而互联网行业数据分析只要会 SQL 就可以了。
再比如说小公司可能会要求还会 R\\\/Python 什么的,但是稍微中型一点的公司比如说 Facebook 只需要会 SQL 就行了。
乍一看有点奇怪,但其实也不奇怪,因为大一点的公司基础设施 (infra) 做得好,很多事情比如说 A\\\/B test 这种都自动化了,不需要专门写代码。
接下来的内容都搞照中型以上互联网公司为例。
数据分析师需要三个方面的能力:技术(编程),数据分析方法,行业知识。
1. 技术 技术方面就是 SQL,20 个小时,假设文科生,同时对自己要求高一点,最多 80 个小时可以搞定了。
按照这个学习SQL 教程_w3cschool 重点需要注意的:where \\\/ group by \\\/ order by \\\/ left join \\\/ right join \\\/ inner join \\\/ null \\\/ not null \\\/ having \\\/ distinct \\\/ like \\\/ union \\\/ avg \\\/ sum \\\/ min \\\/ max 学完之后再搜索一下 SQL hardest questions, 做做练习。
当然除了 SQL 之外,Excel 也是要会一点的。
不过 Excel 这玩意儿基本多少都会那么些吧,比如说做个图,算算总合、平均之类的,稍微复杂点的数据透视表 (pivot) 就够了。
话说我第一份工作的时候连数据透视表都不会,所以说如果你不会这个,那也没关系。
如果 SQL 上手比较快,时间充裕,那就练练 Tableau, 主要目的是看看都有什么样的图表,感受一下各自适用什么样的场景。
具体怎么做图不是非常重要,真要用的时候搜索一下现学就好了。
Tableau 很贵,所以下个试用版的就可以了,然后试用期学点最基本的就可以了。
这一共就假设用了 80 个小时吧,那么 8 天过去了(没算错,都要速成了,那还不每天学习 10 个小时)。
2. 数据分析方法 学习数据分析的一些书籍 Case in point. 经典的管理咨询的书,哪个版本的都无所谓了,印象中大概看了一半左右。
好像是因为懒,所以没看完,也因为套路都是类似的,看一半也就差不多可以了。
-- 5 天 Introduction to Probability Models by Sheldon M. Ross. 应该是出到第 11 版了,但内容应该区别不大,看第一章就可以了,需要搞清楚条件概率,这个概念还是有点重要的。
-- 4 天然后再找本统计基础的书(随便哪本教科书都差不多,实在不行的话把 wiki 上统计长条目下的多看几遍也可以),不要太纠结于理论、证明,时刻记住你要能把这些概念解释给不懂统计的人听,解释不清楚的东西你也不用搞清楚。
搞清楚几种常见的分布,假设检验,假阳性,假阴性,区别估算,显著性差异,p-value,平均值,中位数,p1\\\/p25\\\/p50\\\/p75\\\/p99,相关性,因果性,幸存者偏差,大数定律,80\\\/20。
-- 10 天 Thinking, Fast and Slow. 当科普书看看就好,如果看不下去的话那就看《牛奶可乐经济学》。
-- 2 天 3. 行业知识 很不幸,这一部分就真的没有什么书可以看的了,基本都靠搜索,总结,思考,再搜索,总结,思考…… 如果平时对互联网、科技行业相对比较关注,这一部分会上手很快,了解一些基本概念,试用一些产品,基本上 20 天肯定可以了。
基本上把这些搞清楚,也差不多可以入门了吧。
看,加起来正好 49 天,7 周速成班,你要不要试试
数据分析入门并不难,难的是之后的积累才是重点,如何在实际工作、项目中真正发挥数据分析的作用,产生价值。
就我个人来说之前在信用卡行业做了两年多,然后转到互联网行业的数据分析,现在又做了半年多,感觉自己除了入门啥都不懂,每到周五下午都很开心,不是因为到周末了,而是因为又一周过去了,而我还没有被走人。
大数据分析软件有哪些
大数析用什么分析软件? 一般基础数据分析用 excelorigin,功能还较强大的,大数据分析用SAS, SPSS,RSA,MATLAB,DPS,EVIEWS, GAUSS, Minitab, Statistica,FineBI,最新的还有采用Hadoop技术。
SAS可以用来设计正交试验,SAS比SPSS功能多一些,RSA用来作相应面分析,MATLAB是面向矩阵的,可以做很多方面,比如:数值分析,模式识别,优化...里面包含了巨丰富的工具箱,小波分析,遗传算法等。
photoshop当然是必需的,可以修整下图片,润色,美化,删繁存简。
国内帆软公司的FineBI支持即时分析和多维分析即OLAP。
以大数据为主题,写一篇1500字的文章
事实上,所谓“大数据时代”的说法并不新鲜,早在2010年,“大数据”的概念就已由美国数据科学家维克托·迈尔·舍恩伯格系统地提出。
他在 大数据时代一书中说,以前,一旦完成了收集数据的目的之后,数据就会被认为已经没有用处了。
比如,在飞机降落之后,票价数据就没有用了;一个网络检索命令完成之后,这项指令也已进入过去时。
但如今,数据已经成为一种商业资本,可以创造新的经济利益。
数据能够成为一种资本,与移动互联网有密切关系。
随着智能手机、平板电脑等移动数码产品的“白菜化”,Wi-Fi信号覆盖的无孔不入,越来越多的人不再有“在线时间”和“不在线时间”之分,只要他们愿意,便可几乎24小时一刻不停地挂在线上;在线交易、在线支付、在线注册等网络服务的普及固然方便了用户,却也让人们更加依赖网络,依赖五花八门的网上平台。
而随着科技的进步,以往需要几盒软盘或一张光盘保存的信息,如今只需一片指甲盖大小的芯片,即可全部储存而且绰绰有余;以往需要电脑、显示器、读卡器等专门设备才能读取的数码信息载体,如今或许只需一部智能手机和一个免费下载的APP第三方应用程序,便可将数据一览无余。
大数据时代的科技进步,让人们身上更多看似平常的东西成为“移动数据库”,如带有存储芯片的第二代银行卡、信用卡,带有芯片读取功能的新型护照、驾驶证、社保卡、图书证,等等。
在一些发达国家,官方为了信息录入方便,还不断将多种“移动数据库”的功能组合成一体。
数字化时代使得信息搜集、归纳和分析变得越来越方便,传统的随机抽样被“所有数据的汇拢”所取代,基于随机抽样而变得重要的一些属性,如抽样的精确性、逻辑思辨和推理判断能力,就变得不那么重要,尽可能汇集所有数据,并根据这些数据得出趋势和结论才至为关键。
简单说,以往的思维决断模式是基于“为什么”,而在“大数据时代”,则已可直接根据“是什么”来下结论,由于这样的结论剔除了个人情绪、心理动机、抽样精确性等因素的干扰,因此,将更精确,更有预见性。
不过,一些学者指出,由于“大数据”理论过于依靠数据的汇集,那么一旦数据本身有问题,在“只问有什么,不问为什么”的模式下,就很可能出现“灾难性大数据”,即因为数据本身的问题,而做出错误的预测和决策。



