我是怎么丢掉Excel的?
发布时间:2021-06-04 15:22:27 所属栏目:大数据 来源:互联网
导读:Excel在过去、现在和未来都是一个无比优秀和天才的工具,无数虔诚的信徒将其奉为唯一的法门,而我却并不在其中了。 作为经常和数据打交道的人,不管是数据分析人,还是表哥表姐、财务人力等岗位,估计都体会过用Excel带来的痛苦: 一旦超过10万的数据量、或
Excel在过去、现在和未来都是一个无比优秀和天才的工具,无数虔诚的信徒将其奉为唯一的法门,而我却并不在其中了。”
作为经常和数据打交道的人,不管是数据分析人,还是表哥表姐、财务人力等岗位,估计都体会过用Excel带来的痛苦:
一旦超过10万的数据量、或者函数、逻辑复杂一些,Excel绝对能卡到怀疑人生;
想要实现数据的分析和清洗,不得不依靠各种函数和VBA,繁琐程度不亚于任何一门编程语言;
业务流转过程中根本没办法保证数据的原貌,拿到手的Excel表不知道修改了多少次.......
虽然不得不说,Excel目前仍然是应用最广泛的数据清洗和统计软件,但是他只适合30万以内的小数据量场景,一旦你的需求会频繁进行变动,Excel就会事倍功半
其实对于数据分析来说,从来都没有最好用和最难用的工具,只有最适合自己和最适合业务场景的软件
Excel的五宗罪
1、数据效率差
其实Excel本身并不适合作为数据分析工具,但是很多人都会利用Excel里的函数和数据分析库进行简单的数据清洗和处理,复杂的数据分析根本无法实现
另一方面,Excel的需求响应不够及时和灵活,一般企业信息部人员工作都是比较繁忙的,对于业务部门提出的数据分析需求可能需要排期等待好几天时间才能有所响应
2、难以支撑大数据量
Excel无法支撑大数据量的核心原因是数据储存的逻辑,Excel是通过占用处理器容量来进行数据读取和处理的,这种方式非常的落后和不方便
造成的结果就是,不说十万的数据行,哪怕你的Excel中有1万行数据,当你进行筛选、计算等操作时都会造成严重的卡顿
3、数据孤岛问题突出
一个公司里有着不同的部门,每个部门的数据需求不同、数据源不同、数据标准不同,当部门之间互相进行数据流动时,就难免会出现数据孤岛的问题
![]() (编辑:上饶站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |