1. 首页
  2. 数据库
  3. 其它
  4. Python如何处理大数据?3个技巧效率提升攻略(推荐)

Python如何处理大数据?3个技巧效率提升攻略(推荐)

上传者: 2021-01-03 10:06:45上传 PDF文件 70.67KB 热度 19次
如果你有个5、6 G 大小的文件,想把文件内容读出来做一些处理然后存到另外的文件去,你会使用什么进行处理呢?不用在线等,给几个错误示范:有人用multiprocessing 处理,但是效率非常低。于是,有人用python处理大文件还是会存在效率上的问题。因为效率只是和预期的时间有关,不会报错,报错代表程序本身出现问题了~ 所以,为什么用python处理大文件总有效率问题? 如果工作需要,立刻处理一个大文件,你需要注意两点: 01、大型文件的读取效率 面对100w行的大型数据,经过测试各种文件读取方式,得出结论: with open(filename,rb) as f: for fLi
下载地址
用户评论