json 格式是:
{
"AAPP":["0","0","0","0","0"],
"AAPP_TD":["0","0","0","0","0"],
"ABC1_ECM":["1","1","1","1","1"],
...,
"ROWKEY":"30072019B20020051"}
1 habin OP 提取其中需要的键值对进 pandas,比如"ABC1_ECM":["1","1","1","1","1"] 中的 ABC1_ECM 作为表头,列表作为数据 |
2 faketemp 2019-08-07 15:31:31 +08:00 如果要一次性装载 1G 大小的 json 在内存中分析 感觉会很卡很慢 试过用 python 加载 200M 左右的文本文件约 1000 万行数据,用传说中的大数据清洗工具 flashtext 替换一个字词超过半个钟(不知道是不是姿势不太对),只能放弃 不知道大文本 /大数据清洗到底该用什么趁手工具或者库? |
![]() | 3 JCZ2MkKb5S8ZX9pq 2019-08-07 15:42:27 +08:00 ![]() 这么大的话,我会选择先搞进 mongodb,顺便把常用的索引也做了。 |
![]() | 4 Orenoid 2019-08-07 15:46:57 +08:00 这个大小就不应该用 json 存吧。。格式固定的话,自己逐行读取解析吧 |
![]() | 5 mystorp 2019-08-07 15:56:15 +08:00 via Android 使用 json stream parser 如果是 node,可以看看这个库:JSONStream。其它语言的自己搜索下 |
![]() | 6 IanPeverell 2019-08-07 17:13:39 +08:00 先存到 mongo 或者 redis 里然后再读吧 |
7 CCColby 2019-08-07 17:41:05 +08:00 按照行读,设置 chunk size ?然后 for 处理咯 |
![]() | 8 SbloodyS 2019-08-07 17:53:48 +08:00 1G 不大,开多几个进程切片就好了,想快就开 spark |
![]() | 9 shuson 2019-08-07 18:13:36 +08:00 用 hive,create external table 然后用 spark sql 读 |
![]() | 10 flyingghost 2019-08-07 18:44:19 +08:00 这么规整的文件,是否可以考虑尝试当做 csv 来读? read_csv 的 sep 参数支持正则的。 |
![]() | 11 F281M6Dh8DXpD1g2 2019-08-07 18:47:24 +08:00 via iPhone pyspark 读完写入数据库 轻轻松松 |
![]() | 12 JunoNin 2019-08-07 18:54:18 +08:00 via Android 这么大,来看看别人怎么说 |
13 gam2046 2019-08-07 19:37:10 +08:00 分情况,内存状况是否允许一次性载入内存 - 允许:一把梭,小文件怎么搞,这个一样搞,无非费点内存 - 不允许:使用 Stream API 读取,避免一次性载入内存 |
![]() | 14 smallgoogle 2019-08-07 19:38:50 +08:00 真心太大了。还先想想把它导入数据库把。 |
![]() | 15 gamexg 2019-08-07 21:20:42 +08:00 ![]() 流式解析,流式写入即可 python 不熟悉,关键字 python stream json 搜索到的库: https://github.com/danielyule/naya http://explique.me/Ijson/ |
16 arrow8899 2019-08-07 22:32:01 +08:00 ![]() 同楼上,可以通过 stream 来解析; 不过我好奇这文件怎么来的,而且用 Json 来传输这么大的数据损耗太严重了,用其他二进制格式的话,数据大小可以减小好几倍;再分析下数据的规律,其实还有很大的压缩空间。 |
![]() | 17 momocraft 2019-08-07 22:38:38 +08:00 这个 json 的 py 内存表示 可能比 json 字符串本身大不少 |
![]() | 18 necomancer 2019-08-10 14:40:26 +08:00 pandas 不是有 read_json 函数么……没用过,但是印象里 pandas 的解析器大多是 C 版的,效率应该不差。 |
19 feelyou 2019-08-30 13:11:30 +08:00 我这里有个 96g 的 json。。。 |