1
lynnworld 2017-05-14 17:28:08 +08:00
为什么每个条目这么大?
|
3
ETiV 2017-05-14 17:45:30 +08:00
这么大数据,还要这么短时间。。。
要是硬盘给力的话,最快的处理方式恐怕就只有 rm -fr 了 |
4
billion 2017-05-14 17:50:51 +08:00
如果你的 MongoDB 用的是阿里云,那么你可以试一试 MaxCompute
|
5
dexterzzz 2017-05-14 18:01:45 +08:00
用内存,列存储数据库
|
6
Kilerd 2017-05-14 18:25:07 +08:00
50GB /60 s = 1G/s
就算是连续读写这个速率都不低啊, 还要进行处理 |
7
wanglaihuai 2017-05-14 18:31:40 +08:00 via Android
@ETiV 哈哈哈哈,这个最快了。
|
8
powergx 2017-05-14 18:31:51 +08:00
ramdisk 可以, 延迟 /吞吐量能达标。 云端不可能有
|
9
rrfeng 2017-05-14 18:34:10 +08:00
如果还会增长的话趁早改 Hadoop 平台,各种选择
如果永远这么点儿的话 MongoDB SSD 多加内存也是可以的,但是要注意主机网络带宽(云主机内网带宽),一定会成为第一个瓶颈。解决方案是分片 |
10
kaneg 2017-05-14 18:37:14 +08:00 via iPhone
hanadb
|
11
chocolatesir 2017-05-14 18:56:04 +08:00 via Android
或许 conoha 可以。。
|
12
ihuotui 2017-05-15 13:15:07 +08:00 via iPhone
业务是怎样?单数据量有什么好说
|