海量级的数据,除非 RAM 也是海量级的。。。呵呵。我们曾经为了方便,用了 2 GB 的 perl hash 来完成一件 YST 相关的工作,发现最后释放这个 hash 总是需要很长的时间,所以我们直接 kill 自己退出了事,让 OS 去回收。如果 RAM 不富余的话,我们一般会使用 BerkeleyDB 或者 Tokyo Cabinet 来进行存储。当然,机器很多时,memcached 集群也不失为一种很不错的选择,呵呵。。。
Perl 数据结构的内存效率从来就不是性能过人的,即便是 SV 这样的东西亦是如此。。。呵呵(当然也要看和谁比了)
Cheers,
-agentzh
--~--~---------~--~----~------------~-------~--~----~
您收到此信息是由于您订阅了 Google 论坛"PerlChina Mongers 讨论组"论坛。
要在此论坛发帖,请发电子邮件到 perlchina@googlegroups.com
要退订此论坛,请发邮件至 perlchina+unsubscribe@googlegroups.com
更多选项,请通过 http://groups.google.com/group/perlchina?hl=zh-CN 访问该论坛
-~----------~----~----~----~------~----~------~--~---
没有评论:
发表评论