On 5月12日, 上午11时16分, agentzh <agen...@gmail.com> wrote:
> 2009/5/12 Gene <netg...@hotmail.com>
>
> > GOOD.
> > 另外请教下哈希与内存,如果数据海量级的,效率问题,及内存占用问题?
>
> 海量级的数据,除非 RAM 也是海量级的。。。呵呵。我们曾经为了方便,用了 2 GB 的 perl hash 来完成一件 YST
> 相关的工作,发现最后释放这个 hash 总是需要很长的时间,所以我们直接 kill 自己退出了事,让 OS 去回收。如果 RAM
> 不富余的话,我们一般会使用 BerkeleyDB 或者 Tokyo Cabinet 来进行存储。当然,机器很多时,memcached
> 集群也不失为一种很不错的选择,呵呵。。。
>
> Perl 数据结构的内存效率从来就不是性能过人的,即便是 SV 这样的东西亦是如此。。。呵呵(当然也要看和谁比了)
>
> Cheers,
> -agentzh
--~--~---------~--~----~------------~-------~--~----~
您收到此信息是由于您订阅了 Google 论坛"PerlChina Mongers 讨论组"论坛。
要在此论坛发帖,请发电子邮件到 perlchina@googlegroups.com
要退订此论坛,请发邮件至 perlchina+unsubscribe@googlegroups.com
更多选项,请通过 http://groups.google.com/group/perlchina?hl=zh-CN 访问该论坛
-~----------~----~----~----~------~----~------~--~---
2009年5月11日星期一
[PerlChina] Re: 请教合并一文件中域1相同的记录,域2进行累加
THX!很有帮助。
订阅:
博文评论 (Atom)
没有评论:
发表评论