1
bombless 2015-01-18 17:30:12 +08:00
xargs 大法好,退 Java 保平安。
|
2
liprais 2015-01-18 17:35:17 +08:00
"Hopefully this has illustrated some points about using and abusing tools like Hadoop for data processing tasks that can better be accomplished on a single machine with simple shell commands and tools. If you have a huge amount of data or really need distributed processing, then tools like Hadoop may be required, but more often than not these days I see Hadoop used where a traditional relational database or other solutions would be far better in terms of performance, cost of implementation, and ongoing maintenance."
说的太好了.... |
3
damngood 2015-01-18 17:36:24 +08:00
还可以出一个 数据库 版本的
|
4
est 2015-01-18 17:38:12 +08:00
> Since the data volume was only about 1.75GB containing around 2 million chess games
数据不比单机内存大就不要上hadoop啥的了。mmap啥的完爆所有工具。 |
5
invite 2015-01-18 18:04:17 +08:00
hadoop ? 云计算那个? 这个本来就有它应用的局限性.
|
6
hahastudio 2015-01-18 18:14:21 +08:00
本来的,hadoop 启动起来就要花些时间,map 和 combine 也可以看成是“无意义”的时间消耗
我觉得主要还是在于大数据被炒得很火,不管有没有那么多的数据都想耍一耍,提高逼格 可你的数据一台机器就能放得下,为什么要用 hadoop 呢= = |
7
sivacohan 2015-01-18 18:28:52 +08:00 via Android
任何一本讲并行计算的书都会提到一点。
开销。 指因算法并行化而相对串行算法产生的额外时间,空间。 实际工程很多人都把开销自动忽略了。 |
8
zhicheng 2015-01-18 18:43:05 +08:00
可是这样就木有办法装逼了呀。
|
9
glogo 2015-01-18 18:56:58 +08:00
霸气!!!
|
11
nbndco 2015-01-18 19:19:32 +08:00
醉了,1.75G还要用hadoop……
|
12
s51431980 2015-01-18 21:44:27 +08:00 2
不要单看数据大小,1G的图关系数据和1G的时间序列处理难度完全不一样,有些人既然不是这个领域就不要暴露自己的无知了
|
13
adjusted 2015-01-18 21:47:06 +08:00
想起以前看过的“your data is not that big”
|
14
binux 2015-01-18 21:53:02 +08:00
1.75G,12秒。。。别闹
|
15
9hills 2015-01-18 22:35:38 +08:00 via iPad
看了下,作者意识到数据是流式的,所以没用Hadoop
|
16
monkeylyf 2015-01-19 01:30:46 +08:00
1.75gb用hadoop确实overkill了 尤其是这种仅仅是最简单的mapreduce
235xfaster这种数字拿出来不怕被人打脸吗 |
17
yuankui 2015-01-19 09:23:11 +08:00
当数据量到达 TB,PB级时再说吧。。
hadoop本来就不是用来处理GB级数据的。。 |
18
liprais 2015-01-19 12:32:40 +08:00
https://news.ycombinator.com/item?id=8908462
Hackers News上的评论 |
19
oneoo 2015-01-19 13:21:17 +08:00 1
抛个题:UPYUN.com 的CDN系统有超过1000+台服务器的访问日志,总量800GB~1TB压缩内容,里面包含有10w个域名的URL,业务需要把这些日志按域名切分好,以提供给客户下载,另外再附加一个统计分析业务,分top1000 URL,top1000 referer, top1000 useragent, top1000 文件大小。
你觉得: 这是大数据吗? 需要Hadoop等分布式处理吗? 这个处理集群大概要多少台物理机? 有更好的方式吗? |
20
zhimingcc 2015-01-19 14:35:44 +08:00
因为问题多样性,技术也应该多样性,不应该只用一种技术解决不同的问题,软件工程师们应该有更灵活的方案,不应该重复用一套轮子。。。。
问题是,对各种技术理解深刻的软件工程师多么? |