【ビッグデータ】Hadoop はデータの更新がしにくい


データ解析アイコン

Hadoop はスケールアウトでの性能アップは見込めるけどビッグデータ以外なら普通に処理した方がいい。
ほとんどの企業には向いていない。データの更新がしにくいのがたまに傷。

TwitterやFacebookで使われている「Apache Hadoop」のメリットや歴史を作者自らが語る – GIGAZINE
http://gigazine.net/news/20110902_apache_hadoop/

Hadoopを触る機会が増えてきたんだけど、大量のデータを一気に捌いてくれるのは嬉しいんだけど、
一度作成したデータを再利用したりするのには不向き。

心理パターンたくさんありすぎ。今度は3000パターンぐらいで。
人は一瞬のうちにウン万通りだったかな? ものすごい数の思考をしているらしい。
1年に3000回ぐらいだったら、わかりやすかったのにと思う。

総まとめ。あなたが間違いを犯す36の心理パターン – ジャスウィル社員ブログ
http://www.jaswill.co.jp/member/2011/09/post-433.html

北斗の拳バージョンがほしい。この発想はあったんだけど、実現力がなかった。

Diwao.com » 爽快感抜群!カメラに写ったものをフルボッコにできるアプリ「AR Fighter」
http://diwao.com/2011/09/ar-fighter.html


あなたの「いいね」が欲しいです。
「【ビッグデータ】Hadoop はデータの更新がしにくい」をシェアする
 
 このエントリーをはてなブックマークに追加  LINE  
 はてなブックマークやLINEでシェアされると、よろこびます。 
 

コメントを残す

メールアドレスが公開されることはありません。

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください