全くの仮説
これから述べる事は、何の根拠も有りません。完全な空想的仮説です。
- データを時系列順に処理するのは古く、分散処理で、非同期処理が新しい
と言う主張は、
- HPC(スーパーコンピュータ)が在る場所では、確かに「ハードウェアの更新を伴う、ガチのソフトウェアのイノベーション」に相当したが、
- それが普遍的な科学的事実だと思い込んだ人間が、投資も終わった事務計算システムの保守フェーズをやっている場所(一番いいPCで、Xeon E 3000番台1個で、メモリ8GB、ハードディスクもTBに行かない)に頼まれもしないのにやってきて、
- 普通に仕事をしていた人間をつかまえて、古いとか価値が低いとか言いまくっていた。
と言う背景が有ったのでは無いか? と言う事です。
HPCのハードなら、すごいCPU(ベクトル性能もスカラー性能も)が万、十万、百万単位で有り、衝突が起こらないトポロジーで作られた専用高速通信が張り巡らされ、しかも、対応する問題は大気のシミュレーションとかで、必ず近所のみとしか影響を及ぼさなかったりして、
- データを時系列順に処理するのは古く、分散処理で、非同期処理が新しい
と言うのもアリに見えますが、
そう言うハードウェアの無い所で、そうで無い問題領域で、その様な事を主張するのは本当に科学だったのでしょうか?
どう考えても、納得出来ません。
向こうは学術的根拠が有り、こちらは単なる個人の感想だと言うのがそもそも正しかったのでしょうか?
おかしい点は他にも有ります
- データを時系列順に処理するのは古く、分散処理で、非同期処理が新しい
と言うなら、各データのキー項目は、そうで無いやり方の時に比べ、量が多くならないとおかしいはずです。
文脈にとらわれず、各データを特定するには、キー項目を(当たり前の所から、最も特定する所まで)全部書かないといけないからです。
しかし、
- データを時系列順に処理するのは古く、分散処理で、非同期処理が新しい
と言う主張をする記事のどれも、その様な事は書きません。
絵空事だから、そこまで書かなくても良いとするならば、その主張も本当に科学だったのでしょうか?
そう称するだけのファッショの集まりに過ぎないのでは無いでしょうか?
結論
仮説まみれの回なので、今回は有りません。