5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

並列計算てどのくらいされてるの?

1 :直列くん:2000/02/04(金) 07:56
実情を聞かせてもらえませんか?
>やってる人

2 :名無しさん:2000/02/04(金) 16:52
パラメータサーチをバカ並列でやってます。


3 ::2000/02/04(金) 20:51
メジャーな並列言語は何ですか?
統合環境とかデバッガとかそろってますか?

4 :名無しさん:2000/06/12(月) 17:05
いまやMPIでしょ。デバッガ等もあったと思います。

5 :奈々っち>4:2000/06/12(月) 18:47
これ、どれくらい使える?>MPI
使い勝手は良い?計算効率は良い?
色々教えて〜

6 :奈々っち>4:2000/06/12(月) 18:48
Cのコードに組み込むんだったよね?
ちょこちょこっと関数を組み入れるだけで良いのかな?

7 :眠い・・・:2000/06/17(土) 02:49
MPIやPVMは並列ライブラリね.
CやFortranのプログラムから呼び出すわけよ.
HPF(high Performance Fortran)という言語は別で,
直接並列計算用にプログラミングができるのよ...

8 :>7:2000/06/20(火) 11:50
じゃあ元のプログラム(のアルゴリズム)を変えずに使えるのね?>MPI

9 :名無しさん@1周年:2001/08/02(木) 14:24
age

10 :名無しさん@1周年:2001/08/02(木) 21:36
今のスパコンのプログラムはほとんど並列計算向けに書かれてるでしょ

11 :名無しさん@1周年:2001/08/02(木) 21:37
MPIがよく使われてるけど、書き換えが必要で結構な改造が必要。
MPIはその名の通り、メッセージパッシングモデルとなります。

12 :名無しさん@1周年:2001/08/03(金) 00:07
MPIの参考書籍としてはIBMの青山さんが書いた虎の巻がお勧めです。
プログラムの並列化率を上げないとパフォーマンスが出ないので
並列化率90%以上を目指しましょう。
スーパーリニアで思った以上のパフォーマンスがでることもありますね。

13 :名無しさん@1周年:2001/08/03(金) 07:46
虎の巻
http://www-6.ibm.com/jp/rs6000/resource/ufo/Whatsnew/tora3.htm

14 : :01/09/11 07:59
負荷の重たいデータベースやオンライン処理などは
並列計算サーバーが使われているよ。ダウンしにくい
システムにもあるよ。

15 :名無しさん@1周年:01/09/11 11:32
>>14
それは、いわゆる超並列と呼ばれているものでしょうかね。だとすれば
通常利用されるシミュレーション用の並列とはちょっと異なる。
事務用と考えた方がよいでしょう。
ただし、メーカーにより異なります。たとえばNCRとかタンデムとか
かが出してるのはPC並のスピードしかでないのでここでは使えない
のです。大容量データ転送にもつかえないし(大容量がためられるのと
は大容量転送は別)、その面では大量なデータ転送を伴うシミュレーション
も無理なんです。 そもそも並列計算用のコンパイラないか。

16 :名無しさん@1周年:01/09/18 18:27
>15
MPP=超並列の主要な使用目的は、ほとんどの場合学術系・軍事系のシミュレーションだよ。
ここ見てみなさいな。
http://phase.etl.go.jp/mirrors/top500/list/2001/06/
>14が逝ってるのは、超並列じゃなくて負荷分散クラスタ。
ダウンしにくいシステムってのは、HAクラスタとか、フェイルオーバークラスタとか言うな。
PCサーバからハイエンドUNIXサーバなんかで使われている。
最近は、事務系も夜間バッチよりトランザクション処理系にウェイトを置いていることが多いね。業種にもよるけど。

いずれにしろ、規模の大きい並列計算機(スーパーコンピュータとか)と、小型PCサーバ・UNIXサーバのクラスタを単純に比較しても仕方がない。
まぁ、世の中には気候モデルとかをPCクラスタでやっちゃう奇特な人もいるけどさ。

17 :    :01/10/06 17:24
メーカー製のコストパフォーマンスの悪い
ヴェクトルパラレルコンピュータで莫大な
予算と運営費を投じて今現在の最高性能を
実現している並列システムは、現在の
せねばならないルーチンワーク用なのであって
未来の計算のあり方の研究用ではないと見た。
 未来の計算のあり方の方はむしろPCクラスター
型の方にこそあるのではないだろうか?
GPLソフトもしくはそれに準じた形での
PCクラスタシステムの標準化が制定されれば、
構成パーツや構成PCは別として、むしろ
企業の独自仕様のモデルごとに癖のある
並列機よりも将来性があるのではないだろうか?
確かに金をかけていないから、通信などのところの
絶対保証性能がどうしても劣るが、用途を選べば
よくて、むしろ何でもできる汎用のシステムは
コストパフォーマンスが悪いということである。

18 :名無しさん@1周年:01/11/21 00:35
昔並列計算してたけど、すっかり現役を離れました…。
結局、MPIって2になってClassが使えるようになったんです?

青山さんの本は、いまでも大事に持っています。Fortranだけだけど。

19 :名無しさん@1周年:01/11/21 19:03
現役並列計算屋です。
青山さんの本は役に立ちます。

実際の所MPI-1で事足りているのでMPI-2の方は全然使ってない。
(パフォーマンスが良くなってるらしいけど)
クラスターの通信オーバーヘッドに悩む日々を過ごしております。

20 :名無しさん@1周年:01/11/21 22:45
>>18,>>19
青山さんってだれっすか?

MPIって、関数多すぎて迷うけど、
リファレンス見てるだけで楽しくなります。

流体の超並列をすこしやってました。
SR-2201で、Parallel Ware。MPIに移行しようとして、
ひどい目にあった。FortranのMPIは使うもんじゃないね。
引数の順番間違いだったんですけど。引数多すぎ!
C++ならかなり使いやすい。

21 :アピッシャー ◆F5LTvXZU :02/04/27 23:40

        ( ゚プ) ハイハイハイハイハイ!!
        (つつ
 -=≡( ゚ ゚) > >≡( ゚ ゚)
      ↑ WW   ↑
   マーガレット  フランソワ

           (゚プ) コノスレ・・・・
          ⊂U⊃
        ( ゚ ゚) ∧  (゚ ゚ )
             WW

           ( ゚プ) オモシロイ!
           (つつ
      ( ゚ ゚)   / |  ( ゚ ゚)
            WW

          ⊂(゚プ)つ サイコー!!
              U_
      ( ゚ ゚ )  /  W ( ゚ ゚ )
           W

        (゚プ ) デハマタゴジツ。
        ⊂⊂) )))
    (゚ ゚ ))) < <  (゚ ゚ ) )))
           WW

22 :んさし無名:02/05/05 19:25
よく「大学の研究室が市販のパソコンを何台も繋げて並列計算・・・」とか聞くけど
そういうのってどうやって勉強するわけ?
何か本を読んだからってすぐ出来るものなの?
あとOSはUNIXとかLINUXをカスタマイズするのかな。

23 :名無しさん@1周年:02/05/06 01:09
>>22

そーいえば、青山学院大のを記事にしたDQN雑誌があったな。
あれは、ネットワークが100Base程度ではなかったではないのだろうか?
ああいうのは、科学技術計算をするには一般にパフォーマンスが出ない。
計算機クラスタは、一般にMemoryChannelやMyrinetを使うもの。
http://www.alde.co.jp/mpi/
でも読んどけ。英語の本のほうが、読みやすいけどね。

24 : :02/05/06 01:29
氏ね>>23

25 :名無しさん:02/05/06 01:44
>>24=青学のDQN(藁
なんてわかりやすい。

26 :23:02/05/06 10:16
>>25

実は、僕は青学そのものをDQNとまで言い切るつもりはないんだけどね。
ただ、よくものを考えずに記事をした↓の記事がDQNだなあ、と思う次第。
掲載当時から、おいおいって思ったもん。
http://linux.ascii24.com/linux/news/column/200/1999/11/27/328352-000.html

確かに通信が少ないDATA PARALLELな並列計算を行うには100Baseの
通信でも良いと思ったのかも知れないけれど(たぶん、真実は予算の
関係だろうけど)、当時からMemoryChannelなどは存在していたので、
所謂通信しあうタスクによって構想されるような科学技術計算には、
かなり不向きだったでしょうね。

反論あれば、どうぞ>>24

>>20
青山さんていうのは、IBMのgolgo13さんのことでは?SP/2などのpoeで
プログラミングする時には、多くの人は彼の書いた本を読みます。
僕もシリーズ3冊大事に持っています。

27 :名無しさん@1周年:02/05/06 22:35
>>弐拾参
一般って?

28 :名無しさん@1周年:02/05/07 06:03
100Baseでもパフォーマンスが出ると言うのが分からない人は
並列計算をしたことがない人だね。
もしくは、せこい計算しかしたことない人。
青山さん(ゴルゴ13)の本は本当にいい本だ!!

29 :名無しさん@1周年:02/05/08 00:20
>>27

分野によるけれど,基本的には並列処理可能な問題の粒度の問題で,
計算時間と通信時間のトレードオフ.
ほっとけば,>>28のように言う奴が出ることがハナから
分かってたから,一般にはとかいうふうに逃げ道を残しておいた(藁
某論文でネットワークの速度について書いたことがあるけど,
明らかに違う問題とそれほど差の出ない問題があるんだけれど,
並列計算機まで用いてわざわざやる問題(漏れの場合)では
100Baseではプロセッサ数の増加に対する並列化効率は明らかに
差が出ていたよん.

30 :名無しさん@1周年:02/05/10 20:14
>>29
また"漏れの場合"とか逃げ道を残してるな(藁

31 :あぼーん:あぼーん
あぼーん

32 :29:02/05/10 23:36
>>30

当たり前ジャン.だいたい並列計算機で扱っている全ての問題を
知っているわけではないからね.実感の伴わない教科書的な知識しか
ない分野だってあるさ.>>30はどうも違うようだけどね.
まっとうな研究者で逃げ道のない論文の書き方をする人間は,
あまりいないと思うよ.漏れの場合,というような狭める限定と
いうよりは,全てではないという書き方のほうが多いけどね.

33 : :02/05/11 01:14
いい歳してDQNだの藁だの漏れだの恥ずかしくないのかね?

34 :名無しさん@1周年:02/05/11 13:18
>>33

だったら2chに出入りするな馬鹿

35 : :02/05/11 17:16
他者を認めないのは自分が社会で認められない事へのコンプレックスの表れかね?

36 :名無しさん@1周年:02/05/11 18:05
漏れって、いい歳してDQNだけど恥ずかしくない(藁だ

37 :名無しさん@1周年:02/05/11 18:10
だから馬鹿だけど2chに出入りする。
他者を認めてるけど自分が社会で認められないの
でも、その事へのコンプレックスはないの、はい。

38 :名無しさん@1周年:02/05/11 19:12
ふつーは2chで漏れとか言ってても外では言わんだろ
2chのスラングを2chで使ってなんくせつける33はただ言いたいだけか?

39 :名無しさん@1周年:02/05/11 19:28
>>33-38 並列計算しる

40 : :02/05/11 19:38
>>37
君は本意と逆の事を言う人だね。
君はDQNじゃないし、頭もいいだろう?
そして社会でも認められているだろう。
しかし他者を認めていない。

41 :37:02/05/13 22:39
超うれしい。
天にものぼる気分だぜ。
生まれて始めて親以外の人間に誉められちった!
ハート>>40


42 :40:02/05/14 00:22
>>41
ごめん。。。
君やっぱりDQNだった。。。。

43 :37:02/05/14 23:03
やっぱりな。
結局いつもと同じパターンだぜ。

44 :サゲっすよ:02/05/15 22:35
ヘイレツ珪酸している人って、DQNが多いの?

45 :名無しさん@1周年:02/05/23 04:49
>>1
知った上でナニをどうしたいのか?

46 :円導先生の提言!!:02/05/27 14:51
http://www.geocities.co.jp/Foodpia-Olive/3480/

47 :名無しさん@1周年:02/05/29 18:46
omni OpenMP + SCASH て実際使っている人いるんですかね。
すごく便利そうだけどパフォーマンスは出るんだろうか。

48 :名無しさん@1周年:02/07/09 02:10
今、インテルなどから32ビットPCIカードで1GBPSのものが8000円で
おつりが来る値段で売っています。SuSE Linux などではサポート
されています。これなら、特殊な通信ボードはいらなくなりそうな。
(まだSWハブが高いけど)。
さらに、すぐに10GBPSのEther通信も可能になるようです。
(しかし、CPUやバスが追いつかないよう。)

49 :名無しさん@1周年:02/07/09 02:40
>>48 バスが追いつけないよう。
PCI-X 133MHz 64bitバス使え。(133MHz×64bit=8412Mbps)


50 :名無しさん@1周年:02/07/09 03:11
8512Mbps の間違いだ鬱姉

51 :名無しさん@1周年:02/07/10 14:26
「ぼくなんかいつも5つぐらいの仕事を並列処理してるよ。」
といっていたバイト時代のDQNな上司がいた。


52 :名無しさん@1周年:02/07/10 17:38
8533Mbpsじゃないの?

53 :名無しさん@1周年:02/07/11 20:54
それは並列処理ではなくて、平行処理です。

54 :名無しさん@1周年:02/07/11 23:09
>51
正常人間なら誰でも並列処理してるだろ、脳みそで。


55 :名無しさん@1周年:02/07/23 16:10
Sun Grid Engineってどうなの?
http://www.idg.co.jp/lw/back/200205/20020524_01_solaris.html


56 :あぼーん:あぼーん
あぼーん

57 : :02/07/27 03:47
プログラミングする立場から、
並列計算の為のプログラミング環境が最高によくって、
コンパイラーが極めて信頼性が高くて、
それでもって価格が1000万円の程度で、
並列度が8より大きいシステムって、
どんなのがお勧めかな?

58 :名無しさん@1周年:02/07/28 00:53
>>57
並列度を条件に入れるのが意味分からんのですけど。
アーキテクチャはIA32に限定してるって意味でよろしいんで?

そうすると基本構成はベオウルフ or SCore
ネットワークはGbE or Myrinet
あたりで決まってしまうのではないかな?

>並列計算の為のプログラミング環境が最高によくって、
何選んでも並列計算は楽じゃないと思うが

関係ないが
「Linuxで並列処理をしよう―SCoreで作るスーパーコンピュータ」共立出版
どうよ?

59 :名無しさん@1周年:02/07/28 19:01
www.hpc.co.jp

60 : :02/08/03 00:32
汎用のPCを使って、専用計算機を作る話なわけだ。
コーディングに1000時間かけても、実行には何千、何万時間、
何年をも費やすから、引き合う。
まだまだモデル化や定式化段階にあるような問題のプログラムや、
商用ソフトにあるようなプログラムの場合には、
並列化の為の手間隙やチューニングにかけている時間の間に、
並列化も何も考えること無しで安易にプログラムを普通の計算機で
走らせた方が結果が早く得られることが多い。
 大学や学会では、計算して得られた「結果」にしか関心がないのが
普通なので、並列化やプログラミングにかけた労力は評価外であり、
そんなことするよりもお猿の電車の猿の運転手になりきって、
出来合いのプログラムをどんどん走らせた方が、より確実に
職にありつけることだろう。

61 :名無しさん@1周年:02/08/03 01:08
本当の事を言うな
残酷だ

62 :名無しさん@1周年:02/08/03 20:29
>>60 それが世間の主流だったら、目立&目電、儲かりまくりなハズ

63 :名無しさん@1周年:02/08/06 02:59
これってどうなんでつか?
alphaの代わりになりまつか?
http://www-6.ibm.com/jp/servers/eserver/pseries/promotion/p630value/

64 :名無しさん@1周年:02/08/07 11:53
なんという息の長いすれなんだ。記念書きこさせてくれ

65 :alfred ◆dosTrip. :02/08/07 13:39
記念真紀子スレの予感

66 :名無しさん@1周年:02/08/07 13:42
またどっかのクズが「長寿スレ」紹介して
記念という名の埋め立て荒らしで終わらされるのか

67 : :02/08/14 00:30
OpenMPがあれば、今後MPIはもう必要ないというのは本当でしょうか?

68 :あぼーん:あぼーん
あぼーん

69 : :02/08/15 18:19
本屋で売られている書籍で以下の内容に最適のご推薦ものはどんなのありますか?

1) OpenMP の仕様と、その応用(利用の技法)
2) HPF  の仕様と、その応用(利用の技法)
3) MPI  の仕様と、その応用(利用の技法)
4) PVM  の仕様と、その応用(利用の技法)

よろしくお願いします。

70 :名無しさん@1周年:02/08/16 02:23
2) MIT Press

71 :山崎渉:03/01/11 05:29
(^^)

72 :alfred ◆6ZdosTrip. :03/03/09 13:30

このスレ、まだ残ってたのか。。。

73 :山崎渉:03/03/13 13:35
(^^)

74 :名無しさん@3周年:03/04/13 18:26
沈没寸前?

75 :山崎渉:03/04/17 09:26
(^^)

76 :名無しさん@3周年:03/04/17 22:08
保全

77 :名無しさん@3周年:03/04/18 00:10
並列野郎に質問。

MPICHはMPI2.0はサポートした?
自動並列化コンパイラーとの差はまだ大きいの?


78 :山崎渉:03/04/20 03:56
   ∧_∧
  (  ^^ )< ぬるぽ(^^)

79 :名無しさん@3周年:03/05/06 14:53
>77
ttp://www-unix.mcs.anl.gov/mpi/mpich/indexold.html
>A beta-test version of MPICH2 is now available for examination
betaバージョンらしい。
安定版?にはまだまだ採用されないだろう。

>自動並列化コンパイラーとの差はまだ大きいの?
やっぽど単純な問題でもない限り、
自動並列化は不可能かと。

80 :名無しさん@3周年:03/05/06 15:01
Pentium4のHyper-Threadingって、
SMPと比較してどのくらい使いものになる?

並列と聞くと、SMPのブレードサーバが
積み重なっているイメージがあるのだが、
P4 Hyper-Threadingのキューブ型PC並べても、
同じような性能が得られるもの?

81 :名無しさん@3周年:03/05/14 15:43
>80
Hyper-Threadingはゴミ.演算機が増えるわけではないから.
キューブ型:形だけだろうがぁ.中身みてみそ.

>79
世の中,簡単な問題に演算能力が使われていることの方が多いんだよぉ.


82 :あぼーん:あぼーん
あぼーん

83 :あぼーん:あぼーん
あぼーん

84 :あぼーん:あぼーん
あぼーん

85 :あぼーん:あぼーん
あぼーん

86 :あぼーん:あぼーん
あぼーん

87 :あぼーん:あぼーん
あぼーん

88 :あぼーん:あぼーん
あぼーん

89 :あぼーん:あぼーん
あぼーん

90 :名無しさん@3周年:03/05/15 14:17
>>81
HT対応パソコンで、マルチスレッドじゃない計算プログラムを実行させると、CPU負荷が
計算: 50%
アイドル: 50%
になりますた(涙)

91 :あぼーん:あぼーん
あぼーん

92 :あぼーん:あぼーん
あぼーん

93 :山崎渉:03/05/21 23:46
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―

94 :Jenco@9cm:03/05/27 05:32
科学技術計算の処理コストは
計算対象の規模に対してリニアなんていう幸せな状況は少なく
規模の2乗やら6乗やらに比例するのが普通
しかも並列化不可能な処理が必ずあるし
通信オーバヘッドも大いに足を引っ張る
どんなに並列化して10000ノードで走らせても,
たった数倍の規模の計算しかできなかったり
下手なことをすると通信遅延のため
1ノードよりも逆に遅くなることも無きにしも非ず
抜本的解決への道は闇雲力任せの並列化ではなく
単純化,階層化なりの工夫で精度を落とさず省力化できる
何らかの定式化方法,実装方法を見出すこと以外にない
3njgknqntvcnhiFeeheIvdrs7i3onqcGndcvitr7qBdhdbeqvtrd

95 :あぼーん:あぼーん
あぼーん

96 :山崎渉:03/05/28 14:17
     ∧_∧
ピュ.ー (  ^^ ) <これからも僕を応援して下さいね(^^)。
  =〔~∪ ̄ ̄〕
  = ◎――◎                      山崎渉

97 :名無しさん@3周年:03/07/07 00:33
>>80が言ってるみたいに並列クラスタってDualのマシンを繋ぎ合わせてる
みたいだけど、各マシン毎の通信のコードも、Dualを生かすためのThread用
のコードも両方書くの?


98 :名無しさん@3周年:03/07/07 01:50
>>97
MPIとかならクラスタ構成を意識せずにCPU数だけを考えて書いても構わないけど
やっぱり構成を意識して書いた方が早いだろうね

99 :名無しさん@3周年:03/07/07 02:07
>>97
徹底的に性能だそうと思ったら
MPI+OMPとかで書くんじゃなかったっけ。

>>80
HTは、理論的にも最大3割程度の高速化しかできないので、
SMPに比べるとすごく劣る
ただ、パイプラインに空きが多く見られる計算(モンテカルロ等)では
比較的効果的らしい

100 :97:03/07/07 21:50

って事は一般的にはフツーにDualのマシンでMPIだけなんですね。
どもでしたm(_ _)m

101 :名無しさん@3周年:03/08/20 20:36
scoreはどうなったのですか?
glousnに押されているよな(

102 :どしろうと:03/10/14 16:37
計算機の素人なのですが、事情によりPC(P3 1 or 2GHz)を10台ほどもっています。
構造化学計算のため これらをlinux-クラスタにしようと思います。
(ほんとバカみたいな質問ですが)どうやって繋ぐのか、繋ぎ方を書いてある本など教えていただけますか?
一台をDHCPサーバとして用いアドレスを割り当てるのでしょうか。
(当方、医学系のため いつまでたっても初心者でスミマセン)

103 :どしろうと:03/10/14 17:49
上記、失礼しました。 他スレにあったPCクラスタ超入門(同志社大)を読んで出直してきます。

104 :名無しさん@3周年:03/10/14 20:23
妹の友達がゴマキと同級生だったので聞いた
本人が4,5年前に作ったらしい
やっぱり芸能人が作るサイトはダ・サ・イ
http://www.emzshop.com/everybody


105 :名無しさん@3周年:03/10/21 11:22
アスロンマシンでクラスター組んでみました。
言語はPGI社のHPF使ってます。
ネットワークにGigabitイーサ入れたんですが、計算中のCPU負荷見ると、
usr60%、system40%ぐらいになっててどうやらネットワークカードに
CPU食われちゃってるみたいなんですけどこれって何とか解決する方法
ないんでしょうか。

106 :名無しさん@3周年:03/11/16 20:22
 半径の違う円が回転して、その公倍数時に
互いの円の回路が通ずる。歯車のような組み
合わせとか、円の中に円がある形状とか。
時計みたいだね。量子コンピューターに
使われてるかも。こういう公倍数的な一致を
活用するものってないのかな?


107 :名無しさん@3周年:04/08/16 00:11
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃□□■■□□□□□□□□□□□□■■□□□□□□□□□□■□□■□┃
┃□■□□■□□□□□□□□□□■□□■□□□□□□□□□■□□■□┃
┃□□□■□□□□□□□□□□□■□□□□□□□□□□□□■■■■□┃
┃□□■□□□□□■□□□□□□■□□■□□□■□■□■□■□□■□┃
┃□■■■■□□■□□■□□□□□■■□□□□□□■□□□■□□■□┃
┃□□□□□□■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□■■■■□□□□□□□■□□□□□□┃
┃□□□□□■■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□□■■□□□□□□□□■□□□□□□┃
┃□□□□□□■□□■□□□□□□□□□□□□■■■■■□□□□□□┃
┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
2ch2ch2ch2ch2ch2ch2ch┌──────────────────────┐
=====================│ 十ヽ ーフ 十 V │
=====================│ よつ (  tノ ∠/  │
2ch2ch2ch2ch2ch2ch2ch└──────────────────────┘ 

(*゚Д゚)<熱い内にドーゾ

108 :名無しさん@3周年:04/08/16 00:12
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃□□■■□□□□□□□□□□□□■■□□□□□□□□□□■□□■□┃
┃□■□□■□□□□□□□□□□■□□■□□□□□□□□□■□□■□┃
┃□□□■□□□□□□□□□□□■□□□□□□□□□□□□■■■■□┃
┃□□■□□□□□■□□□□□□■□□■□□□■□■□■□■□□■□┃
┃□■■■■□□■□□■□□□□□■■□□□□□■■■□□■□□■□┃
┃□□□□□□■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□■■■■□□□□□□□■□□□□□□┃
┃□□□□□■■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□□■■□□□□□□□□■□□□□□□┃
┃□□□□□□■□□■□□□□□□□□□□□□■■■■■□□□□□□┃
┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
2ch2ch2ch2ch2ch2ch2ch┌──────────────────────┐
=====================│ 十ヽ ーフ 十 V │
=====================│ よつ (  tノ ∠/  │
2ch2ch2ch2ch2ch2ch2ch└──────────────────────┘ 

(*゚Д゚)<熱い内にドーゾ

109 :名無しさん@3周年:04/08/16 00:15
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃□□■■□□□□□□□□□□□□■■□□□□□□□□□□■□□■□┃
┃□■□□■□□□□□□□□□□■□□■□□□□□□□□□■□□■□┃
┃□□□■□□□□□□□□□□□■□□□□□□□□□□□□■■■■□┃
┃□□■□□□□□■□□□□□□■□□■□□□■□■□■□■□□■□┃
┃□■■■■□□■□□■□□□□□■■□□□□□■■■□□■□□■□┃
┃□□□□□□■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□■■■■□□□□□□□■□□□□□□┃
┃□□□□□■■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□□■■□□□□□□□□■□□□□□□┃
┃□□□□□□■□□■□□□□□□□□□□□□■■■■■□□□□□□┃
┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
2ch2ch2ch2ch2ch2ch2ch┌──────────────────────┐
=====================│ 十ヽ ーフ 十 V   │
=====================│ よつ (    tノ   ∠/  │
2ch2ch2ch2ch2ch2ch2ch└──────────────────────┘ 

(*゚Д゚)<熱い内にドーゾ


110 :名無しさん@3周年:04/08/16 00:15
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃□□■■□□□□□□□□□□□□■■□□□□□□□□□□■□□■□┃
┃□■□□■□□□□□□□□□□■□□■□□□□□□□□□■□□■□┃
┃□□□■□□□□□□□□□□□■□□□□□□□□□□□□■■■■□┃
┃□□■□□□□□■□□□□□□■□□■□□□■□■□■□■□□■□┃
┃□■■■■□□■□□■□□□□□■■□□□□□■■■□□■□□■□┃
┃□□□□□□■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□■■■■□□□□□□□■□□□□□□┃
┃□□□□□■■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□□■■□□□□□□□□■□□□□□□┃
┃□□□□□□■□□■□□□□□□□□□□□□■■■■■□□□□□□┃
┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
2ch2ch2ch2ch2ch2ch2ch┌──────────────────────┐
=====================│ 十ヽ ーフ 十 V     │
=====================│ よつ (    tノ   ∠/    │
2ch2ch2ch2ch2ch2ch2ch└──────────────────────┘ 

(*゚Д゚)<熱い内にドーゾ


111 :名無しさん@3周年:04/08/16 00:16
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃□□■■□□□□□□□□□□□□■■□□□□□□□□□□■□□■□┃
┃□■□□■□□□□□□□□□□■□□■□□□□□□□□□■□□■□┃
┃□□□■□□□□□□□□□□□■□□□□□□□□□□□□■■■■□┃
┃□□■□□□□□■□□□□□□■□□■□□□■□■□■□■□□■□┃
┃□■■■■□□■□□■□□□□□■■□□□□□■■■□□■□□■□┃
┃□□□□□□■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□■■■■□□□□□□□■□□□□□□┃
┃□□□□□■■■■■■■□□□■■■■□□□■■■■■□□□□□□┃
┃□□□□□□□■□■□□□□□□■■□□□□□□□□■□□□□□□┃
┃□□□□□□■□□■□□□□□□□□□□□□■■■■■□□□□□□┃
┗━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┛
2ch2ch2ch2ch2ch2ch2ch┌──────────────────────┐
=====================│ 十ヽ ーフ 十 V     │
=====================│ よつ (    tノ   ∠/    │
2ch2ch2ch2ch2ch2ch2ch└──────────────────────┘ 

(*゚Д゚)<熱い内にドーゾ


112 :名無しさん@3周年:04/08/17 20:09
(èДé)

113 :電脳プリオン:04/09/06 23:57

 (èДé) ∧_∧ ガッ
(∪  つ) ^^ )←>>78
と_)_) つ つ  

114 ::04/09/17 20:51:38
a

115 :名無しさん@3周年:04/09/18 01:03:35
やってるよ、12並列くらい、。

116 :名無しさん@3周年:04/09/18 13:57:05
並列計算より条件変えた平行計算の方が効率がいい

117 :名無しさん@3周年:04/09/22 01:41:40
>>116
平行して計算するのに1週間時間がかかるなら、
一つを1日以内で終わらせて結果を考察して
次に行けた方が良い。



118 :名無しさん@3周年:04/09/23 15:40:11
MDではPMEが並列で速くならないのがイタイ。
で、うちも並行です。

119 :名無しさん@3周年:04/11/10 13:46:16
暇だから大学で動いているPC全部使って素因数分解でもしてみようかな。

120 :ぼるじょあ ◆yBEncckFOU :05/01/13 07:53:25
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕
  = ◎――――――◎                      山崎渉&ぼるじょあ

121 :山.崎 渉:05/02/22 21:02:28
...これからも僕を応援して下さいね(^^)。   
  
━―━―━―━―━―━―━―━―━[JR山崎駅(^^)]━―━―━―━―━―━―━―━―━―
         
     ∧_∧
ピュ.ー (  ^^ ) <これからも僕を応援して下さいね(^^)。                         
  =〔~∪ ̄ ̄〕                                            
  = ◎――◎                      山崎渉                       
                                
 __∧_∧_                                                 
 |(  ^^ )| <寝るぽ(^^)      
 |\⌒⌒⌒\                                
 \ |⌒⌒⌒~|         山崎渉             
   ~ ̄ ̄ ̄ ̄                            
                            
   ∧_∧                                       
  (  ^^ )< ぬるぽ(^^)      
                                                       
    (⌒V⌒)                    
   │ ^ ^ │<これからも僕を応援して下さいね(^^)。   
  ⊂|    |つ                                
   (_)(_)                      山崎パン 
                                         
     ∧_∧  ∧_∧
ピュ.ー (  ・3・) (  ^^ ) <これからも僕たちを応援して下さいね(^^)。
  =〔~∪ ̄ ̄ ̄∪ ̄ ̄〕                          
  = ◎――――――◎                      山崎渉&ぼるじょあ

122 :名無しさん@3周年:05/02/24 15:08:33
>121
おまいさん、ずいぶん暇なんだな。

123 :名無しさん@5周年:2005/11/02(水) 22:42:55
すみません。
詳しい方はちょっと教えてください。
僕はMPIはよくわかりません。並列計算はモロに初心者です。
MPI用の関数を使わずに、
socket、bind、connect、listen、accept、read、write
といったプリミティブな関数(単なるプロセス間通信につかうやつ)
だけを使ってやる並列計算って、ありですか?

124 :名無しさん@5周年:2005/11/03(木) 23:13:37
1/(1+x)に持ち込んでテーラ展開してしまえば並列化はできるが、
1/xを筆算形式で計算するのは並列化できない。つまり、加減乗除のなかで除算はそのままでは並列化できない。
除算ばかり並んだプログラムはクロックをあげる以外高速化できない。

125 :名無しさん@5周年:2005/11/04(金) 11:55:36
  ∧_∧
 ( ´∀`)
 (    )
 ■■■■業務連絡■■■■

        ブチュッ ∧_∧
            (´∀` ) ≡≡
 ■■■■■■■■⊂   )
 ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄ ̄


126 :名無しさん@5周年:2005/11/06(日) 08:48:50
大学の研究室では同じ性能のLinux(UNIX)入れたパソコンを数台並べてネットワークつなげてPVM(だっけ?)使って並列処理してC言語で書いたソースコードに必要箇所に修正組み込んでマルチスレッド高速化するんじゃなかったかな?

127 :名無しさん@5周年:2005/11/06(日) 23:34:48
>>124
除算が並んでて並列化できないというのは、少数変数の反復法とかで依存関係がある場合のみで、
大抵の場合は、データ並列性がある。
最近主流の浮動小数点の割り算の計算法は、ニュートン法を使って積和のみで書く手法。
(1/xの近似値をテーブルで引いて、3回くらいの反復をソフトウェア的に計算する。)
この方法をソフトウェアパイプライン化して、入力配列の全逆数を返すような高速なベクトルライブラリを
各ベンダーが出してる。
fused-multiply-addがあるCPUだと逆数計算のスループットが5サイクルとかちょっぱや。
これ使うのと、下手にループで割り算書いちゃうのでは、全然性能がちゃう。


128 :名無しさん@5周年:2005/11/07(月) 01:58:32
1/(1-x)としてテーラー展開などの積和に持ち込んで近似値使うなら速くできるというとるだろうが、
つーか>>124で俺が書いた意味がまったくわかっとらんのか?
じゃ64ビット整数、非近似値で除算計算してみろ。
筆算形式で正確に計算せにゃならんというのはこういう場合だ。multiply-and-addもまったく役に立たん。
最低64回ループまわさんとあかんからな、ハードウェアがループ処理に仮に対応してたとしても
最低64システムクロック必要になるはずだ。しかも、ループ毎に条件判断があるからパイプラインでごまかすこともできん。

129 :名無しさん@5周年:2005/11/07(月) 20:24:43
>>128
1/(1-x)をテーラー展開って正気でいってる?
それにニュートン法は、整数にも使えるんだが。
hacker's delight読んでみ。


130 :名無しさん@5周年:2005/11/07(月) 23:33:05
>1/(1-x)をテーラー展開って正気でいってる?
それがどうした?xが十分小さいときΣx^(n)

>それにニュートン法は、整数にも使えるんだが。
そりゃ使えるだろ。つーかf(x)=0の解を反復して求めるニュートン法のことだろな?俺はそれしか知らんが。
それで近似値じゃなくて厳密値が算出できるか?もちろん小数値だと2進表現は無誤差は一般に不可能だから整数で。
回路そのものがワンショットで計算できないのにいくらソフトでがんばったところでビット精度いっぱいの誤差なし解が
乗算と同クロックで算出できるとは到底考えられんがな。
ちょうど今DW誌で除算回路特集やってるから読んでみな。

131 :名無しさん@5周年:2005/11/08(火) 06:32:21
回路が複雑になるし、HWでもたいしてはやくないから、
PowerもIta2もソフトになったんだよ。
ここまで親切に教えてやる義理も無いけど一応。
f(x)=a-1/xで
f'(x)=1/x^2
x'=x-f(x)/f'(x)=x(2-ax)の一反復で精度が倍になる
初期値に14bit精度があれば二回反復でdoubleの精度。
テーブルがあれば除算器いらない。


132 :名無しさん@5周年:2005/11/11(金) 19:23:00
MDの並列化についての知りたいのですが、何かいい情報ないっすか?

133 :名無しさん@5周年:2005/11/11(金) 21:32:26
英語でいいなら、NAMDの論文とか。


134 :名無しさん@5周年:2005/11/15(火) 03:18:59
>>130
DW誌って何?

135 :名無しさん@5周年:2005/11/27(日) 22:00:04
今だ!!!2get
 ̄ ̄ ̄ ̄ ̄∨ ̄ ̄ ̄       (´´
     ∧∧   )      (´⌒(´
  ⊂(゚Д゚⊂⌒`つ≡≡≡(´⌒;;;≡≡≡
        ̄ ̄  (´⌒(´⌒;;
      ズザーーーーーッ


136 :名無しさん@5周年:2005/11/28(月) 11:36:56
>>134
Design Wave
CQ出版社
ttp://www.cqpub.co.jp/dwm/

137 :名無しさん@5周年:2005/12/07(水) 22:51:33
http://forum.sgi.co.jp/

138 :名無しさん@5周年:2006/10/29(日) 00:36:15
age

139 :名無しさん@5周年:2006/10/31(火) 01:43:52
グーぐるの並列処理能力は現状ではかなり上位だと思うんだが。

140 :名無しさん@5周年:2006/10/31(火) 22:17:52
あれはほぼ分散処理だし並列化としては低レベルじゃね?

37 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.00 2017/10/04 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)