Mercurial > hg > Members > kokubo > 2013-mid-thesis
view paper/data_parallel.tex @ 1:f4b3de446113
write introduction and cerium
author | Shohei KOKUBO <e105744@ie.u-ryukyu.ac.jp> |
---|---|
date | Tue, 05 Nov 2013 23:59:45 +0900 |
parents | 9e88a388ec83 |
children | b7c8a956c10b |
line wrap: on
line source
\section{Cerium における Data 並列}\label{data_parallel} データ並列で実行する場合はspawn APIではなく、iterate APIでTaskを生成すればよい。 Scheduler内で引数分のTaskを生成し、それぞれに自分が担当するindexをパラメタとして設定していく。 iterateにはlengthを引数として渡し、lengthの値と渡したlengthの個数で次元数や ワークアイテムのサイズをSchedulerが計算する。 CPU実行時のkernelは以下のように記述する。 \begin{Verbatim}[fontsize=\footnotesize,xleftmargin=1cm] static int // kernel run(SchedTask *s,void *rbuf, void *wbuf) { float *indata1,*indata2,*outdata; indata1 = (float*)s->get_input(rbuf, 0); indata2 = (float*)s->get_input(rbuf, 1); outdata = (float*)s->get_output(wbuf, 0); long i = (long)s->get_param(0); outdata[i]=indata1[i]*indata2[i]; return 0; } \end{Verbatim} \subsection{データ並列におけるindex割り当ての実装} Taskを生成するとき、dimensionとワークアイテムのサイズをもとに各Taskが担当するindexを計算し、set\_paramする。 kernelはget\_paramでそのindexを取得してデータ並列で実行する。 get\_param APIがOpenCLのget\_global\_id APIに相当する。 例として、cpu数4、一次元で10個のdataにたいしてデータ並列実行を行った場合、 各CPUが担当するindexは表:\ref{table:data_parallel_index}のようになる。 この例だと各CPUに対するindexの割り当ては、 CPU0はindex0、4、8、 CPU1はindex1、5、9、 CPU2はindex2、6、 CPU3はindex3、7となっている。 \begin{tiny} \begin{table}[h] \begin{center} \caption{data並列実行時のindexの割り当て} \label{table:data_parallel_index} \small \begin{tabular}[t]{c||c|c|c|c} \hline stage&CPU0& CPU1&CPU2&CPU3 \\ \hline 1&0&1&2&3 \\ \hline 2&4&5&6&7 \\ \hline 3&8&9& & \\ \hline \end{tabular} \end{center} \end{table} \end{tiny} この実装により、Ceriumでデータ並列の実行が可能になった。 並列プログラミングだと、並列化するTaskが全部同一であるという事は少なくない。 その際、Taskを生成する部分をループで回すことなく、簡単なsyntaxで記述できる。 データ並列で実行する場合は、inputとoutputを各Taskで共有するため、少ないコピーですむ。 CPUならメモリ領域がTaskとmanagerで同じなので、dataのコピーで大きいオーバーヘッドにはならない。 しかしCellとGPUはメモリ領域が異なるため、dataコピーのオーバーヘッドが大きく、 データ並列による高速化が見込める。