Mercurial > hg > Game > Cerium
annotate TaskManager/ChangeLog @ 596:f1c2e11a2ef4 draft
add xdr_getpos
author | Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
---|---|
date | Wed, 04 Nov 2009 22:52:06 +0900 |
parents | fbcbcc5ad3b5 |
children | 184d6d3f0cd9 |
rev | line source |
---|---|
538 | 1 2009-10-11 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
2 | |
3 単純な、rbuf, wbuf + write return size の task のAPI | |
4 List DMA の API | |
5 投入 cpu 別の spawn method | |
6 Redering 時の内部からの DMA への直接アクセスへの禁止等など | |
7 | |
8 set_post で登録する関数も、task のrun関数と同じ型にした方が便利そう。 | |
9 | |
10 SPU側でも配列(TaskList)ではなく、TaskQueue で管理すれば、 | |
11 renew task は簡単に実装できる。 | |
12 | |
13 SchedTask の renew かそうでないかの区別は全部なくす。ex_init とかは、 | |
14 なくなるはず。その代わり TaskQueue で管理する。 | |
15 | |
16 TaskList に inListData/outListData が入っているのは、やはりおかしい。 | |
17 もっとコンパクトであるべき。 | |
18 | |
19 TaskList は、こまめに終了をPPE側へ知らせるのではなく、TaskListの | |
20 書き換えで知らせる方が良い。 | |
21 | |
22 SPUからPPUへ、create task 出来た方が良い。それはTaskList の書き出し | |
23 で行なう。 | |
24 | |
503 | 25 2009-10-11 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
26 | |
27 ようやっと直せました。inListData/outListData は別に転送しないで、 | |
28 一緒に転送してしまった方が良い。どうせ、いつも転送しているのだから。 | |
29 | |
30 word_count が fifo の方が高速なのは、どうにかしてください。 | |
31 | |
32 Renew Task の addInData は、メインメモリからDMAするので正しいらしい。 | |
33 直し方を間違えた。 | |
34 | |
35 Task をmemcpyして、TaskList に入れているが、List DMA に直すべき。 | |
36 Simple Task を常に起動して、List DMA task は、その中で、Renew Task | |
37 として起動するのが良いのでは? そうすれば、Task Load 自体を Task に | |
38 出来る。 | |
39 | |
40 Renew Task の実行順序が filo になっている。このあたり変なので、 | |
41 修正するべきでしょう。Renew用の TaskList を持てば良いんじゃないか? | |
42 task->self の ad-hoc な使い方が泣ける。ひどすぎます。 | |
43 | |
489 | 44 2009-10-06 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
45 | |
46 Task 内の create_task は、SchedTask に対してで、 | |
47 PPE 上では、Manager に対してだよね。だから、出来る | |
48 ことがかなり異なる。これは、まずいだろ? | |
49 | |
50 特に、PPE task に明示的に manager を渡すってのは、 | |
51 とっても変。 | |
52 | |
53 Renew Task の特別扱いが、いろいろ歪めているんだが、 | |
54 view.cc で使っているので落せない。 | |
55 | |
481
f9ffcffb6d09
Double linked list modification done (tested on Mac OS X)
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
468
diff
changeset
|
56 2009-10-05 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
f9ffcffb6d09
Double linked list modification done (tested on Mac OS X)
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
468
diff
changeset
|
57 |
f9ffcffb6d09
Double linked list modification done (tested on Mac OS X)
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
468
diff
changeset
|
58 TaskQueue のfree list の管理はシステムで一つであるべき。 |
503 | 59 TaskQueue は double linked list が当然らしい。 |
481
f9ffcffb6d09
Double linked list modification done (tested on Mac OS X)
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
468
diff
changeset
|
60 |
468
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
61 2009-10-02 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
62 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
63 DrawSpan で、~DrawSpan() で、allocate したデータを DMA_WAIT |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
64 して、free しているが、これは、抽象化違反。Task で明示的に |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
65 DMAするのは禁止。Task 内で、add_outData 出来れば良い。 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
66 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
67 renew が正しいような気がするが... |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
68 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
69 Task 内で大域変数は使えない。なので、smanager からallocateする |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
70 必要がある。Task の解放のタイミングではなくて、パイプラインの |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
71 タイミングでDMA waitとfreeを行なう必要がある。DrawSpan の場合は、 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
72 add_outData で良いが、内部で allocate/free は行なう必要がある。 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
73 put_segement がパイプライン動作するべきなのか? |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
74 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
75 固定のDMA tagが邪魔。 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
76 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
77 DrawSpan は全般的にダメだな〜 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
78 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
79 でも、その変更は大きいので、とりあえず動くようにしたい。 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
80 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
81 memset 0 は、7.7.3 SL1 Data Cache Range Set to Zero コマンド |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
82 つかうべき。SPE側でやっても良い。でも、本来は全面埋まるのが |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
83 普通なのでどうでも良いけど。 |
796f72cb21d9
test_nogl on Mac OS X worked.
Shinji KONO <kono@ie.u-ryukyu.ac.jp>
parents:
400
diff
changeset
|
84 |
386 | 85 2009-08-06 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
86 | |
390 | 87 で、MemList/MemHash が TaskManager 側に移ったので、 |
88 これで、code の management を書くことが出来る。 | |
89 そうすれば、SPEのメモリの限界をほんと気にする必要がなくなるはず。 | |
90 | |
91 その前に、get_segment の例題を直さないと。 | |
92 | |
93 DrawSpanRnew/reboot は使ってないらしい。 | |
94 | |
95 Tree は、配列にしないでlinkをSPE側からたどるようになっている。 | |
96 それは良いのだが、Task 側で dma_wait するような実装は望ましくない。 | |
97 この部分も書き直す必要がある。list 構造の SPE上の Iterator を | |
98 実装すれば良い。 | |
386 | 99 |
390 | 100 memory 関係のコードが scheduler の下にあるのは面白くない。 |
101 | |
102 Scheduler で実装(__scheduler)に移譲している部分は、headerに | |
103 移した方が良い。 | |
104 | |
105 2009-08-06 Shinji KONO <kono@ie.u-ryukyu.ac.jp> | |
106 | |
107 うーん、get_segemnt で、dma_wait のtagをなんとかする | |
108 必要があるらしい。get_tag() でなんとかなるけど、 | |
109 他のtag との関係があるかな。 | |
110 | |
111 完全に見えなくするべきでしょうけど... 今はいい。 | |
386 | 112 |
381 | 113 2009-08-01 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
114 | |
390 | 115 MemList は動いたので、今度は TileHash を TaskManager 側に移動する |
116 必要がある。 | |
381 | 117 |
390 | 118 その後、コードのLRUを書けば、Cerium は一通り出来上がり。 |
381 | 119 |
390 | 120 TaskManager と Scheduler の関係が一貫してない。複雑すぎる。 |
381 | 121 |
122 | |
363 | 123 2009-07-24 Kaito TAGANO <tkaito@cr.ie.u-ryukyu.ac.jp> |
390 | 124 |
363 | 125 長さ別の freeList と単一の HashTable で管理する |
126 TileList を廃止 | |
127 class MemorySegment { | |
128 MemorySegment *next; | |
129 MemorySegment *prev; | |
130 uint64 size; | |
131 uint64 address; | |
132 uint64 dummy; | |
133 // uint32 data[0]; | |
134 } | |
135 | |
136 class MemList { | |
137 MemorySegment* first; | |
138 MemorySegment* last; | |
139 | |
140 MemList* createMemList(uint32 size, uint32 count); | |
141 void addFirst(MemorySegment* e); | |
142 void addLast(MemorySegment* e); | |
143 MemorySegment* getFirst(); | |
144 MemorySegment* getLast(); | |
145 boolean remove(MemorySegment* e); | |
146 void moveToFirst(MemorySegment* e); // or use(); | |
147 } | |
148 | |
149 サイズ毎に freelist と activelist を持って、これを malloc free | |
150 として使う。 | |
151 これのテストルーチンを書き終わったら、Tapestry をこれで書き直す | |
152 LRU は使うたびに以下を呼び出す | |
153 | |
154 void use(MemorySegment* e, MemList* active) { | |
155 active.remove(e); | |
156 active.addFirst(e); | |
157 } | |
158 | |
159 | |
354 | 160 2009-07-15 Yusuke KOBAYASHI <koba@cr.ie.u-ryukyu.ac.jp> |
161 | |
162 PPU からMainMemory にResource を Access する API | |
163 長さ別の freeList と単一の HashTable で管理する | |
164 | |
386 | 165 読みだしAPI。set_rgb に相当。 |
166 uint32 segment_id = smanager->get_segment(memaddr addr, *MemList m) | |
354 | 167 id は hash値に相当。 |
386 | 168 addr で指定された PPU の Address が Hash にあるかどうか調べる。 |
169 無ければ dma_load する。そして指定された id を返す。 | |
170 | |
400 | 171 確保 API。set_rgb に相当。読み出さないで、hash entry だけ確保する。put しかしない部分用 |
172 uint32 segment_id = smanager->get_null_segment(memaddr addr, *MemList m) | |
173 id は hash値に相当。 | |
174 | |
386 | 175 書き出しAPI、読みだしていること前提。 |
354 | 176 smanager->put_segment(wait_id); |
386 | 177 |
178 MemorySegment* smanager->wait_segment(uint32 segment_id) | |
179 id で指定された PPU の segment の copy の Address を返す。 | |
180 必要があれば dma_wait を行う。書き出しも待ち合わせる。 | |
354 | 181 |
307 | 182 2009-06-8 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
183 | |
184 SchedTask/SchedTaskImpl の分離はあんまり意味がなかった。 | |
185 SchedTaskBase が既にあるし。 | |
186 とりあえず、__list とかは、private にしただけ。 | |
187 ScheTaskImple を作っても、継承してprivateにすると、 | |
188 warning は出るが、 User Task space の名前空間は結局汚れてしまう。 | |
189 | |
190 delegate するべきだと思うが、SchedTaskBase でないと、 | |
191 動かないらしい。それだと、indirect が増えるので、ちょっといや。 | |
192 | |
279 | 193 2009-06-4 Shinji KONO <kono@ie.u-ryukyu.ac.jp> |
194 | |
195 set_symbol は、もういらないよね? | |
196 | |
197 list dma 中心の実装にして、もっと細かく read/exec/write | |
198 した方が良いかも。 | |
199 | |
200 post で、PPE task を渡せると良い。address は parameterとして送る | |
201 | |
276 | 202 2009-02-13 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> |
203 | |
204 * kernel/ppe/Random.cc (reset): fix | |
205 urandom -> random とどれも読めなかったら | |
206 gettimeofday() での時間から seed を求めるように | |
207 | |
208 2009-02-12 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
209 | |
210 * add: kernel/ppe/Random.cc | |
211 乱数生成クラス。 | |
212 ゲームだとユーザ使うでしょうきっと。 | |
213 一応 /dev/random から seed 取る様にしてます | |
214 | |
215 2009-02-04 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
216 | |
217 * kernel/ppe/TaskManager.cc (TaskManager::allocate): rename | |
218 malloc -> allocate | |
219 | |
220 * kernel/main.cc (main): fix | |
221 cerium_main を呼ぶのではなく、TMmain という名前にしました。 | |
222 ちょっと SDLmain をパクった感じで。 | |
223 まあ TaskManager の main で cerium_* って名前は微妙に変だからね。 | |
224 | |
225 * kernel/ppe/TaskManager.cc (TaskManager::set_TMend): add | |
226 cerium_main があるんだから、cerium_end があってもいいじゃない。 | |
227 もっと言うと、TaskManager に main を隠すって流れなんだけど | |
228 終了を検知できないのはちとやりづらいかなと。 | |
229 たとえば測定とか。Task の post_func とかでもやれないことはないけどね。 | |
230 というわけで、ユーザが、プログラム終了時に呼ばれる関数を設定できるように。 | |
231 | |
232 2009-01-20 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
233 | |
234 * Cell/spe/SchedTask.cc (SchedTask::get_cpuid): add | |
235 printf デバッグ時に、どの CPU かって知りたい時があるので。 | |
236 | |
237 PPE = 0 | |
238 SPE = 0〜spu_num-1; | |
239 | |
240 PPE は 0 以外に分かりやすい数字がいいんだけどなー。SPE と被るし。 | |
241 -1 とかはエラーっぽいから好かない。まあいいんだけど。 | |
242 | |
243 User Task では以下の様に使用します | |
244 | |
245 int cpuid = smanager->get_cpuid(); | |
246 | |
247 | |
248 * Cell/SpeThreads.cc (SpeThreads::spe_thread_run): fix | |
249 SPE_EXIT が出る時は正常終了だけど、これだと | |
250 エラーでたようなメッセージに見えてしまう(俺がそう見えてしまった)ので | |
251 ここは表示しなくてもいいかな。 | |
252 | |
253 * kernel/ppe/MailManager.cc (MailManager::destroy): fix | |
254 無限ループになってた。この for() 間違ってるかな。 | |
255 なんか TaskQueueInfo.cc とかでも、結局 while() に直してるし。 | |
256 | |
257 * kernel/ppe/TaskManager.cc (TaskManager::~TaskManager): add | |
258 kernel/main.ccで | |
259 | |
260 delete manager; | |
261 | |
262 としているのに、TaskManagerImpl::~TaskManagerImpl が呼び出されず | |
263 どうしてかなと思ったら、そもそも ~TaskManager が無かった。あほか | |
264 | |
265 2009-01-05 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
266 | |
267 * all : fix | |
268 Scheduler::curIndex_taskList を削除し、 | |
269 SchedTask に持たせる様に変更。(SchedTask::__cur_index) | |
270 それに伴い、SchedTask::__init__() も cur_index を入れる様に変更 | |
271 | |
272 2008-12-24 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
273 | |
274 * kernel/schedule/SchedTask.cc (SchedTask::ex_init_renew) | |
275 (SchedTask::ex_init_normal): add | |
276 (SchedTask::__init__): fix | |
277 | |
278 init でも ex_init を使える様に。 | |
279 あと、コンストラクタで渡していた引数を __init__() に渡す様にした。 | |
280 コンストラクタの引数あると、継承する時にいちいち親クラスのも書かないと | |
281 いけなかった。これ省略できないんだよな。めんどくさい。 | |
282 | |
283 例. | |
284 class Hoge : public SchedTask { | |
285 Hoge(int i) : Task(i) {} | |
286 }; | |
287 | |
288 なので、今までは Scheduler.h に SchedConstructor ってマクロを書いて | |
289 クラス名入れるだけで上の様な形になるようにしていた。 | |
290 でも、例えば | |
291 | |
292 SchedTask -> Hoge -> Fuge っていうように Fuge ってタスクを | |
293 作りたいとき、上のままだと SchedTask に引数渡してしまうのでだめ。 | |
294 もうめんどくさいってことで、コンストラクタ全てデフォルトにして、 | |
295 __init__() の引数に渡す様にしました。 | |
296 | |
297 (SchedTask::__set_renewFlag): add | |
298 | |
299 ここで、PPEで生成されたか(normal)、SPE で生成されたか(renew) の | |
300 判定を行い、ex_xxx の設定もする | |
301 | |
302 (SchedTask::get_inputSize, SchedTask::get_outputSize): add | |
303 | |
304 アドレスだけじゃなく、そのサイズも取れた方がいいだろう | |
305 | |
306 | |
307 2008-12-23 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
308 | |
309 * Cell/spe/SchedTask.cc (SchedTask::get_outputAddr) | |
310 (SchedTask::get_inputAddr): add | |
311 | |
312 in/out のデータだけじゃなく、そのアドレスも取れた方がいいだろう | |
313 | |
314 2008-12-22 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
315 | |
316 * Cell/spe/SchedTask.cc (SchedTask::__init__, SchedTask::read) | |
317 (SchedTask::exec, SchedTask::write): fix | |
318 (SchedTask::ex_read_normal, SchedTask::ex_read_renew) | |
319 (SchedTask::ex_exec_normal, SchedTask::ex_exec_renew) | |
320 (SchedTask::ex_write_normal, SchedTask::ex_write_renew): add | |
321 | |
322 SPE 内で生成されたタスクは、PPE で生成されたものと違い | |
323 | |
324 - add->inData | |
325 : PPE から DMA or SPE 内のものをそのまま使う | |
326 - PPE にタスクが終了したことを知らせる | |
327 : 生成されたタスクを待つ必要があるなら、その時点では送らない | |
328 | |
329 とか、まあいろいろ処理が違うわけです。 | |
330 そして、タスク内生成タスクの判断をする | |
331 | |
332 __flag_renewTask ? 0 = PPE で生成 : 1 = SPE で生成 | |
333 | |
334 という変数がある。これでいくつか処理を分けてるんだけど、 | |
335 今までは | |
336 | |
337 if (__flag_renewTask) { | |
338 } else { | |
339 } | |
340 | |
341 ってやってた。これではいかんという事で、 | |
342 __init__() 内で、関数ポインタに、 | |
343 | |
344 ex_xxxx_normal: PPE で生成されたタスクに対する処理 | |
345 ex_xxxx_renew: SPE で生成されたタスクに対する処理 | |
346 | |
347 と入れて、if 文無しでやってみた。 | |
348 今は ex_write_xxx しか書いてないが、これからread/exec でも | |
349 出てくると思うので、作っておいた | |
350 | |
351 | |
352 2008-12-19 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
353 | |
354 * Cell/spe/CellDmaManager.cc (CellDmaManager::dma_wait) | |
355 (CellDmaManager::mail_write, CellDmaManager::mail_read): fix | |
356 writech、readch の関数を、wrap (って言い方でおk?)された関数に変更。 | |
357 最適化掛かってるっぽいし、長いよりはわかりやすいし。そのための wrap。 | |
358 | |
359 例: | |
360 - before | |
361 spu_readch(SPU_RdInMspu_readch(SPU_RdInMbox); | |
362 - after | |
363 spu_read_in_mbox(void); | |
364 | |
365 2008-11-05 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
366 | |
367 * add: Task 内での API | |
368 Task 外での API は、今まで通り manager->create_task とかですが | |
369 タスク内でも、「オブジェクト->関数」の呼び出しがいいんじゃないか | |
370 って話になったので、付け加えました。今のところ、SchedTask.h の | |
371 内部クラスとして | |
372 | |
373 STaskManager | |
374 | |
375 ってのを加えて、ユーザはそのインスタンスである | |
376 | |
377 smanager | |
378 | |
379 からAPIにアクセスします。 | |
380 今までは __scheduler->dma_load とかいろいろやってたんですが | |
381 これからは全て smanager にしました。 | |
382 というわけで、ここに使える API 一覧。いずれゲーム班 wikiの方にも。 | |
383 | |
384 - get_input, get_output, get_param | |
385 - create_task, wait_task | |
386 - global_alloc, global_get, global_free | |
387 - mainMem_alloc, mainMem_wait, mainMem_get | |
388 - dma_load, dma_store, dma_wait | |
389 - allocate | |
390 | |
391 使い方は追々描きますが、 | |
392 今のところ上に変更しなくてもそのままの記述で動くはずです。 | |
393 いずれは全て移行してもらうことになりますがきっと。 | |
394 | |
395 | |
396 * kernel/schedule/SchedTask.cc: | |
397 いろいろ関数が増えてますが、ラッパーです。 | |
398 | |
399 2008-11-01 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
400 | |
401 * add: kernel/main.cc | |
402 main loop をユーザに書かせるのはめんどくさいので、 | |
403 ライブラリ側で main() を書く事にしました。 | |
404 ユーザ側では main() の代わりに cerium_main() を | |
405 書かせるようにしています。引数は main() のをそのまま渡す感じで。 | |
406 | |
407 Cerium 標準のオプションとして、-cpu は付けました。 | |
408 ゲームフレームワークってことで、-width とか -height は | |
409 標準でつけてもいいかなって話なので、これは後日実装。 | |
410 標準オプションで受け取った値にアクセスする方法も考えないと。 | |
411 manager->cpu とか manager->width とかは安易か? | |
412 | |
413 * add: Cell/PpeScheduler.cc | |
414 MainScheduler をそのまま使うと、 | |
415 PPE のタスクで mainMem_alloc で確保した領域がアライメント | |
416 取れていないため、SPE で使うと余裕でバスエラー。 | |
417 | |
418 Scheduler->allocate で poxis_memalign で使えるように。 | |
419 | |
420 * move: kernel/schedule/FifoDmaManager.cc, MainScheduler.cc | |
421 kernel というよりは Fifo バージョン用なので Fifo/ に移動。 | |
422 | |
423 | |
424 2008-10-21 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
425 | |
426 * kernel/ppe/TaskManagerImpl.cc (TaskManagerImpl::systask_init): fix | |
427 下に述べてる SysTask_Finish を regist する部分 | |
428 | |
429 (TaskManagerImpl::spawn_task): | |
430 | |
431 SysTask_Finish に対して、タスクが spawn されるたびに | |
432 wait_for を掛けて、待つようにしている。 | |
433 | |
434 * add: kernel/systask/ | |
435 久々の更新乙 | |
436 | |
437 プログラム動かすとき、タスクが SPE だけで、 | |
438 PPE で待ってるタスクが無いとそのままプログラムが素通りするってことで | |
439 今まではユーザに、全てのタスクを待たせるタスクってのを書かせてた。 | |
440 まあもちろんめんどくさいので、いい加減追加した。 | |
441 | |
442 system task っつーことで、spawn された全てのタスクを待つ | |
443 SysTask_Finish を作った。これでいちいち task_finish とか作らなくておk | |
444 | |
445 2008-08-10 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
446 | |
447 * thinking: add_update() ? | |
448 現在、タスクは input/output があるわけですよ。 | |
449 で、例えば | |
450 | |
451 - 入力データ : PolygoPpack | |
452 - 出力データ : SpanPack | |
453 | |
454 ってなわけですが、別のタスクで | |
455 | |
456 - 入力データ : SceneGraphPack (更新前) | |
457 - 出力データ : SceneGraphPack (更新後) | |
458 | |
459 ってのがある。つまり Update なわけだ。 | |
460 今のところ、同じアドレスを add_inData, add_outData に設定して | |
461 タスク内で memcpy(wbuf, rbuf, sizeof(SceneGraphPack) とかしてる。 | |
462 まあそれはそれでいいのかわるいのか。 | |
463 | |
464 in/out だけじゃなくて update も必要? | |
465 | |
466 2008-08-08 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
467 | |
468 * add: ../include/TaskManager/base.h | |
469 通常の new/delete では、RTTI とか 例外処理とかで | |
470 -fno-exceptions や -fno-rtti をコンパイルオプションにしても | |
471 効かなかったんだけど、operator new/delete をオーバーライドして | |
472 中身を普通の malloc/free にすると、上の処理が無くなるので | |
473 オプションが効くようになる。結果コードサイズも減ると。 | |
474 SPE の場合、70〜80KBは減りました。使わない手は無い。 | |
475 つーことで、一応動いてる。。。といいたけど動いてないorz | |
476 最適化 (-O2 とか -O9) をかけると止まる。SPE 上でね。 | |
477 FIFO バージョンだと問題ない。SPEだとだめだ。 | |
478 今わかってる、止まる場所は Scheduler::run() 内の | |
479 | |
480 task3->write(); | |
481 | |
482 だ。task1~3までのnewは(多分)できているんだけど | |
483 そこを呼び出すと SPE 自体が終了してしまう。謎だ | |
484 | |
485 一応、俺作の new/delete は base.h に定義してあって、 | |
486 通常の API との切り替えは、base.h にある | |
487 BASE_NEW_DELETE を切り替えるだけでおk。 | |
488 全てのファイルではなく、現在は SPE で使いそうなところだけやってます。 | |
489 いずれは全部やったほうがいいかな〜 | |
490 | |
491 ライブラリ側の最適化はアウトだけど、ユーザ側では問題ないです。 | |
492 なので、今は | |
493 | |
494 ライブラリ側(libspemanager.a)は最適化無し(-O0) | |
495 ユーザ側(SchedTaskを継承したやつね)は最適化しても無問題 (-O9) | |
496 | |
497 でっす。ここらへん完璧なれば、だいぶ楽になる。 | |
498 つーかもう C++ やめ(ry | |
499 | |
500 | |
501 2008-08-07 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
502 | |
503 * change: mainMem_set -> mainMem_wait | |
504 allocate を待つんだから、なんとなく wait かな。 | |
505 あと、ユーザも使えるので、wait の方がわかりやすいと思ったり。 | |
506 | |
507 2008-08-05 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
508 | |
509 * add: mainMem_alloc, mainMem_set, mainMem_get | |
510 SPE から メインメモリの領域に対して allocate できないと | |
511 SceneGraphの生成やら、結構クリティカルな処理を | |
512 全部 PPE でやらないといけなくなるってことで実装しました。 | |
513 | |
514 流れとして | |
515 | |
516 1 タスク中に、mainMem(id,size) を実行する事で、 | |
517 メインメモリに対して allocate のコマンドを発行。 | |
518 | |
519 1.1 Scheduler から PPE に対して | |
520 - commmand (MY_SPE_COMMAND_MALLOC) | |
521 - id (PPEから戻ってくるコマンドに必要) | |
522 - size | |
523 を mailbox で送る | |
524 | |
525 1.2 確保した領域はそのタスク内では取得できない(NULL が来ます) | |
526 正確には、返事の mail をここでは read してないから | |
527 | |
528 2. PPE では、受信した mail が MY_SPE_COMMAND_MALLOC だったら | |
529 次に来る mail が id と size であるとして read を行い、 | |
530 size を元に allocate する。allocate が完了したら | |
531 - id | |
532 - allocate された領域のアドレス | |
533 を SPE に mail で送る | |
534 | |
535 3. SPE Scheduler では、SchedTaskList::read で、 | |
536 一つ前の TaskList 中で実行された mainMem_alloc の数だけ | |
537 PPE からのメールを待つ。mainMem_set() の処理です。 | |
538 | |
539 4. create_task されたタスク内で mainMem_get(id) とすると | |
540 allocate したメインメモリ領域のアドレスが得られる。 | |
541 | |
542 こんな感じ。結構ださい実装なので、もうちょいスマートにいきたいよね。 | |
543 例題は Game_project/student/master/gongo/MainMemMalloc にあります。 | |
544 README にもおんなじこと書いてます。 | |
545 | |
546 * memo: The number of available entries of Inbound/Outbound Mailbox | |
547 Outbound (SPE -> PPE) のmailboxデータキュー保持数は | |
548 | |
549 /* SPE プログラム中 */ | |
550 #include <spu_mfcio.h> | |
551 spu_stat_out_mbox(void); | |
552 | |
553 で調べる事が出来る。 | |
554 | |
555 --- 記述例 --- | |
556 printf("Available capacity of SPU Outbound Mailbox\n"); | |
557 printf(" %d\n", spu_stat_out_mbox()); | |
558 | |
559 --- 実行結果 -- | |
560 Available capacity of SPU Outbound Mailbox | |
561 1 | |
562 | |
563 Inbound (PPE -> SPE) の mailbox データキュー保持数は | |
564 | |
565 /* PPE プログラム中 */ | |
566 #include <libspe2.h> | |
567 spe_in_mbox_status(spe_context_ptr_t); | |
568 | |
569 で調べられます。 | |
570 | |
571 --- 記述例 --- | |
572 printf("the number of available entries = %d\n", | |
573 spe_in_mbox_status(spe_ctx)); | |
574 | |
575 --- 実行結果 --- | |
576 the number of available entries = 4 | |
577 | |
578 Outbound が少ないなー。 | |
579 In/Out 共に、キューが MAX の場合、減るまで wait 掛かるんだよな。 | |
580 それがどこまで影響あるかは実際にやらないと、ってことか。 | |
581 | |
582 * fix: ファイル名の変更 (*.cpp -> *.cc) | |
583 前々から先生に直せ言われてたので。 | |
584 | |
585 cvs のファイル名を変える方法は簡単に二つ(てかこれだけ?) | |
586 | |
587 1. cvs rm hoge.cpp; cvs add hoge.cc | |
588 2. リポジトリを直接変更 mv hoge.cpp,v hoge.cc,v | |
589 | |
590 めんどくさかったので 2 でやりました。 | |
591 Attic (削除されたファイルがあるリポジトリディレクトリ?)にも | |
592 同じ処理を行えば、tag で update かけてもちゃんと反映されました。 | |
593 | |
594 2008-07-22 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
595 | |
596 * tag: open-campus-2008 | |
597 次やる事は、Cell/spe 以下のコードサイズを減らすために | |
598 new/delete を消して malloc/free で統一する事。 | |
599 placement_new ってのを使えば、コンストラクタは呼べて | |
600 new ほどサイズ圧迫しないからこれにしようかな。 | |
601 逆の placement_delete ってのは自分で小細工しないと行けないらしい。 | |
602 まあ、これが旨く行けば 80KB ほど減るから。やるべきだろう。 | |
603 | |
604 * Cell/spe/Scheduler.cpp (Scheduler::dma_load): アホなミスその2 | |
605 自分で __scheduler->dma_store をやってもデータが送れない。 | |
606 そんな馬鹿な。つーことでいろいろ調べてもわからない。 | |
607 アドレスやサイズが違うのかと調べても違う。 | |
608 こうなったらっつーことでライブラリに printf 加えてみたら表示されない | |
609 あれ、おかしいな。たしかに Connector::dma_store に加えたはz・・ | |
610 | |
611 Scheduler::dma_store(void *buf, uint32 addr, uint32 size, uint32 mask) | |
612 { | |
613 <<< | |
614 connector->dma_load(buf, addr, size, mask); | |
615 ======== | |
616 connector->dma_store(buf, addr, size, mask); | |
617 >>> | |
618 } | |
619 | |
620 なぜ store から load を呼んでるのか不思議だった。 | |
621 Scheduler::dma_load をコピペして dma_store にした後、 | |
622 中の connector->dma_load を変えなかったってオチだな。 | |
623 下のミスと合わせて5,6時間費やしたよHAHAHA | |
624 | |
625 * Cell/spe/SchedTask.cpp (SchedTask::exec): アホなミスその1 | |
626 Test/test_render で、 | |
627 SpanPack のデータが時々壊れてる感じがする。 | |
628 送る前までは正常だから生成に問題は無いはず。 | |
629 つーことでいろいろ調べたがわからず。 | |
630 printf デバッグすると動く不思議 | |
631 なんだ、printf で遅くなったらできるってことは | |
632 DMA が完了する前に SchedTask::run にきてんのか? | |
633 いやいや、そんなばかな。だってちゃんと wait し・・・ | |
634 | |
635 <<< | |
636 ============ | |
637 __scheduler->dma_wait(DMA_READ); | |
638 >>> | |
639 | |
640 はいはい wait し忘れ wait し忘れ | |
641 | |
642 2008-07-16 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
643 | |
644 * memo: if 文消した成果2 & memcpy するかしないかか | |
645 Renew Task では、inListData,outListData は新たに allocate して | |
646 使っているので、SchedTask にそって実行する場合、 | |
647 | |
648 __scheduler->dma_load(__inListData, (uint32)__task->inData, | |
649 sizeof(ListData), DMA_READ_IN_LIST); | |
650 __scheduler->dma_load(__outListData, (uint32)__task->outData, | |
651 sizeof(ListData), DMA_READ_OUT_LIST); | |
652 | |
653 の代わりに | |
654 | |
655 memcpy(__inListData, __task->inData, sizeof(ListData)); | |
656 memcpy(__outListData, __task->outData, sizeof(ListData)); | |
657 free(__task->inData); | |
658 free(__task->outData); | |
659 | |
660 もしくは | |
661 | |
662 __inListData = __task->inData; | |
663 __outListData = __task->outData; | |
664 (__task->inData と __task->outData は Destructor で free する) | |
665 | |
666 とやっています。 | |
667 memcpy が重いのはわかるんですが、下の方法では | |
668 Destructor で if 文使って free() しているわけです(このタスクが Renew か否か)。 | |
669 ですので、どっちが早いか試してみた。 | |
670 | |
671 /** | |
672 * memcpy() して、すぐ free() する version | |
673 */ | |
674 void | |
675 test_cpy(int flag, int *src) | |
676 { | |
677 if (flag) { | |
678 memcpy(data, src, sizeof(int)*length); | |
679 free(src); | |
680 } | |
681 } | |
682 | |
683 /** | |
684 * 参照で扱って、最後に free() する version | |
685 */ | |
686 void | |
687 test_nocpy(int flag, int *src) | |
688 { | |
689 if (flag) { | |
690 data = src; | |
691 } | |
692 | |
693 // この部分を SchedTask::~SchedTask() と | |
694 // 思ってください | |
695 if (flag) { | |
696 free(data); | |
697 } | |
698 } | |
699 | |
700 | |
701 これらの関数を10000回ループしました。 | |
702 src の allocate は関数の外でやっており、その部分は実行時間に含まれてません | |
703 flag は 1 or 0 の繰り返しです。 | |
704 | |
705 - 実行結果 (1) | |
706 :no copy | |
707 SPE time by SPU Decrementer: 0.035500 | |
708 :copy | |
709 SPE time by SPU Decrementer: 0.057500 | |
710 | |
711 memcpy しないほうが速いらしいです。 | |
712 ためしに、flag を ずっと 1 にしてみました。 | |
713 | |
714 - 実行結果 (2) | |
715 :no copy | |
716 SPE time by SPU Decrementer: 0.055250 | |
717 :copy | |
718 SPE time by SPU Decrementer: 0.053389 | |
719 | |
720 今度は copy するほうが早いという不思議。 | |
721 でもまあ、ずっと 1 ってことはないと思いますし、 | |
722 むしろ flag == 1 になるほうが少ないと思うので、 | |
723 no_copy version でやったほうがいいかな。 | |
724 | |
725 おまけで、実行結果 (1) の環境で、test_nocpy を変えてみた | |
726 | |
727 void | |
728 test_nocpy(int flag, int *src) | |
729 { | |
730 if (flag) { | |
731 data = src; | |
732 } | |
733 | |
734 free((void*)(flag*(int)data)); | |
735 } | |
736 | |
737 キャストしまくりですが、単純に free(flag*data) だと | |
738 「invalid operands of types 'int' and 'int*' to binary 'operator*'」って | |
739 出るので、キャストで逃げました。 | |
740 で、実行結果なんですが | |
741 | |
742 - 実行結果 (3) | |
743 :no copy | |
744 SPE time by SPU Decrementer: 0.040375 | |
745 :copy | |
746 SPE time by SPU Decrementer: 0.059500 | |
747 | |
748 遅くなってーら。キャストが悪いのか。乗算が重いのか。 | |
749 branch が無い? spe の if 文と対決しても遅いのかー。 | |
750 例題が間違ってる可能性もあるが・・・ if 文は使っていくかなー | |
751 | |
752 | |
753 2008-07-10 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
754 | |
755 * fix: TaskGroup->group | |
756 今まで slist っていう、ライブラリの単方向リスト構造体?を | |
757 使ってたんだけど、まあいろいろあって、TaskQueue を使うようにしました。 | |
758 最初からこれにするつもりではあったけどね。 | |
759 RenewTask や static_alloc とかの実装を優先したので | |
760 ライブラリを使いました。といっても、書いてみると | |
761 それほと記述量無いので最初から行っても良かったかなーと思ったり。 | |
762 | |
763 そんなわけで動いてます。つーか、やめてよかったよ slist。 | |
764 slist を使ったやつと使ってない奴のファイルサイズがやばい | |
765 | |
766 -rwxr-xr-x 1 gongo gongo 120672 2008-07-10 14:29 spe-main* | |
767 -rwxr-xr-x 1 gongo gongo 180368 2008-07-10 13:40 spe-main.bak* | |
768 | |
769 .bak が slist を使ってる、上のやつが使ってないversionです。 | |
770 まさか 60k も違ってくるとは思わなかった。 | |
771 SPE LS の容量が 256k と考えると、かなりの痛手だったよ。アブねえ。 | |
772 インラインとか最適化掛けまくってて、コード量が増えてるからかなー。 | |
773 | |
774 「SPU C/C++ 言語拡張」とかで、C++ のライブラリがSPUでも使えるよ〜 | |
775 って書いてたから入れてみたんだけど。罠だったか。 | |
776 おそらく SPU に移植した側の人も「サイズが増えるのを覚悟で使え」って | |
777 ことだったんだろう。なかったら文句言う人も居そうだし。 | |
778 | |
779 2008-07-09 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
780 | |
781 * fix: TaskGroup での task の扱い | |
782 下にもかいているけど (直したいところ (1)) | |
783 TaskGroup->group が持つ要素は int で持ってて、 | |
784 それらは、同じく TaskGroup が持つ cur_id をインクリメントしていって、 | |
785 それを要素としていました。つまり、TaskGroup->group は、厳密にいえば | |
786 「どの Task があるか」ではなく、「いくつのタスクがあるか」を | |
787 あらわしているだけでした。slist を使う意味もなかったわけです。 | |
788 | |
789 そこで、SchedTask が持つ、RenewTaskList の解放のタイミングを | |
790 RenewTaskList の一番最後のタスクが delete されるときにしました。 | |
791 これによって、アドレスが被ることがなくなったので | |
792 TaskGroup->group の要素を TaskPtr にできました。 | |
793 この方が、TaskGroup の意味的にもしっくりくるのでよかばってん。 | |
794 | |
795 * memo: if 文消した成果 | |
796 | |
797 #ifdef FREE_TEST | |
798 free((ListDataPtr)(__flag_renewTask*(int)(__inListData))); | |
799 free((ListDataPtr)(__flag_renewTask*(int)(__outListData))); | |
800 free((TaskListPtr)(__flag_renewTask*(int)(__list))); | |
801 #else | |
802 if (__flag_renewTask) { | |
803 free(__inListData); | |
804 free(__outListData); | |
805 free(__list); | |
806 } | |
807 #endif | |
808 | |
809 こんな感じで、いくつかか if 文を消してみた。 | |
810 そして、PPE側の main.cc で gettimeofday で計測してみた (各10回) | |
811 | |
812 | |
813 - if 文消した場合 | |
814 time: 1.222000 | |
815 time: 1.230000 | |
816 time: 1.241000 | |
817 time: 1.230000 | |
818 time: 1.223000 | |
819 time: 1.257000 | |
820 time: 1.219000 | |
821 time: 1.228000 | |
822 time: 1.220000 | |
823 time: 1.229000 | |
824 avarage: 1.2299 | |
825 | |
826 - if 文消してない場合 | |
827 time: 1.225000 | |
828 time: 1.215000 | |
829 time: 1.229000 | |
830 time: 1.218000 | |
831 time: 1.223000 | |
832 time: 1.214000 | |
833 time: 1.225000 | |
834 time: 1.215000 | |
835 time: 1.224000 | |
836 time: 1.219000 | |
837 avarage: 1.2207 | |
838 | |
839 あまり変わらな(ryむしr(ry | |
840 使い方がまずいのか、もっとと回数を増やせば変わってくるのかね。。。 | |
841 PPE でなく、 SPE のほうで計測すべきなのかなーとか思ったり思わなかったり。 | |
842 | |
843 | |
844 2008-07-08 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
845 | |
846 * add: Renew Task の wait | |
847 Renew Task は今まで「生成されたやつ全部待つ」だったのを | |
848 | |
849 void SchedTask::wait_task(TaskPtr task); | |
850 | |
851 ってのを作って、任意のタスクに wait 掛けれるようにしました。 | |
852 名前が思いつかなかったお。。。 | |
853 動作確認済み・・・だと思います。例題・・・誰か例題を!(俺が | |
854 | |
855 | |
856 * fix: SchedTask の変数名 | |
857 ユーザが継承して使う SchedTask クラスなんですが、 | |
858 今まで変数は list, task などを使ってました。 | |
859 が、これは一般に使われやすい変数名です。 | |
860 その証拠に、俺も例題書いている時に task って名前が被ってました。 | |
861 | |
862 run(r, w) | |
863 { | |
864 ... | |
865 | |
866 //TaskPtr task; <= 宣言してないのにエラーにならない | |
867 task = create_task(TASK_EXEC); | |
868 } | |
869 | |
870 ってコードを書いてたせいで、Scheduler が使用する task を | |
871 上書きしたせいでバグってました。ってことがありました。 | |
872 上のように、宣言してないのに普通に通ってるのを気づきませんでした。 | |
873 今のところ変数名は __task とか __list にしてあります。 | |
874 private にしてもいいんだけどさ。 | |
875 | |
876 | |
877 2008-07-07 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
878 | |
879 * fix: if 文を無くしてみた | |
880 下の方に 「if () が多い」って書きましたが、いろいろ小細工を。 | |
881 SchedTask をやってみました。例えば | |
882 | |
883 if (cmd != 0) { | |
884 delete taskGroup; | |
885 scheduler->mail_write(cmd); | |
886 } | |
887 | |
888 ってのがありました。cmd ってのは taskGroup->status で | |
889 もし cmd が 0 でなければ、taskGroup はすでに空っぽで | |
890 待つべきタスクはすべて終了したので、taskGroup を delete し、 | |
891 mailbox で cmd を PPE に送ります(cmd にはすでに送るべきコマンドがある) | |
892 でまあ、これくらいなら | |
893 | |
894 delete (int*)((cmd != 0)*(int)(taskGroup)); | |
895 scheduler->mail_write(cmd); | |
896 | |
897 ぐらいに直せました。 | |
898 delete や free では NULL を渡しても何もしない(?)って動作なので | |
899 これでも問題ない。つまり、cmd == 0 なら、taskGroup を | |
900 解放する必要は無いので NULL が delete に渡されるわけです | |
901 int* でキャストしてるのは、そのまま 0 を渡すと、 | |
902 「int型を delete するのはできない」的なエラーがでるからです。 | |
903 。。。だったら int* じゃなくて TaskGroupPtr じゃね?とか思った今。 | |
904 | |
905 あと、PPE 側で 「mail == 0 なら NOP」 的な処理を入れました。 | |
906 これによって、cmd が 0 かその他で if を書く必要がなくなりました。 | |
907 問題があるとすれば、 SPE -> PPE の mailbox の queue の長さ。 | |
908 NOP コマンドを送って、queue の制限に引っかかって | |
909 mail_write が止まるんじゃないかなーとか少し心配です。 | |
910 ここらへんは optimize の時間に考える事かな。 | |
911 どうせ PPE では mail しか読んでないし、 | |
912 そこまで queue が埋まる事は無いと思いたい。 | |
913 | |
914 | |
915 | |
916 あとはこんな感じかな | |
917 | |
918 #if 1 // fix | |
919 free((void*)(flag_renewTask*(int)(list))); | |
920 #else | |
921 if (flag_renewTask) { | |
922 free(list); | |
923 } | |
924 #endif | |
925 | |
926 動いてるのは確認したし、gdb で x/20i とかしたら | |
927 branch 命令が減ってるのは確認した。 | |
928 まあ -O9 とかで最適化掛けるとどっちも同じになるけどな。 | |
929 | |
930 | |
931 * add (API): static_alloc, static_get, static_free | |
932 SchedTask 自身だけが持つ領域ではなく、 | |
933 SPE 上に複数のタスクが共有したい領域を作る | |
934 これは task::run() 内で使用する。 | |
935 | |
936 - void* static_alloc(int id, int size); | |
937 @param [id] 領域ID。現在は 0〜31 まで使用可能 (Scheduler.h で定義) | |
938 @param [size] 領域のサイズ | |
939 @return allocate した領域のポインタ。下の static_get の返り値と同じ | |
940 | |
941 - void* static_get(int id); | |
942 @param [id] static_alloc で作った領域 ID。 | |
943 @return 領域のポインタ | |
944 | |
945 - void static_free(int id); | |
946 @param [id] 解放したい領域の ID | |
947 | |
948 こんな感じかなー。 | |
949 static_free はさすがにユーザに任せるだろう。 | |
950 static_free し忘れると SPE には致命的なので、ここはよく伝える必要有 | |
951 | |
952 例題は | |
953 cvs: firefly:Game_project/student/master/gongo/Static | |
954 | |
955 まあ Renew と大体同じですけどね。 | |
956 int 型配列 data を共有にして、各タスクでインクリメントしてる | |
957 | |
958 * TODO: TaskGroup の扱い | |
959 通常の Task では、task->self には | |
960 自分が終了した時に PPE に送るコマンド(自分自身)になりますが、 | |
961 タスク中に生成されたタスク(もう何度も書くのめんどいんで Renew で)では | |
962 task->self は、task を待っている TaskGroup を表します。 | |
963 | |
964 self という名前で意味が違うのでこういうことはやめたいんだが。。。 | |
965 といいながらやめないのが(ry | |
966 | |
967 * memo: | |
968 下の 直したいところ (1) ってやつがよくわからんので、 | |
969 現在の状況だけ | |
970 | |
971 scheduler->add_groupTask() をするたびに | |
972 | |
973 group.insert_front(cur_id++); | |
974 | |
975 されます。 | |
976 そして、scheduler->remove_groupTask() されると | |
977 | |
978 group.remove(--cur_id); | |
979 | |
980 されます。要するに、どのタスクでも | |
981 cur_id だけが insert/remove されます。 | |
982 「どのタスクがあるか」ではなく「どれだけのタスクがあるか」ですね。 | |
983 実際にはしっかりと TaskPtr で管理したかったんですが、 | |
984 下にも書いたアドレスが被る云々の問題でそれもできず。 | |
985 やり方はあると思うんですが。 | |
986 | |
987 うーん、うまく説明できないな。 | |
988 | |
989 * tag: v20080707 | |
990 タスク内タスク生成を作りました。 | |
991 | |
992 [TODO] | |
993 SPE 上で領域を共有する API の | |
994 | |
995 - static_alloc | |
996 - static_get | |
997 - static_free | |
998 | |
999 を速攻で実装しよう。。 | |
1000 | |
1001 * add: タスク内タスク生成 | |
1002 一応できたんですが、直したい。。。 | |
1003 仕様としては | |
1004 | |
1005 - 現在のタスク(T1) の中でタスクを生成したとする (Tc = T2, T3, ...) | |
1006 - 本来、T1 が終了次第、T1 が終わった事を PPE に伝えるが、 | |
1007 ここでは、Tc が全て終わってから、T1 の終了を PPE に伝える | |
1008 - Tc 内で再びタスクが生成されても(Tcc)、Tcc が終わってから T1 を(ry | |
1009 | |
1010 現在は、生成したタスクすべてに対して wait_for をかけてる感じ。 | |
1011 しかし、例えば Frame Buffer に書き込む時は待つ必要ない(はず)なので | |
1012 タスク毎に wait_for を選べるようにした方がいいだろう。 | |
1013 | |
1014 __ 例題 | |
1015 cvs firefly:Game_project/student/master/gongo/Renew | |
1016 | |
1017 にあります。 | |
1018 もうちょいちゃんとした例題が欲しいところです。 | |
1019 | |
1020 | |
1021 __ 直したいところ (1) | |
1022 | |
1023 現在、Tc を管理する構造体として、TaskGroup を使ってます | |
1024 | |
1025 class TaskGroup { | |
1026 unsigned int command; // T1 が PPE に送るコマンド | |
1027 __gnu_cxx::slist<int> group; // Tc がある Linked List | |
1028 | |
1029 // function は省略 | |
1030 }; | |
1031 | |
1032 slist じゃなくて、TaskQueue みたいに自分で作っても良かったんだけど。 | |
1033 group.empty() == true になったら、command を PPE に送るって感じです。 | |
1034 | |
1035 で、slist が持つデータが TaskPtr じゃなくて int の理由。 | |
1036 まあいろいろあるんだけど(何)、アドレスが重複してしまうことです。 | |
1037 最初は、create_task で得られた TaskPtr をキーとして使うつもりだったけど | |
1038 その TaskPtr は TaskList から取った物で (&list->takss[index] みたいな) | |
1039 なんでそれじゃだめなのか。buff_taskList[2] (Scheduler.cpp 参照) を | |
1040 使うと、交互に使用するのでアドレスは被る。 | |
1041 新たに allocate すれば問題は無いが (t1とする)、SPE の LS の問題で | |
1042 使わなくなった TaskList は free していかないといけない。 | |
1043 で、free -> 再び allocate したとき (t2とする)、t1 と t2 の | |
1044 アドレスが被ることがあった。当然 TaskPtr も被ると。 | |
1045 だから、アドレスではなく、TaskGorup が持つ | |
1046 unsigned int cur_id を使う事にしました。 | |
1047 | |
1048 なんかここまで自分で書いてて、 | |
1049 なんで出来ないのかまだわからんくなってきた。 | |
1050 | |
1051 ので試しに戻してみたら * で * き * ま * し * た * | |
1052 わけわからん。まあ勘違いだったのか、いろいろ別のところを直してるうちに | |
1053 知らず知らずミスってたところも治ってたのか。まあいいか。 | |
1054 | |
1055 と思っていろいろ試したらまた動かなくなった。。もうだめぽ | |
1056 とりあえず、また unsigned int に戻しました。 | |
1057 今のところ、0 <= cur_id <= 0xffff (65535) の範囲のキーを使うように。 | |
1058 | |
1059 | |
1060 __ 直したいところ (2) | |
1061 if 文が多い。 | |
1062 今は、「通常の Task」「タスク内で生成されたタスク」で挙動が違います。 | |
1063 例えば | |
1064 | |
1065 - SPE で allocate されたデータを使うので、通常 DMA を使うところは | |
1066 アドレス参照や memcpy を使う | |
1067 - TaskGroup を、上記の Tc や Tcc へ引き継がせるところ | |
1068 | |
1069 なので、flag_renewTask とかいう変数で、ほぼ if 文 で書いてます。 | |
1070 SPE でこの書き方はかなりまずい気がします。良い書き方はないものか。。。 | |
1071 「通常の(ry」「タスク内(ry」で新たにインスタンスを作るってのも | |
1072 考えはしましたが (SchedTask = 通常、SchedRenewTask = タスク内(ry とか) | |
1073 これだと ユーザー側も この二つを選んでやることになります。 | |
1074 「このタスクは SchedRenewTask 、このタスクは通常」とかやるのは | |
1075 かなりめんどくさいと思う。だからライブラリ側で分けるべきか。。。 | |
1076 多重継承とかってこんなとき役に立つん? | |
1077 | |
1078 | |
1079 2008-07-03 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1080 | |
1081 * TODO: | |
1082 - add_param で渡せるパラメータの数を増やす。15もあればいいんじゃね? | |
1083 - 今の実装では、 | |
1084 | |
1085 1. PPE でタスク(T1)が生成される | |
1086 2. SPE で T1 が実行される | |
1087 3. T1 が終わった事を PPE に mailbox で送る | |
1088 送る情報は T1 自身。(PPE で生成された時のアドレス) | |
1089 | |
1090 なわけです。しかし、もし T1 から新たにタスクが生成された時はどうするか | |
1091 仮に T1 から T2, T3, T4 が作られたとする。 | |
1092 このとき、 | |
1093 | |
1094 1. T1 が終わった時点で、T1 から終了コマンドを送る | |
1095 2. T1 だけでなく、T1 内で作られた T2, T3, T4 が終わってから | |
1096 終了コマンドを送る | |
1097 | |
1098 の二つが考えられる。 | |
1099 PPE 側では T1 しか認識していないため、この判定は SPE 内でやることになる | |
1100 必要な処理かと言われると微妙だが、欲しくなるのは間違いない。 | |
1101 つーことで今これを実装中です。 | |
1102 | |
1103 | |
1104 * tag: v20080703 | |
1105 - タスクに 32 bits パラメータを渡す add_param を実装(現在は3個まで) | |
1106 - SPE 内部でタスク生成ができるようになった | |
1107 | |
1108 * add (API): SPE内部での create_task | |
1109 今まで、SPE ではタスクを生成する事は出来ず、 | |
1110 PPE から送られてくるタスクを実行するだけでした。 | |
1111 それだと不便だってことで SPE 内部でもできるようにしました。 | |
1112 方法はPPEでやるのと同じく | |
1113 | |
1114 task = create_task(TASK_EXEC); | |
1115 task->add_inData(buff, sizeof(Buff)); | |
1116 task->add_param(data); | |
1117 | |
1118 みたいな感じでいいです。 | |
1119 spawn() や wait_for() は実装していません。 | |
1120 SPE 内部で生成するタスク同士で依存関係作るのが | |
1121 結構めんどくさいからです。spawn() も、しなくても勝手に実行します。 | |
1122 PPE とそろえる意味で作ってもいいんだけどね。 | |
1123 そのためには SPE にも TaskManager が必要になってくるなー。 | |
1124 | |
1125 | |
1126 2008-06-24 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1127 | |
1128 * add (API): add_param, get_param | |
1129 DMA で送れないけど、必要になってくる 4 バイトの情報があるとして | |
1130 それは今までは | |
1131 | |
1132 add_inData(param, 0); | |
1133 | |
1134 とかして、「サイズ == 0 なら 32 bit のデータ」としていたけど | |
1135 それは余りにも変なので(関数の意味的にもおかしい)ので、 | |
1136 | |
1137 add_param(parameter); | |
1138 | |
1139 ってのを追加しました。タスク側では | |
1140 | |
1141 get_param(index); | |
1142 | |
1143 とかします。index は、add_param を呼び出した順番で決まります | |
1144 | |
1145 add_param(x); | |
1146 add_param(y); | |
1147 add_param(z); | |
1148 | |
1149 とあるとき、タスク側では | |
1150 | |
1151 int x = get_param(0); | |
1152 int z = get_param(2); | |
1153 | |
1154 とします。 | |
1155 今のところ parameter は 3つしか送れないことになってますが | |
1156 後ほど、上限をあげます。15くらいあれば余裕だと思うんだがどうだい? | |
1157 今は、SPE でのタスクの生成のルーチンを書くために、最低限な部分だけ | |
1158 ってことで 3 つにしてます。それが出来次第、これもやります。 | |
1159 | |
1160 | |
1161 2008-06-12 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1162 | |
1163 * Cell/CellTaskManagerImpl.cpp (CellTaskManagerImpl::set_runTaskList): | |
1164 アホなミス(ry | |
1165 | |
1166 「list が持つ TASK_MAX_SIZE を超えると、次の list へ next を」っていう | |
1167 前回直したところがまたミスっててだな。 | |
1168 簡単に言うと | |
1169 | |
1170 TaskPtr task = &list[list->length++]; | |
1171 [task の初期化] | |
1172 | |
1173 if (list->length > TASK_MAX_SIZE) { | |
1174 [newList 生成] | |
1175 newList = append(newList, topList[speid]); | |
1176 topList[speid] = newList; | |
1177 } | |
1178 | |
1179 ってやってたわけ。これだと、toplist[speid] に | |
1180 length = 0 の list が来る可能性があると。 | |
1181 で、spe に TaskList を送る条件は | |
1182 | |
1183 1. taskList[speid]->length >= 1 | |
1184 2. speid が次の TaskList を待っている状態 | |
1185 | |
1186 で、1 の条件に触れてしまい、TaskList が送られなくなって | |
1187 プログラムが終了しないと。アホですね〜 | |
1188 上の if 文を &list[list->length++]; の前に持って行くだけでおk。 | |
1189 | |
1190 2008-06-10 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1191 | |
1192 * Cell/CellTaskManagerImpl.cpp (CellTaskManagerImpl::set_runTaskList): | |
1193 アホなミスしてました。 | |
1194 list が持つ TASK_MAX_SIZE を超えると、次の list へ | |
1195 next を繋げるはずなんだけど、speTaskList_bg[speid] とか読む時に | |
1196 ちゃんと繋げられてなかったというかなんというか。 | |
1197 簡単に言うと、タスク多くなると落ち(ry | |
1198 | |
1199 * add (API): set_post | |
1200 | |
1201 create_task(id, 0); | |
1202 | |
1203 とかわざわざ 0 付けるのもアレなので、もうそれように | |
1204 | |
1205 task->set_post(func) | |
1206 | |
1207 を追加しました。func は void (*func)(void) です。 | |
1208 せっかくだから、引数に void* とか付けてもいいんじゃないかと。 | |
1209 | |
1210 | |
1211 * fix (API): ListDMA API | |
1212 タスク側で、ListDMA で指定したデータの取り方 | |
1213 | |
1214 run(rbuf, wbuf) として | |
1215 | |
1216 // index は add_inData や add_outData で指定した(順番-1) | |
1217 get_input(rbuf, index); | |
1218 get_input(wbuf, index); | |
1219 | |
1220 返り値は void* なので、malloc っぽくキャストしてください。 | |
1221 あと、4バイト以下のデータを送りたい場合、main で | |
1222 | |
1223 add_inData(data, 0) | |
1224 | |
1225 と、アドレスは送りたいデータを則値で、サイズは 0 で指定するとおk。 | |
1226 get_input で int なりなんなりでキャストすればいいじゃない! | |
1227 例題は | |
1228 | |
1229 Game_project/student/master/gongo/arr_cal | |
1230 | |
1231 で複数データ扱ってたり4バイト送ってたりしてます。 | |
1232 | |
1233 | |
1234 * tag: v20080610 | |
1235 前回との違いは | |
1236 | |
1237 - ListDMA の導入 | |
1238 - 凡ミスfix | |
1239 | |
1240 とかかな。何気にここには ListDMA の API 書いてなかったな。 | |
1241 | |
1242 - task->add_inData(addr, size); // input | |
1243 - task->add_outData(addr, size); // output | |
1244 | |
1245 これで Input/Output のデータ領域を指定可能。複数できます。 | |
1246 詳しくはいずれドキュメントに書く予定だが、 | |
1247 | |
1248 - addr は 16 バイトアライメントに取れてないと行けない | |
1249 - size は 16 バイト倍数 | |
1250 | |
1251 ってのが最低条件。 | |
1252 16 バイト未満のデータを送りたいとき(整数を2,3個とか)は考え中。 | |
1253 addr に直接渡すって手法はできるとわかってるので、それでもいいかな。 | |
1254 まあいろいろ問題はありますが、少しはできたんじゃないかな。 | |
1255 | |
1256 次からは SPE 内でのタスク生成(再起動?)を書く予定 | |
1257 | |
1258 * Cell/CellTaskManagerImpl.cpp (CellTaskManagerImpl::set_runTaskList): | |
1259 if (speid > machineNum) { | |
1260 speid %= MAX_USE_SPE_NUM; | |
1261 } | |
1262 | |
1263 から | |
1264 | |
1265 if (speid >= machineNum) { | |
1266 speid %= machineNum; | |
1267 } | |
1268 | |
1269 に。なんという凡ミス | |
1270 | |
1271 * Cell/spe/CellDmaManager.cpp (CellDmaManager::dma_loadList): fix | |
1272 ListData が持つ ListElement は | |
1273 | |
1274 class ListElement { | |
1275 public: | |
1276 int size; | |
1277 unsigned int addr; | |
1278 }; | |
1279 | |
1280 というデータ構造なわけだが、これは、spu_mfcio.h が持っていて | |
1281 且つ List DMA で使用される | |
1282 | |
1283 typedef struct mfc_list_element { | |
1284 uint64_t notify : 1; /** Stall-and-notify bit */ | |
1285 uint64_t reserved : 16; | |
1286 uint64_t size : 15; /** Transfer size */ | |
1287 uint64_t eal : 32; /** Lower word of effective address */ | |
1288 } mfc_list_element_t; | |
1289 | |
1290 と同じである。notify と reserved は 0 となる (ストールは今は | |
1291 考えていない)ので、結局は uint が 2 つの 8 バイト のデータ構造であれば | |
1292 そのまま mfc_getl とか mfc_putl に遅れるわけである。 | |
1293 今までは mfc_list_element_t 構造体に for 文でいちいち代入してたが | |
1294 まあそれはなくなったっつーことで。dma_storeList もね。 | |
1295 | |
1296 | |
1297 2008-05-30 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1298 | |
1299 * change (API): TaskManager Memory Allocate | |
1300 manager->cerium_malloc(&buff, DEFAULT_ALIGNMENT, sizeof(Data)) | |
1301 | |
1302 から | |
1303 | |
1304 buff = (Data*)manager->malloc(sizeof(Data)); | |
1305 | |
1306 に変更しました。 | |
1307 alignment の指定は全て TaskManager に埋め込んであります。 | |
1308 記述は TaskManager.h に書いてあります。 | |
1309 | |
1310 void* TaskManager::malloc(int size) { | |
1311 return m_impl->allocate(DEFAULT_ALIGNMENT, size); | |
1312 } | |
1313 | |
1314 2008-05-29 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1315 | |
1316 * thinking: List DMA (4) | |
1317 Cell 版でも動いたのを確認。今、Cell 版で List DMA が動く条件は | |
1318 | |
1319 1. List の各要素の転送サイズが 16 バイト倍数でなければならない | |
1320 2. List の各要素の転送するデータのアドレスのアライメントを保証(16or128 | |
1321 | |
1322 2に関しては Cell の仕様なんでまあいいんだけど、 | |
1323 1は、ドキュメント見る分には | |
1324 | |
1325 - Cell Broadband Engine アーキテクチャ version 1.01 より | |
1326 - 7.5.3 get list | |
1327 > リスト・サイズ・パラメータは、このDMAコマンドの場合は | |
1328 > 8バイトの倍数でなければならず、また、リスト・アドレス・パラメータは、 | |
1329 > ローカルストレージの8バイト境界にアラインされなければなりません。 | |
1330 | |
1331 って書いてるんだよな。int が 10 個の配列(40バイト) を送っても | |
1332 見事に弾かれたんだよな。おのれバスエラーめ! | |
1333 とりあえず、上の条件を満たせば行けました。 | |
1334 送るデータのアロケートは | |
1335 | |
1336 TaskManager::cerium_allocate(void **buff, int align, int size); | |
1337 | |
1338 ってのを作りました。使い方は別項目で。だいたい posix_memalign 準拠。 | |
1339 | |
1340 動くのはいいんだけど、これだとユーザに全部任せる事になります。 | |
1341 特に、配列をアロケートした後、その途中の部分をリストに入れたい時。 | |
1342 その配列の要素のサイズが16倍数じゃないとそこでエラーがでると。 | |
1343 それをユーザに全部任せるのは、まあいけないこともないけどさ。。。 | |
1344 | |
1345 | |
1346 * Cell/CellTaskManagerImpl.cpp (CellTaskManagerImpl::mail_check): fix | |
1347 CellTaskManager は FifoTaskManager のオブジェクトを | |
1348 ppeManager という変数で持っていて、作業を別々に行っているわけで。 | |
1349 だけど両方のオブジェクトがもつ waitTaskQueue は同じじゃないと | |
1350 ならないので、最初は TaskQueuePtr * とかで渡して | |
1351 共有してたわけだけど、よくよく考えると、 | |
1352 | |
1353 - waitTaskQueue に task が append される時 | |
1354 CellTaskManager->append_waitTask() | |
1355 | |
1356 - waitTaskQueue から task が remove されるとき(依存満たした時とか) | |
1357 FifoTaskManagerImpl->mail_check() 及び | |
1358 CellTaskManagerImpl->mail_check() です。 | |
1359 | |
1360 つまり、waitTaskQueue が共有されるのは mail_check だけなので、 | |
1361 CellTaskManagerImpl の mail_check で | |
1362 | |
1363 ppeManager->mail_check(mail_list, &waitTaskQueue) | |
1364 | |
1365 として、ここで waitTaskQueue を参照渡ししてます。 | |
1366 ppeManager->mail_check で waitTaskQueue の整理が終わって | |
1367 戻ってくる事には waitTaskQueue が更新されていると。 | |
1368 | |
1369 なんか文章がおかしいですね。気になる人は俺に直でお願いします。 | |
1370 要するに、ppe と spe のそれぞれの TaskManagerImpl で | |
1371 waitTaskQueue の共有が上手くいったというわけです。 | |
1372 | |
1373 | |
1374 2008-05-24 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1375 | |
1376 * thinking: List DMA (3) | |
1377 現在実装中。Fifo 版では動いている模様。 | |
1378 問題は Cell だよなー。考えないと行けない事がいくつか | |
1379 | |
1380 - Input/Output データはアライメントされている? | |
1381 アライメントされていなくても、こっちでアドレスずらして | |
1382 DMAしてずらして run() に渡して〜とかもできるんだけど | |
1383 かなりめんどくさい。それに、In ならともかく、 | |
1384 Out は変な領域に書き込みそうなので無理そう。 | |
1385 これはもうユーザが、送るデータはすべて | |
1386 Cerium_malloc 的なものを通したものだけ、っていう | |
1387 制約にした方がいいかもしれない。てかそうなんだっけ。 | |
1388 | |
1389 - 配列中のデータの指定 | |
1390 上の項目と少し関連があるんだが、例えば | |
1391 | |
1392 int data[100]; // アライメントは取れてるとする | |
1393 | |
1394 ってのがあって、そのなかの data[0]〜data[49]、 | |
1395 data[50] 〜 最後まで送りたいとする。 | |
1396 最初のやつは &data[0] のアドレスは 16 bytes アライメントだけど、 | |
1397 &data[50] では、sizeof(int)*50 = おそらく 200 ずれて | |
1398 16 bytes アライメントではなくなると。これだと DMA できない。 | |
1399 ユーザがそこまで考えて、例えば data[32] から送る、とかでもいいけど。 | |
1400 ライブラリ側で、少しは融通効くようにすべきかな。 | |
1401 やるなら、アドレスずらして取って来て、ユーザが見るデータは | |
1402 そのずらした分戻してから見せるって感じ。変な説明だが。 | |
1403 | |
1404 うーん。今はとりあえず全てアライメント大丈夫な方向でやってみるか。 | |
1405 | |
1406 | |
1407 2008-05-23 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1408 | |
1409 * Cell/SpeThreads.cpp (SpeThreads::init): スレッドの生成 | |
1410 今まで作られてたスレッドは | |
1411 | |
1412 - spe_context_run を実行するだけのスレッド (spe_thread_run) | |
1413 - 上のスレッドを呼び出し、終了を待つスレッド (frontend_thread_run) | |
1414 | |
1415 2番目に何の意味があるのかということだが、 | |
1416 SPE 毎にスレッドを立ち上げておいて、 | |
1417 それぞれのSPEからのメールは、その担当するスレッドが見る、 | |
1418 って構想で作っていました。だけど、今は mailbox の扱いは | |
1419 Cell/CellTaskManagerImpl::mail_check で行っているため | |
1420 わざわざ2番目のスレッドを作る必要がなくなりました。 | |
1421 つーことで、frontend_thread_run ではなく、 | |
1422 最初から spe_thread_run を起動すればおkとなりました。 | |
1423 | |
1424 * Cell/SpeThreads.cpp (SpeThreads::get_mail): if 文排除 | |
1425 今までは | |
1426 | |
1427 if (spe_out_mbox_read(spe_ctx[speid], &ret, 1) < 0) { | |
1428 return ret; | |
1429 else | |
1430 return -1; | |
1431 | |
1432 とやっていた。これは | |
1433 | |
1434 - データを読めたらそれ(ret)を返す | |
1435 - データが無かったら -1 を返す | |
1436 | |
1437 ってことだったんだが、よくよく考えると、spe_out_mbox_read() は | |
1438 データがなかった場合 ret の値を変えないので、最初に | |
1439 | |
1440 unsigned int ret = (unsigned int)-1; | |
1441 | |
1442 としておけば、最終的に if 文無しの | |
1443 | |
1444 spe_out_mbox_read(spe_ctx[speid], &ret, 1); | |
1445 return ret; | |
1446 | |
1447 だけで済むわけだ。 | |
1448 | |
1449 2008-05-22 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1450 | |
1451 * thinking: List DMA (2) | |
1452 MFC List DMA read の場合は(少なくともPPEでcreate_taskする時は) | |
1453 read size が決まっているので無問題。 | |
1454 しかし、MFC List DMA write の場合。同じタスクでも | |
1455 違うサイズを出力するということはありえるので問題。 | |
1456 今までも、write の場合は task->run() の返す値が write size として | |
1457 使う事にしていた。List DMA write の場合は、おそらく | |
1458 | |
1459 - task->run() 内で write 用の List DMA 構造体を作って Scheduler に | |
1460 渡して、task->write() でやってもらう | |
1461 | |
1462 って感じ? でも(上の手法に限らず)、write のサイズが決まってないと | |
1463 write 用バッファを生成しておく事ができないので | |
1464 書き込めない or あらかじめ多めに取っておくってことが必要になる。 | |
1465 後者は SPE には痛手(昔は強制16KB確保とかやってたな)なので微妙。 | |
1466 前者は論外だろう。 | |
1467 | |
1468 うーん、どうすっかな。Single DMA write の頃からこれは問題であって。 | |
1469 最悪、ユーザが「write のサイズが変動しないようなタスクにする」とか? | |
1470 | |
1471 * thinking: List DMA | |
1472 | |
1473 構想としては以下のような考え。 | |
1474 | |
1475 class Task { | |
1476 int cmd; | |
1477 DataListDMA *rlist; | |
1478 DataListDMA *wlist; | |
1479 }; | |
1480 | |
1481 class DataListDMA { | |
1482 int length; // リストの数 | |
1483 unsigned int addr[128]; // アドレス | |
1484 int size[128]; // そのアドレスから取得するデータのサイズ | |
1485 }; | |
1486 | |
1487 128 という数字は、一つのタスクが持てるリストの合計サイズを | |
1488 1KB (= 1024B) にしようってことで 4*128+4*128 = 1024 としました。 | |
1489 ListDMA を使う流れとしては | |
1490 | |
1491 1. Scheduler から cmd にそった Task を生成する | |
1492 2. Task のコンストラクタ(もしくは Task を生成する implement 内 )で | |
1493 task->rlist, task->wlist を DMA read しておく (ここは通常のDMA) | |
1494 3. task->read() で MFC List DMA で List を読む | |
1495 | |
1496 DataListDMA->length に関しては、Task の中に入れるのも有りかと思う。 | |
1497 その場合は、2 の DMA read で、わざわざ 1KB 全部読む必要は無くなる。 | |
1498 | |
1499 | |
1500 * tag: v20080522 | |
1501 - PPE 側のタスクも SPE と同じく、クラスオブジェクトとして登録 | |
1502 - PPE、SPE 側の TaskManagerImpl を整理。見やすくなったと思われ | |
1503 | |
1504 こんなところかなー。 | |
1505 テストプログラムは | |
1506 | |
1507 Game_project/student/master/gongo/hello | |
1508 | |
1509 にあります。DMA の例題まだだったぜHAHAHA | |
1510 ここからは List DMA の処理を入れて行きたいと思います。 | |
1511 | |
1512 現在の simple_render のバージョンは | |
1513 PPE のタスクが関数ベースだった頃のなのでそのままでは動きません。 | |
1514 List DMA ができるか、気晴らしに描き直すと思います。 | |
1515 | |
1516 * Task 定義について | |
1517 PPE も C++ のクラスオブジェクトとしてタスクを定義するようにしました。 | |
1518 ちゃんとした API を考えたら改めて書きます。 | |
1519 | |
1520 * メールチェックから次のタスクリスト生成までの流れの変更 | |
1521 今までの FifoTaskManagerImpl の mail_check では | |
1522 | |
1523 1. mail_check | |
1524 1.1 check_task_finish | |
1525 1.1.1 notify_wait_taskQueue | |
1526 1.1.1.1 append_activeTask (依存満たしたタスクを) | |
1527 1.2 get_runTaskList | |
1528 | |
1529 と、全て mail_check の中で終わってたんですが、これを | |
1530 | |
1531 1. mail_check | |
1532 1.1 check_task_finish | |
1533 1.1.1 notify_task_finish | |
1534 2. wakeup_waitTask (つまり append_activeTask) | |
1535 3. get_runTaskList | |
1536 | |
1537 というように分割しました。 | |
1538 おかげで CellTaskManagerImpl の mail_check もすっきり。 | |
1539 | |
1540 2008-05-13 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1541 | |
1542 * Cell/CellTaskManagerImpl.cpp (CellTaskManagerImpl::set_task): | |
1543 // set_task って名前やめね? | |
1544 | |
1545 どの SPE に振るかって判定を少し変更。 | |
1546 cur_anySpeid の宣言場所のコメントにもあるけど、 | |
1547 これはインクリメントじゃなくて乱数の方が | |
1548 より SPE_ANY っぽいのか。むしろ「仕事してない方に割り振る」ってのが | |
1549 SPE_ANY の役目な気がするな。ウーム。。。 | |
1550 | |
1551 2008-05-05 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1552 | |
1553 * Cell/CellTaskManagerImpl.cpp (CellTaskManagerImpl::mail_check): | |
1554 PPE には実行するタスクが一つも無い時の動作がおかしかった。 | |
1555 要するに、 | |
1556 | |
1557 PPE で実行するタスクは全て SPE で実行中のタスク待ち | |
1558 | |
1559 って時。。。よけいわからなくなったな。 | |
1560 まあなんだ、今まで 必ずタスクが PPE and SPE にあったんだけど | |
1561 PPE or SPE ってか、どっちか片方でしか動いてない状況だと | |
1562 終了判定というか、それがおかしかったっぽい。 | |
1563 | |
1564 Hello World でのタスクは | |
1565 | |
1566 1. "Hello World!!" と表示するタスク (2.) を発行するタスク | |
1567 2. 表示するタスク | |
1568 3. 2 が全て終わったら実行される、最後のタスク(番兵的な | |
1569 | |
1570 この時、(2) が SPE だけで実行されてると、 | |
1571 (2) の終了を待つ (3) の判定?というか、それがおかしい | |
1572 | |
1573 | |
1574 もう眠くてわけわからん。 | |
1575 一応動いたんだけど、やはり描き直します。 | |
1576 気持ち悪いほどやっつけな書き方してるので。これはきもい。。。 | |
1577 | |
1578 2008-03-09 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1579 | |
1580 * memo: pthread_cond_wait | |
1581 この ChangeLog に書くものでもないが、まあメモ。 | |
1582 | |
1583 セマフォの P 動作は、基本的に | |
1584 | |
1585 --------------------- | |
1586 pthread_mutex_lock(&sem->mutex); | |
1587 | |
1588 while(sem->value == 0) { // 資源が無い | |
1589 // 条件付き変数に自分を登録して、ロックを解放して、他の | |
1590 // プロセスが資源を解放してくれるのを待つ | |
1591 pthread_cond_wait(&sem->cond,&sem->mutex); | |
1592 } | |
1593 // 自分の分の資源があったので、それを確保する */ | |
1594 sem->value--; | |
1595 // ロックを解放する | |
1596 pthread_mutex_unlock(&sem->mutex); | |
1597 ---------------------- | |
1598 | |
1599 こんな感じ。でコメントにもあるように、 | |
1600 pthread_cond_wait では、wait の前に unlock する。 | |
1601 これがよくわかってなくて、「while の外で lock してるのに | |
1602 「なんで他のプロセスが lock できるんだろう。」と。 | |
1603 man 見ろよと思った。てか先生のページのコメントに書いてるよ! | |
1604 | |
1605 | |
1606 2008-03-08 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1607 | |
1608 * memo: mailbox read の blocking/non-blocking | |
1609 spe_out_mbox_read は non-blocking API なので、 | |
1610 これをぐるぐる回すと busy-wait になるので、 | |
1611 今の所 ppe 側の Scheduler がトップに戻る?時にメール確認する。 | |
1612 で、spe_out_intr_mbox_read は blocking API 。 | |
1613 spe_out_mbox_read との記述の違いは、予め | |
1614 spe_event_handler_register で SPE_EVENT_OUT_INTR_MBOX を | |
1615 登録しておく。spe 側では、 | |
1616 | |
1617 spu_writech(SPU_WrOutMbox, data) | |
1618 | |
1619 じゃなくて | |
1620 | |
1621 spu_writech(SPU_WrOutIntrMbox, data) | |
1622 | |
1623 を使う必要がある。 | |
1624 両者の mailbox read の速度を調べてみたけど、そんなに違いは感じない。 | |
1625 まあベンチマークの取り方がへぼいせいかもしれないけど。 | |
1626 ってことで、こっちの intr の方がいいんじゃないかと思う。 | |
1627 これと セマフォを組み合わせて mail の処理は簡単になると思う。 | |
1628 セマフォの処理が重いって話もあるが、どうなんだろうね。 | |
1629 | |
1630 * Test/simple_render/task/create_span.cpp (half_triangle): fix | |
1631 画面外の span を描画しようとして落ちるので、それの修正。 | |
1632 polygon->span の時点で外してるけど、span を外すより | |
1633 Polygon の時点で修正するべきかな? | |
1634 | |
1635 * kernel/ppe/TaskManagerImpl.cpp (TaskManagerImpl::set_task): fix | |
1636 返す TaskList が、mainTaskList の最後尾になってた。 | |
1637 ってことで、TaskList のトップである bufferManager->mainTaskList を。 | |
1638 | |
1639 * kernel/ppe/BufferManager.cpp (BufferManager::clear_taskList): fix | |
1640 mainTaskList->length はクリアしてるのに、 | |
1641 mainTaskList->next をクリアし忘れてた。 | |
1642 だから空の TaskList が送られてたのか・・・ちくしょう! | |
1643 | |
1644 2008-03-07 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1645 | |
1646 * bug-fix (Test/simple_render): y座標の移動方向 | |
1647 (1) で、書き込む時に | |
1648 | |
1649 y = height - y | |
1650 | |
1651 としていた。千秋に聞いてみると、 | |
1652 | |
1653 「ポリゴンの y を増やす(+)と、画面上に進むようにした」 | |
1654 | |
1655 だそうです。なるほどねー。ってことで(2)でもやったら上に進んだよ。 | |
1656 | |
1657 しかし、ゲーム的には上が + の方がわかりやすいかもしれんが、 | |
1658 プログラミング的には、framebuffer ベースでやるので、 | |
1659 下にいくと y++ ってほうが作りやすいかなーと思いつつ。どっちがいいかね | |
1660 | |
1661 * bug (Test/simple_render): y座標の移動方向 | |
1662 Viewer::run_draw で、従来の、SpanPack をそのまま描画する方法(1)と、 | |
1663 SPE に渡すように、8分割したものとして描画する方法(2)で、 | |
1664 それぞれの y に +0.5 とかしたら、移動する方向が違う。 | |
1665 (1)では上、(2)では下へ行く。 | |
1666 送られてくる span には違いが見られず、 | |
1667 x 方向や 回転は問題ないので、おそらく draw 時の y の計算のバグだろう。 | |
1668 | |
1669 1: polygon.cpp Polygon::draw(SPANPACK); | |
1670 2: task/span_pack_draw.cpp run(); | |
1671 | |
1672 * Test/simple_render/spe/SpuDraw.cpp: ↓の続きの解決 | |
1673 render_y &= ~7 | |
1674 | |
1675 これでおkでした。先生ありがとうございます。 | |
1676 今はマクロとして | |
1677 | |
1678 #define YTOP(y) (y & ~7) | |
1679 | |
1680 ってやってますわ。 | |
1681 | |
1682 2008-03-05 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1683 | |
1684 * memo: MFC List DMA の element の最大値 | |
1685 「Cell Broadband Engine Architecture Version 1.02」 より | |
1686 | |
1687 P.55 | |
1688 The maximum number of elements is 2048. | |
1689 Each element describes a transfer of up to 16 KB. | |
1690 | |
1691 ってことらしいです。一度の転送での制限は普通のDMAと変わらず16KB。 | |
1692 mfc_list_element_t は 2048 個まで設定できるってことか。 | |
1693 テクスチャのロードで、分割しないなら MFC List DMA を使うことになるが、 | |
1694 2048 個もあれば充分? | |
1695 | |
1696 | |
1697 * Test/simple_render/spe/SpuDraw.cpp: ↓の続き | |
1698 と思ったけど、やっぱりずれるなあ。うーむ。 | |
1699 とりあえず今は | |
1700 | |
1701 if (render_y < 0) { | |
1702 int tmpy = render_y%8; | |
1703 render_y -= tmpy + (tmpy != 0)*8; | |
1704 } else { | |
1705 render_y -= (render_y%8); | |
1706 } | |
1707 render_y += 1080/2; | |
1708 | |
1709 で落ち着くことに。うーむ。 | |
1710 もっと良い計算を考えるよりは span の生成時で | |
1711 いろいろやるほうがいいのかなー | |
1712 | |
1713 2008-03-04 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1714 | |
1715 * Test/simple_render/spe/SpuDraw.cpp: ↓の続き | |
1716 よくよく考えてだな。。。マイナスが気になるなら | |
1717 | |
1718 if (render_y < 0) { | |
1719 int tmpy = render_y%8; | |
1720 render_y -= tmpy + (tmpy != 0)*8; | |
1721 } else { | |
1722 render_y -= (render_y%8); | |
1723 } | |
1724 render_y += 1080/2; | |
1725 | |
1726 じゃなくて | |
1727 | |
1728 render_y += 1080/2; | |
1729 render_y -= (render_y%8); | |
1730 | |
1731 これでよくね?ってか元々そのための 1080/2 だった気が。。。 | |
1732 | |
1733 * Test/simple_render/spe/SpuDraw.cpp: render_y の計算の修正 | |
1734 sp->span[0].y (SpanPack に格納されてる最初の Span の y 座標) から | |
1735 この SpanPack が描画する範囲の一番上の y 座標を調べる。 | |
1736 | |
1737 どういうことかっていうと、例えば SpanPack に入ってる Span が持つ | |
1738 y 座標が 1 ~ 8 の時 | |
1739 | |
1740 1 ----- | |
1741 -- | |
1742 -------- | |
1743 ---- | |
1744 --------- | |
1745 8 -- | |
1746 | |
1747 '-' は描画していると思ってください。 | |
1748 この場合は、y = 1 がこの SpanPack の一番上、基準となる 座標ってこと。 | |
1749 framebuffer に書き込むとき、y = 1 から順々に書いて行きます。 | |
1750 | |
1751 で、sp->span[0].y ってのが、その基準となる y である保証が無いので、 | |
1752 sp->span[i].y 、つまりどの y からでも、基準となる y を求める | |
1753 必要がある。その計算をミスってました。 | |
1754 | |
1755 1 ////////// | |
1756 <- なぜか書き込まれていない | |
1757 ////////// | |
1758 ////////// | |
1759 | |
1760 みたいに、歯抜けした部分があったので、いろいろ調べてみたら | |
1761 この render_y がずれてるってことが判明しました。 | |
1762 今までは | |
1763 | |
1764 render_y = sp->span[0].y; | |
1765 render_y += 1080/2; | |
1766 render_y = (render_y/8)*8; | |
1767 | |
1768 ってことしてたんだけど、これだと sp->span[0].y が マイナスのとき | |
1769 ずれることが判明。なので | |
1770 | |
1771 if (render_y < 0) { | |
1772 int tmpy = render_y%8; | |
1773 render_y -= tmpy + (tmpy != 0)*8; | |
1774 } else { | |
1775 render_y -= (render_y%8); | |
1776 } | |
1777 render_y += 1080/2; | |
1778 | |
1779 こうするとできました。。。が、直したい。 | |
1780 もう少し奇麗に描けると思うんだけどなー。if 文ぐらいは外したい | |
1781 | |
1782 2008-03-03 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1783 | |
1784 * memo: 最適化の結果 | |
1785 ppe/spe ともに最適化なしの場合 | |
1786 263.444 FPS | |
1787 | |
1788 ppe だけ -O9 で最適化 | |
1789 317.425 FPS | |
1790 | |
1791 spe だけ -O9 で最適化 | |
1792 812.539 FPS | |
1793 | |
1794 ppe/spe ともに -O9 で最適化 | |
1795 1610.58 FPS (吹いた | |
1796 | |
1797 | |
1798 最初、ダブル最適化の画像を見た時の | |
1799 あまりの早さにびびった。 | |
1800 逆に「こ、これはバグか!?」と思った | |
1801 | |
1802 | |
1803 2008-02-28 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1804 | |
1805 * kernel/ppe/BufferManager.cpp: remove_taskQueue_all() | |
1806 taskQueue の create と free が釣り合って無くて、 | |
1807 queue が足りなくなる -> extend_pool -> 足りなく(ry | |
1808 ってのを繰り返してメモリ的なセグメンテーションフォルとが出て | |
1809 なんでかなと思ったら、task->wait_me を消去してなかった。 | |
1810 task->wait_i は notify(ry で削除されるんだけど、 | |
1811 task->wait_me は、notify(ry に渡した後ほったらかしだった。 | |
1812 ってことで、wait_me を全消しする関数を作りましたとさ。 | |
1813 気持ち速度が増した気がする。気ね。 | |
1814 | |
1815 | |
1816 2008-02-17 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1817 | |
1818 * Todo: 悩んでる所 | |
1819 | |
1820 | |
1821 * fix: kernel/ppe/HTask.cpp | |
1822 今まで、manager->create_task で生成したタスクは | |
1823 | |
1824 - dependency の設定 | |
1825 manager->set_task_depend(master, slave) // slave は master を待つ | |
1826 | |
1827 - 実行キューへの追加 | |
1828 manager->spawn_task(master); | |
1829 manager->spawn_task(slave); | |
1830 | |
1831 と、manager を介してやっていました。 | |
1832 まあそれでもいいんだけど、特に dependency の所は | |
1833 どっちがどっちを待つのかってのは、API見るだけじゃわからない。 | |
1834 そこで、Task (HTask のこと) に、上二つに対応するような | |
1835 | |
1836 void set_depend(HTaskPtr) と void spawn(void) を追加しました。 | |
1837 | |
1838 - Usage | |
1839 slave->set_depend(master); // slave は master を待つ | |
1840 slave->spawn(); // slave をキューへ追加 | |
1841 | |
1842 結局は、それぞれの関数の中では、上の set_task_depend とかを | |
1843 呼んでるんだけど、ユーザ側からするとこの方がわかりやすいと思います。 | |
1844 | |
1845 2008-02-16 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1846 | |
1847 * tag: beta3 | |
1848 ダブルバッファリングを追加し、まあなんとか動いてるんじゃない?って | |
1849 ところまでですが、所詮 Fifo バージョンなので、 | |
1850 そろそろ Cell を書き上げて、並列にちゃんと動いてるか確かめないとね | |
1851 | |
1852 * add: kernel/ppe/DmaBuffer.cpp | |
1853 ダブルバッファリング用に作ったんだけど、 | |
1854 せっかくなので、DMA は、このオブジェクト(が持つ二つの領域)でしか | |
1855 行えないようにする。ってのでどうでしょう。って話を先生としました。 | |
1856 並列処理だし、ダブルバッファリングがデフォでいいでしょう。 | |
1857 というか、したくなければ swap_buffer とかしなければおk。 | |
1858 | |
1859 -Usage | |
1860 DmaBuffer *buffer = manager->allocate(sizeof(SceneGraphPack)); | |
1861 | |
1862 今までと違い、create_task の in_addr と out_addr には | |
1863 DmaBuffer をいれてください。ユーザが自分で malloc/new したやつは | |
1864 エラーを出すようにしてる(seg faultだけどね!) | |
1865 汚いソースだが、実際に使ってる様子は Test/simple_render の | |
1866 viewer.cpp で使ってます。sgp_buff と pp_buff ってやつね。 | |
1867 | |
1868 もうすこしユーザに優しいAPIを作りたい・・・ | |
1869 | |
1870 2008-02-11 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1871 | |
1872 * add: Test/simple_render | |
1873 chiaki の DataPack を使った Cube の表示プログラム。 | |
1874 簡単に DataPack を TaskManager の scheduler (SpeManager) に渡して | |
1875 処理してコピーして、を繰り返してるだけなんだけど | |
1876 まあ動いてる気がするのでいいんじゃないでしょうか。 | |
1877 | |
1878 | |
1879 2008-02-10 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1880 | |
1881 * tag: beta1 | |
1882 この状況だと、できることよりもできないことを書くべき?違うか。 | |
1883 | |
1884 - task (親) 中で task (子) を生成することはできない | |
1885 正確には「生成はできる」だけど、その 子task が | |
1886 親task に依存している別の task を無視して動くので | |
1887 ちゃんとした結果にならないと。 | |
1888 8日の Todo にも書いてあるけど、今の実装では | |
1889 task が task を生成することを想定してない感じなので。 | |
1890 完全に spe 用にのみ狙いを絞った実装であって | |
1891 OS って言えない実装であるからして、書き直すの? | |
1892 全ての関数を task しようとするとこうなる訳で、 | |
1893 ある部分だけやるってのはまあできるんだろうけど、うーん。 | |
1894 | |
1895 - chiaki の simple_render が動かない | |
1896 (追記) 解決しました | |
1897 単に read/write buffer のサイズが足りないだけだった。アホスwww | |
1898 まあ辱めの為の下は残しておこう | |
1899 | |
1900 まだ cvs に commit してないけど、chiaki が書いた、 | |
1901 DataPack 対応の simple_render に TasKManager を組み込んでみた。 | |
1902 といっても、OSっぽく書いたんじゃなく、今は | |
1903 update_sgp と create_pp だけを task 化してみた。 | |
1904 でまあ動いてるような気はするけど、ものすっごい malloc 系の warning が。 | |
1905 時々長く動くよねみたいな感じになってしまっている。 | |
1906 TaskManager が悪いのか、simple_render が悪いのか。 | |
1907 この TaskManager、ある部分での malloc 系の問題に敏感だなあ。 | |
1908 まあそうでなかったらバグの探しようも無いし、良いっちゃー良いんだが。 | |
1909 | |
1910 | |
1911 2008-02-08 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1912 | |
1913 * add: kernel/ppe/SymTable.cpp | |
1914 今まで func[] = {add, sum, ...} | |
1915 とかやってかっこわるい言われまくってたので | |
1916 話し合いの通り Symbol Table みたいなものを作ることに | |
1917 | |
1918 // 疑似コードね | |
1919 struct sym_table { | |
1920 char *sym; // シンボル | |
1921 void *address; // シンボルが示すアドレス | |
1922 } sym_table[] = {{"Sum", &Sum} , {"Draw", &draw}}; | |
1923 | |
1924 int fd = get_fd("Sum"); | |
1925 void *addr = get_address(fd); | |
1926 | |
1927 table には "Sum" と "Draw" っていう二つのシンボルが登録されている。 | |
1928 例えば、ユーザ(カーネル?)が "Sum" ってシンボルにアクセスしたい場合、 | |
1929 まずは get_fd で "Sum" に対する、file descripter を返す。 | |
1930 ユーザは、その fd に従って get_address を取得することが出来る。 | |
1931 TaskManager 的な使い方をするなら | |
1932 | |
1933 // 俺は今、Draw 関数を使うタスクを生成したい | |
1934 int fd = manager->open("Draw"); | |
1935 manager->create_task(fd, size, in, out, func); | |
1936 manager->open では get_fd と同じ使い方です。 | |
1937 | |
1938 まだ改良の余地ありそうですが、今は動いてるってことで。 | |
1939 | |
1940 | |
1941 - 補足 | |
1942 なぜ file descripter と表すか | |
1943 | |
1944 OS の昨日として、 fopen とかと同じ使い方もできるじゃない! | |
1945 | |
1946 | |
1947 * Todo: task が task を生成する際の処理 | |
1948 今まで、 task が行う作業は、演算のみを行うような | |
1949 単純な実装に決め打ちされているわけです。 | |
1950 しかし、OS なんかだと、タスク中から別のタスクを生成するとか | |
1951 ありありだと思われる。てか今のテストプログラムでなった。 | |
1952 | |
1953 Test/Sum にあるプログラムで使われるタスク | |
1954 | |
1955 - init2 // 貧相な名前ですまない | |
1956 演算する数値とかバッファの初期化 | |
1957 | |
1958 - sum1 | |
1959 ある範囲の整数 (i から i+16 とか) の総和 | |
1960 | |
1961 - sum2 | |
1962 sum1 で求められた、複数の範囲の総和を一つにまとめる | |
1963 (ex. 複数の sum1 が 1->16, 17->32, 33->48 の総和を計算し、 | |
1964 sum2 で 上の3つの総和を計算する | |
1965 要は 1->48 の総和を分割するっていうプログラムね | |
1966 | |
1967 - finish | |
1968 sum2 で求まった値を表示 | |
1969 | |
1970 この Sum というプログラム、というか OS と言おう。SumOS ね。 | |
1971 SumOS は最初に TaskManager (所謂 kernel) を起動し、 | |
1972 init を起動する。init では、予め決められたタスクである | |
1973 init2 と finish の二つのタスクを create して登録する。 | |
1974 init2 と finish には依存関係がある (init2 が終わったら finish) | |
1975 init2 の中で、sum1 と sum2 というタスクが作られる。 | |
1976 sum1 と sum2 にも依存関係はある (sum1 が終わったら sum2) | |
1977 | |
1978 今の実装だと、タスクが終了して初めて次のタスクへ行く。 | |
1979 まあ当たり前なんだけど、例えばそのタスクの中で | |
1980 新たにタスクが作られた場合、そのタスクが終了するまでは | |
1981 実行されなくなってしまう。 | |
1982 でまあ、今は、manager->create_task される度に | |
1983 manager->run とかして、無理やり起動してる訳さ。 | |
1984 何が無理矢理かっていうと、scheduler の役目をしている | |
1985 SpeManager (これも名前変えないと) を2度呼び出してる訳。 | |
1986 つまり、タスク中でタスクを作る度に、SpeManager オブジェクトを | |
1987 new してるわけさ。いいのか?いや、動いてるけどね? | |
1988 | |
1989 ちなみに、Cell version だと spe が勝手に取っていってくれるから | |
1990 大丈夫かなと思いつつ、もし spe を1つしか使わない設定だったら微妙。 | |
1991 | |
1992 要するに、タスク中でタスクが作られる場合の処理を考えないとね。 | |
1993 | |
1994 2008-02-07 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
1995 | |
1996 * memo: プログラミングの姿勢 | |
1997 scheduler とか、task の管理をする部分は | |
1998 kernel programing のつもりで、 | |
1999 example とか、task に割り当てる処理を決めたりする部分は | |
2000 user programing のつもりで。 | |
2001 | |
2002 それぞれ違った視点で見る必要がある | |
2003 | |
2004 * memo: OS というもの | |
2005 OS 起動の流れ | |
2006 | |
2007 - PC の電源を入れる | |
2008 - BIOS が立ち上がる (OpenFirmWare, EFI, BIOS) | |
2009 - 起動デバイスをチェック (優先度とか種類とか) | |
2010 - 起動デバイスから Boot loader を起動 | |
2011 + BIOS によって、認識できるファイルシステムが違う(だっけ?) | |
2012 + ファイルシステムのどこに Boot Loader があるか知っている | |
2013 + grub, grub2, lilo, kboot などがある | |
2014 - Boot Loader が kernel を起動 | |
2015 + ネットワークブートの場合、TCP/IP や | |
2016 ネットワークデバイス(イーサとか?)のドライバを持ってる必要がある | |
2017 - kernel は、最初に scheduler を起動する | |
2018 - scheduler の初期化 (init を呼ぶ?) | |
2019 - init では、事前?に設定されているスクリプトとかを呼ぶ | |
2020 + linux とかだと /etc/rc にあるやつを init が呼ぶ | |
2021 - login form が起動 | |
2022 | |
2023 補足 こっからユーザ | |
2024 - login する | |
2025 - shell を呼ぶ | |
2026 + login shell かどうか確かめる | |
2027 - ユーザに設定されてる起動スクリプト?を実行 | |
2028 - 晴れてログイン | |
2029 | |
2030 2008-02-06 Wataru MIYAGUNI <gongo@cr.ie.u-ryukyu.ac.jp> | |
2031 | |
2032 * kernel/spe/*.cpp: new と placement new | |
2033 現在、spe kernel のタスクは、切り替わる毎に | |
2034 new/delete を繰り返しています。今はこれでいいんだけど、 | |
2035 速度的にも、いずれは直さないといけないと思うわけで。 | |
2036 で、予め allocate された領域を利用した placement new を使えば | |
2037 new よりもそれなりに早くなるっぽい。 | |
2038 例題として、与えられた回数分 new/delete を繰り返すプログラムと、 | |
2039 同じ回数分、placement new したときの速度の比較 | |
2040 | |
2041 for (int i = 0; i < num; i++) { | |
2042 | |
2043 < task = new Task; | |
2044 < task->init(i); | |
2045 < task->printID(); | |
2046 < delete task; | |
2047 --- | |
2048 > task = new(buff) Task; // buff = malloc(BUFF_SIZE); | |
2049 > task->init(id); | |
2050 > task->printID(id); | |
2051 } | |
2052 | |
2053 placement new では、delete の必要は無い。 | |
2054 その中で新たに allocate してるなら必要かもしれないが。 | |
2055 速度比較は以下。no_new が placement new で、ln_new が new/delete 。 | |
2056 | |
2057 % ./a.out 10 // 10 回 | |
2058 no_new: time: 0.012135(msec) | |
2059 ln_new: time: 0.003572(msec) | |
2060 | |
2061 % ./a.out 100 | |
2062 no_new: time: 0.022453(msec) | |
2063 ln_new: time: 0.018989(msec) | |
2064 | |
2065 % ./a.out 1000 | |
2066 no_new: time: 0.115277(msec) | |
2067 ln_new: time: 0.136335(msec) | |
2068 | |
2069 % ./a.out 10000 | |
2070 no_new: time: 1.056156(msec) | |
2071 ln_new: time: 1.322709(msec) | |
2072 | |
2073 % ./a.out 100000 | |
2074 no_new: time: 10.622221(msec) | |
2075 ln_new: time: 13.362414(msec) | |
2076 | |
2077 % ./a.out 1000000 | |
2078 no_new: time: 109.436496(msec) | |
2079 ln_new: time: 136.956872(msec) | |
2080 | |
2081 10、100 回だと負けてるが、まあ無視しよう(ぇ | |
2082 回数が多くなるにつれて、ほんの少しだが no_new が勝ってる。 | |
2083 どうなんだろうね。ちなみに printID を無くすと | |
2084 | |
2085 % ./a.out 1000000 | |
2086 no_new: time: 0.008512(msec) | |
2087 ln_new: time: 27.100296(msec) | |
2088 | |
2089 I/O に左右され過ぎ。まあそんなもんだろうけどさ。 |