Prethodna tema :: Sljedeća tema |
Autor/ica |
Poruka |
venovako Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=27&c=761)
Pridružen/a: 07. 11. 2002. (22:46:38) Postovi: (2F9)16
|
Postano: 16:28 sri, 23. 1. 2008 Naslov: Praktikum 2 i Open MPI 1.2.5 |
|
|
U Praktikumu 2 dostupan je Open MPI 1.2.5 (thnx, Kruno :wob:).
Zbog raznih razloga to [b]nije[/b] defaultna MPI instalacija, i smjestena je na "nestandardno" mjesto: [tt]/opt/ompi/[/tt], te je
stoga potrebno olaksati si zivot pri koristenju istog.
Ako znate sto radite, mozete podesavati environment varijable, no evo jednog elegantnog rjesenja, u smislu da ne rastura vasa postojeca podesenja:
Logirajte se na [tt]student[/tt], ili na Ubuntu (Praktikum 1 ili 2). Na [tt]~/.bashrc[/tt] datoteku dodajte sljedece linije:
[code:1]alias MPICC=/opt/ompi/bin/mpiCC
alias MPIEXEC="/opt/ompi/bin/mpiexec -v"
alias MPIMAN="man -M /opt/ompi/share/man"[/code:1]
Spremite promjene, odjavite se sa sustava i ponovo prijavite.
Komanda [tt]MPICC[/tt] od sada vam glumi [tt]mpiCC[/tt] (odnosno, C++ compiler wrapper), [tt]MPIEXEC[/tt] sluzi kao [tt]mpiexec[/tt], a [tt]MPIMAN[/tt] koristite kad zelite prikazati neku man stranicu vezanu za MPI, npr. [tt]MPIMAN mpiexec[/tt] ili [tt]MPIMAN MPI_Init[/tt].
Ako ovo nije bilo dovoljno jasno, bez brige.
Isprobat cemo na vjezbama (Meni Radi^{TM}) i nadalje koristiti tu instalaciju.
U Praktikumu 2 dostupan je Open MPI 1.2.5 (thnx, Kruno ).
Zbog raznih razloga to nije defaultna MPI instalacija, i smjestena je na "nestandardno" mjesto: /opt/ompi/, te je
stoga potrebno olaksati si zivot pri koristenju istog.
Ako znate sto radite, mozete podesavati environment varijable, no evo jednog elegantnog rjesenja, u smislu da ne rastura vasa postojeca podesenja:
Logirajte se na student, ili na Ubuntu (Praktikum 1 ili 2). Na ~/.bashrc datoteku dodajte sljedece linije:
Kod: | alias MPICC=/opt/ompi/bin/mpiCC
alias MPIEXEC="/opt/ompi/bin/mpiexec -v"
alias MPIMAN="man -M /opt/ompi/share/man" |
Spremite promjene, odjavite se sa sustava i ponovo prijavite.
Komanda MPICC od sada vam glumi mpiCC (odnosno, C++ compiler wrapper), MPIEXEC sluzi kao mpiexec, a MPIMAN koristite kad zelite prikazati neku man stranicu vezanu za MPI, npr. MPIMAN mpiexec ili MPIMAN MPI_Init.
Ako ovo nije bilo dovoljno jasno, bez brige.
Isprobat cemo na vjezbama (Meni Radi^{TM}) i nadalje koristiti tu instalaciju.
Zadnja promjena: venovako; 16:58 ned, 27. 1. 2008; ukupno mijenjano 1 put.
|
|
[Vrh] |
|
venovako Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=27&c=761)
Pridružen/a: 07. 11. 2002. (22:46:38) Postovi: (2F9)16
|
Postano: 16:57 ned, 27. 1. 2008 Naslov: |
|
|
Isprobah doma neuspjeli primjer s vjezbi, Open MPI 1.2.5 jednako konfiguriran kao u Pr2, GCC 4.2.2, Gentoo/AMD64 i jednak broj procesa i dimenzije matrica kao na vjezbama -- sve radi :roll:
Update: Isprobah i u Pr2 (ssh na strojeve) i opet sve radi :shock:
Molim vas, probajte i vi kad vam bude usput, uzmite prvih 8 strojeva iz hostfile-a, dakle, 16 procesa u 4x4 mrezi, te matrice reda 512 i bandW 16.
Kompajlirate s:
[code:1]MPICC -O3 -s *.cpp -o SUMMA.exe[/code:1]
Neka vam je prvi unos u hostfile-u stroj s kojeg pokrecete sesiju.
Javite ovdje da li radi, pa da konacno stavimo pitanje MPI instalacije ad acta.
P.P.S. Bez problema prodje mnozenje matrica reda 4096 na 32=8x4 procesa, tako da bi zbilja trebalo raditi...
Isprobah doma neuspjeli primjer s vjezbi, Open MPI 1.2.5 jednako konfiguriran kao u Pr2, GCC 4.2.2, Gentoo/AMD64 i jednak broj procesa i dimenzije matrica kao na vjezbama – sve radi
Update: Isprobah i u Pr2 (ssh na strojeve) i opet sve radi
Molim vas, probajte i vi kad vam bude usput, uzmite prvih 8 strojeva iz hostfile-a, dakle, 16 procesa u 4x4 mrezi, te matrice reda 512 i bandW 16.
Kompajlirate s:
Kod: | MPICC -O3 -s *.cpp -o SUMMA.exe |
Neka vam je prvi unos u hostfile-u stroj s kojeg pokrecete sesiju.
Javite ovdje da li radi, pa da konacno stavimo pitanje MPI instalacije ad acta.
P.P.S. Bez problema prodje mnozenje matrica reda 4096 na 32=8x4 procesa, tako da bi zbilja trebalo raditi...
|
|
[Vrh] |
|
Markec Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=87&c=308)
Pridružen/a: 20. 02. 2003. (14:49:45) Postovi: (134)16
Spol: ![muško muško](images/gender/male.gif)
|
|
[Vrh] |
|
venovako Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=27&c=761)
Pridružen/a: 07. 11. 2002. (22:46:38) Postovi: (2F9)16
|
|
[Vrh] |
|
Melkor Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=544&c=657)
![](images/avatars/25309345942c7badb8e900.png)
Pridružen/a: 07. 10. 2004. (18:48:00) Postovi: (291)16
Spol: ![kućni ljubimac kućni ljubimac](images/gender/pet.gif)
Lokacija: Void
|
|
[Vrh] |
|
venovako Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=27&c=761)
Pridružen/a: 07. 11. 2002. (22:46:38) Postovi: (2F9)16
|
Postano: 23:31 ned, 27. 1. 2008 Naslov: |
|
|
:evil: Lose. Zao mi je sto je propalo prosli put, ali mi jos uvijek nije jasno zasto nije nigdje vriskalo [i]quota exceeded[/i]!? :evil:
Ovako stoje stvari:
[tt]/tmp[/tt] je lokalan, ali to nije problem ;-)
Naime, [tt]scp[/tt] cini cuda.
Na root (tj. startnoj) mashini, na [tt]/tmp[/tt] se utrpaju svi pocetni podaci.
Potom se lijepo [tt]scp[/tt]-om prebace na [tt]/tmp[/tt]-ove svih work mashina.
I dalje ce apsolutni path do podataka biti na svakom stroju isti 8-)
Da budemo fini i pristojni, u program (ili skriptu koja ga pokrece) dodamo naredbu da pobrise sve radne podatke, a rezultate spremi u [tt]$HOME[/tt] uz opcionalnu kompresiju.
Zvuci komplicirano? Nije. Dokaz slijedi.
@Melkor: Hvala puno, izludio bih trazeci bug kojeg nema :verytwisted:
P.S. Nakon ovih peripetija barem ste spremni za borbu sa stvarnim klasterom 8-)
Lose. Zao mi je sto je propalo prosli put, ali mi jos uvijek nije jasno zasto nije nigdje vriskalo quota exceeded!?
Ovako stoje stvari:
/tmp je lokalan, ali to nije problem
Naime, scp cini cuda.
Na root (tj. startnoj) mashini, na /tmp se utrpaju svi pocetni podaci.
Potom se lijepo scp-om prebace na /tmp-ove svih work mashina.
I dalje ce apsolutni path do podataka biti na svakom stroju isti
Da budemo fini i pristojni, u program (ili skriptu koja ga pokrece) dodamo naredbu da pobrise sve radne podatke, a rezultate spremi u $HOME uz opcionalnu kompresiju.
Zvuci komplicirano? Nije. Dokaz slijedi.
@Melkor: Hvala puno, izludio bih trazeci bug kojeg nema
P.S. Nakon ovih peripetija barem ste spremni za borbu sa stvarnim klasterom
|
|
[Vrh] |
|
venovako Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=27&c=761)
Pridružen/a: 07. 11. 2002. (22:46:38) Postovi: (2F9)16
|
|
[Vrh] |
|
venovako Forumaš(ica)
![Forumaš(ica) Forumaš(ica)](dyck.php?id=27&c=761)
Pridružen/a: 07. 11. 2002. (22:46:38) Postovi: (2F9)16
|
|
[Vrh] |
|
|