Search
 
 
  Engleski
 
 
 
Open in this window (click to change)
Forum@DeGiorgi: Početna
Forum za podršku nastavi na PMF-MO
Login Registracija FAQ Smajlići Članstvo Pretražnik Forum@DeGiorgi: Početna

Praktikum 2 i Open MPI 1.2.5 (informacija)

Moja sarma
 
Započnite novu temu   Ova tema je zaključana: ne možete uređivati postove niti odgovarati.   printer-friendly view    Forum@DeGiorgi: Početna -> Kolegiji diplomskih i starih studija -> Paralelni algoritmi 1 i 2
Prethodna tema :: Sljedeća tema  
Autor/ica Poruka
venovako
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 07. 11. 2002. (22:46:38)
Postovi: (2F9)16
Sarma = la pohva - posuda
56 = 65 - 9

PostPostano: 16:28 sri, 23. 1. 2008    Naslov: Praktikum 2 i Open MPI 1.2.5 Citirajte i odgovorite

U Praktikumu 2 dostupan je Open MPI 1.2.5 (thnx, Kruno :wob:).

Zbog raznih razloga to [b]nije[/b] defaultna MPI instalacija, i smjestena je na "nestandardno" mjesto: [tt]/opt/ompi/[/tt], te je
stoga potrebno olaksati si zivot pri koristenju istog.
Ako znate sto radite, mozete podesavati environment varijable, no evo jednog elegantnog rjesenja, u smislu da ne rastura vasa postojeca podesenja:

Logirajte se na [tt]student[/tt], ili na Ubuntu (Praktikum 1 ili 2). Na [tt]~/.bashrc[/tt] datoteku dodajte sljedece linije:
[code:1]alias MPICC=/opt/ompi/bin/mpiCC
alias MPIEXEC="/opt/ompi/bin/mpiexec -v"
alias MPIMAN="man -M /opt/ompi/share/man"[/code:1]

Spremite promjene, odjavite se sa sustava i ponovo prijavite.
Komanda [tt]MPICC[/tt] od sada vam glumi [tt]mpiCC[/tt] (odnosno, C++ compiler wrapper), [tt]MPIEXEC[/tt] sluzi kao [tt]mpiexec[/tt], a [tt]MPIMAN[/tt] koristite kad zelite prikazati neku man stranicu vezanu za MPI, npr. [tt]MPIMAN mpiexec[/tt] ili [tt]MPIMAN MPI_Init[/tt].

Ako ovo nije bilo dovoljno jasno, bez brige.
Isprobat cemo na vjezbama (Meni Radi^{TM}) i nadalje koristiti tu instalaciju.
U Praktikumu 2 dostupan je Open MPI 1.2.5 (thnx, Kruno Bow to the left).

Zbog raznih razloga to nije defaultna MPI instalacija, i smjestena je na "nestandardno" mjesto: /opt/ompi/, te je
stoga potrebno olaksati si zivot pri koristenju istog.
Ako znate sto radite, mozete podesavati environment varijable, no evo jednog elegantnog rjesenja, u smislu da ne rastura vasa postojeca podesenja:

Logirajte se na student, ili na Ubuntu (Praktikum 1 ili 2). Na ~/.bashrc datoteku dodajte sljedece linije:
Kod:
alias MPICC=/opt/ompi/bin/mpiCC
alias MPIEXEC="/opt/ompi/bin/mpiexec -v"
alias MPIMAN="man -M /opt/ompi/share/man"


Spremite promjene, odjavite se sa sustava i ponovo prijavite.
Komanda MPICC od sada vam glumi mpiCC (odnosno, C++ compiler wrapper), MPIEXEC sluzi kao mpiexec, a MPIMAN koristite kad zelite prikazati neku man stranicu vezanu za MPI, npr. MPIMAN mpiexec ili MPIMAN MPI_Init.

Ako ovo nije bilo dovoljno jasno, bez brige.
Isprobat cemo na vjezbama (Meni Radi^{TM}) i nadalje koristiti tu instalaciju.




Zadnja promjena: venovako; 16:58 ned, 27. 1. 2008; ukupno mijenjano 1 put.
[Vrh]
Korisnički profil Pošaljite privatnu poruku
venovako
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 07. 11. 2002. (22:46:38)
Postovi: (2F9)16
Sarma = la pohva - posuda
56 = 65 - 9

PostPostano: 16:57 ned, 27. 1. 2008    Naslov: Citirajte i odgovorite

Isprobah doma neuspjeli primjer s vjezbi, Open MPI 1.2.5 jednako konfiguriran kao u Pr2, GCC 4.2.2, Gentoo/AMD64 i jednak broj procesa i dimenzije matrica kao na vjezbama -- sve radi :roll:

Update: Isprobah i u Pr2 (ssh na strojeve) i opet sve radi :shock:

Molim vas, probajte i vi kad vam bude usput, uzmite prvih 8 strojeva iz hostfile-a, dakle, 16 procesa u 4x4 mrezi, te matrice reda 512 i bandW 16.
Kompajlirate s:
[code:1]MPICC -O3 -s *.cpp -o SUMMA.exe[/code:1]
Neka vam je prvi unos u hostfile-u stroj s kojeg pokrecete sesiju.
Javite ovdje da li radi, pa da konacno stavimo pitanje MPI instalacije ad acta.

P.P.S. Bez problema prodje mnozenje matrica reda 4096 na 32=8x4 procesa, tako da bi zbilja trebalo raditi...
Isprobah doma neuspjeli primjer s vjezbi, Open MPI 1.2.5 jednako konfiguriran kao u Pr2, GCC 4.2.2, Gentoo/AMD64 i jednak broj procesa i dimenzije matrica kao na vjezbama – sve radi Rolling Eyes

Update: Isprobah i u Pr2 (ssh na strojeve) i opet sve radi Shocked

Molim vas, probajte i vi kad vam bude usput, uzmite prvih 8 strojeva iz hostfile-a, dakle, 16 procesa u 4x4 mrezi, te matrice reda 512 i bandW 16.
Kompajlirate s:
Kod:
MPICC -O3 -s *.cpp -o SUMMA.exe

Neka vam je prvi unos u hostfile-u stroj s kojeg pokrecete sesiju.
Javite ovdje da li radi, pa da konacno stavimo pitanje MPI instalacije ad acta.

P.P.S. Bez problema prodje mnozenje matrica reda 4096 na 32=8x4 procesa, tako da bi zbilja trebalo raditi...


[Vrh]
Korisnički profil Pošaljite privatnu poruku
Markec
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 20. 02. 2003. (14:49:45)
Postovi: (134)16
Spol: muško
Sarma = la pohva - posuda
-3 = 37 - 40

PostPostano: 19:40 ned, 27. 1. 2008    Naslov: Citirajte i odgovorite

[quote="venovako"]P.P.S. Bez problema prodje mnozenje matrica [b]reda 4096[/b] na 32=8x4 procesa, tako da bi zbilja trebalo raditi...[/quote]

i meni si reko da pretjerujem [size=2](Hello World -np 1024)[/size] :roll:
venovako (napisa):
P.P.S. Bez problema prodje mnozenje matrica reda 4096 na 32=8x4 procesa, tako da bi zbilja trebalo raditi...


i meni si reko da pretjerujem (Hello World -np 1024) Rolling Eyes


[Vrh]
Korisnički profil Pošaljite privatnu poruku
venovako
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 07. 11. 2002. (22:46:38)
Postovi: (2F9)16
Sarma = la pohva - posuda
56 = 65 - 9

PostPostano: 21:06 ned, 27. 1. 2008    Naslov: Citirajte i odgovorite

Povlacim komentar; stovise, probaj to zavrtjeti na svih 18 masina ;-)
Povlacim komentar; stovise, probaj to zavrtjeti na svih 18 masina Wink


[Vrh]
Korisnički profil Pošaljite privatnu poruku
Melkor
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 07. 10. 2004. (18:48:00)
Postovi: (291)16
Spol: kućni ljubimac
Sarma = la pohva - posuda
140 = 152 - 12
Lokacija: Void

PostPostano: 22:45 ned, 27. 1. 2008    Naslov: Citirajte i odgovorite

Dakle, objašnjenje za misteriozno ponašanje programa na vježbama je trivijalno: ograničena kvota. :roll: Sinulo mi je kad sam i sam krenuo na malo veće matrice pa je bilo problema već kod spremanja iz Octave.

Imamo li možda na raspolaganju neki temporary prostor koji dijele svi kompjutori u praktikumu? (/tmp je lokalan na svakom kompu.) Ako ne, morat ćemo se zadovoljiti sa 120 MB.
Dakle, objašnjenje za misteriozno ponašanje programa na vježbama je trivijalno: ograničena kvota. Rolling Eyes Sinulo mi je kad sam i sam krenuo na malo veće matrice pa je bilo problema već kod spremanja iz Octave.

Imamo li možda na raspolaganju neki temporary prostor koji dijele svi kompjutori u praktikumu? (/tmp je lokalan na svakom kompu.) Ako ne, morat ćemo se zadovoljiti sa 120 MB.



_________________
I don't know half of you half as well as I should like; and I like less than half of you half as well as you deserve.
[Vrh]
Korisnički profil Pošaljite privatnu poruku Posjetite Web stranice
venovako
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 07. 11. 2002. (22:46:38)
Postovi: (2F9)16
Sarma = la pohva - posuda
56 = 65 - 9

PostPostano: 23:31 ned, 27. 1. 2008    Naslov: Citirajte i odgovorite

:evil: Lose. Zao mi je sto je propalo prosli put, ali mi jos uvijek nije jasno zasto nije nigdje vriskalo [i]quota exceeded[/i]!? :evil:

Ovako stoje stvari:
[tt]/tmp[/tt] je lokalan, ali to nije problem ;-)
Naime, [tt]scp[/tt] cini cuda.
Na root (tj. startnoj) mashini, na [tt]/tmp[/tt] se utrpaju svi pocetni podaci.
Potom se lijepo [tt]scp[/tt]-om prebace na [tt]/tmp[/tt]-ove svih work mashina.
I dalje ce apsolutni path do podataka biti na svakom stroju isti 8-)
Da budemo fini i pristojni, u program (ili skriptu koja ga pokrece) dodamo naredbu da pobrise sve radne podatke, a rezultate spremi u [tt]$HOME[/tt] uz opcionalnu kompresiju.

Zvuci komplicirano? Nije. Dokaz slijedi.

@Melkor: Hvala puno, izludio bih trazeci bug kojeg nema :verytwisted:

P.S. Nakon ovih peripetija barem ste spremni za borbu sa stvarnim klasterom 8-)
Evil or Very Mad Lose. Zao mi je sto je propalo prosli put, ali mi jos uvijek nije jasno zasto nije nigdje vriskalo quota exceeded!? Evil or Very Mad

Ovako stoje stvari:
/tmp je lokalan, ali to nije problem Wink
Naime, scp cini cuda.
Na root (tj. startnoj) mashini, na /tmp se utrpaju svi pocetni podaci.
Potom se lijepo scp-om prebace na /tmp-ove svih work mashina.
I dalje ce apsolutni path do podataka biti na svakom stroju isti Cool
Da budemo fini i pristojni, u program (ili skriptu koja ga pokrece) dodamo naredbu da pobrise sve radne podatke, a rezultate spremi u $HOME uz opcionalnu kompresiju.

Zvuci komplicirano? Nije. Dokaz slijedi.

@Melkor: Hvala puno, izludio bih trazeci bug kojeg nema Very twisted

P.S. Nakon ovih peripetija barem ste spremni za borbu sa stvarnim klasterom Cool


[Vrh]
Korisnički profil Pošaljite privatnu poruku
venovako
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 07. 11. 2002. (22:46:38)
Postovi: (2F9)16
Sarma = la pohva - posuda
56 = 65 - 9

PostPostano: 0:16 pon, 28. 1. 2008    Naslov: Citirajte i odgovorite

Dakle, kako cete u jednom potezu kopirati fajl [tt]/tmp/bla.txt[/tt] na [tt]/tmp[/tt] svih cvorova iz nekog hostfile-a (pri tome naravno ne trebate polazni cvor u hostfile-u):
[code:1]cut -d' ' -f1 ~/MPI/hosts-Pr2.some | xargs -I KOMP scp /tmp/bla.txt KOMP:/tmp/[/code:1]
Kako cete ih pobrisati?
[code:1]cut -d' ' -f1 ~/MPI/hosts-Pr2.some | xargs -I KOMP ssh KOMP rm /tmp/bla.txt[/code:1]
Naslucujete princip i za ostale radnje...
Dakle, kako cete u jednom potezu kopirati fajl /tmp/bla.txt na /tmp svih cvorova iz nekog hostfile-a (pri tome naravno ne trebate polazni cvor u hostfile-u):
Kod:
cut -d' ' -f1 ~/MPI/hosts-Pr2.some | xargs -I KOMP scp /tmp/bla.txt KOMP:/tmp/

Kako cete ih pobrisati?
Kod:
cut -d' ' -f1 ~/MPI/hosts-Pr2.some | xargs -I KOMP ssh KOMP rm /tmp/bla.txt

Naslucujete princip i za ostale radnje...


[Vrh]
Korisnički profil Pošaljite privatnu poruku
venovako
Forumaš(ica)
Forumaš(ica)


Pridružen/a: 07. 11. 2002. (22:46:38)
Postovi: (2F9)16
Sarma = la pohva - posuda
56 = 65 - 9

PostPostano: 20:18 pet, 7. 11. 2008    Naslov: Citirajte i odgovorite

Topic ide pod kljuc buduci da vise nije aktualan.
Topic ide pod kljuc buduci da vise nije aktualan.


[Vrh]
Korisnički profil Pošaljite privatnu poruku
Prethodni postovi:   
Započnite novu temu   Ova tema je zaključana: ne možete uređivati postove niti odgovarati.   printer-friendly view    Forum@DeGiorgi: Početna -> Kolegiji diplomskih i starih studija -> Paralelni algoritmi 1 i 2 Vremenska zona: GMT + 01:00.
Stranica 1 / 1.

 
Forum(o)Bir:  
Možete otvarati nove teme.
Možete odgovarati na postove.
Ne možete uređivati Vaše postove.
Ne možete izbrisati Vaše postove.
Ne možete glasovati u anketama.
You cannot attach files in this forum
You can download files in this forum


Powered by phpBB © 2001, 2002 phpBB Group
Theme created by Vjacheslav Trushkin
HR (Cro) by Ančica Sečan