Difference between revisions of "Linux Cluster til Center of Excelence/forløb eksempel 1"

From Teknologisk videncenter
Jump to: navigation, search
m (Delmål 2: Datateknikere og IT-Supportere i samarbejde)
m
Line 12: Line 12:
 
Bruge et klassesæt af computere - 16. stk - og installere [http://www.midtdata.dk/hardware_1000180575_XFX-Geforce-9800GTX+---512MB-DDR3---PCI-E---OC.html Nvidia Geforce-9800GTX+] eller lignende i dem. (Pris pr. stk. kr. 1.361,- incl moms. ialt kr. 21.776,-.) Implementere samme løsning med 8 stk. på Windows og 8 stk på Linux og sammenligne deres performance/pris/strømforbrug/"nemhed til skalering" og til sidst bruge alle 16 på valgte løsning.
 
Bruge et klassesæt af computere - 16. stk - og installere [http://www.midtdata.dk/hardware_1000180575_XFX-Geforce-9800GTX+---512MB-DDR3---PCI-E---OC.html Nvidia Geforce-9800GTX+] eller lignende i dem. (Pris pr. stk. kr. 1.361,- incl moms. ialt kr. 21.776,-.) Implementere samme løsning med 8 stk. på Windows og 8 stk på Linux og sammenligne deres performance/pris/strømforbrug/"nemhed til skalering" og til sidst bruge alle 16 på valgte løsning.
  
I delmål 1 arbejdes med CPU tunge programmer. (Har ikke brug for meget storage). I delmål 2 arbejdes med storage tunge programmer. Terabyte+ data der skal behandles i det samlede Cluster.
+
 
  
 
For at nå alle mål skal eleverne arbejde i grupper med netværk, storage samt parallel og seriel computing. Der skal udarbejdes et [[SAN]] løsning en [[GPU]] løsning samt en [[Cluster Computing|Cluster]] løsning - i første fase hver for sig, men til sidst kobles sammmen - og vise hestekræfter. (Hopefully)
 
For at nå alle mål skal eleverne arbejde i grupper med netværk, storage samt parallel og seriel computing. Der skal udarbejdes et [[SAN]] løsning en [[GPU]] løsning samt en [[Cluster Computing|Cluster]] løsning - i første fase hver for sig, men til sidst kobles sammmen - og vise hestekræfter. (Hopefully)
Line 19: Line 19:
 
Det vi skal lave er et Cluster og ikke applikationerne. Dem laver "kunderne" af clusteret. Vi kan sikkert ret nemt får nogle problemer at knuse fra brugerne af [[scilab]], som vi kan dissikere og optimere til Clusteret. (Vi skal sortere og målsætte kraftigt her, vi har kun 2-3 uger)
 
Det vi skal lave er et Cluster og ikke applikationerne. Dem laver "kunderne" af clusteret. Vi kan sikkert ret nemt får nogle problemer at knuse fra brugerne af [[scilab]], som vi kan dissikere og optimere til Clusteret. (Vi skal sortere og målsætte kraftigt her, vi har kun 2-3 uger)
  
 +
I delmål 1 arbejdes med CPU tunge programmer. (Har ikke brug for meget storage). I delmål 2 arbejdes med storage tunge programmer. Terabyte+ data der skal behandles i det samlede Cluster.
 
[[Category:CoE]]
 
[[Category:CoE]]

Revision as of 18:14, 16 May 2010

Mål

Delmål 1: Datateknikere programmering

At lave udvidelse til scilab således at parallel udførelse af matmatiske funktioner foregår på nVidia GPU.

Er dette realistisk

scilab er en open-source variant af det kommercielle produkt MatLab som er ret dyrt, og som mange matematik studerendes bruger som deres foretrukne værktøj. MatLab har et modul til parallel udførelse af matmatiske funktioner - men det koster.

Fordelen ved at arbejde med scilab er at der er mange - virklig dygtige mennesker - som vil hjælpe os med at implementere funktionaliteten i scilab - måske komme og undervise os og eleverne?. Der er allerede et projekt som nogen skal/har taget op Google summer of code - oplæg på CUDA.

Vi kan desværre ikke nå at være med i år, men måske en ide at deltage næste år. Se tidsplan Google Summer of Code 2010 tidsplan.

Delmål 2: Datateknikere og IT-Supportere i samarbejde

Bruge et klassesæt af computere - 16. stk - og installere Nvidia Geforce-9800GTX+ eller lignende i dem. (Pris pr. stk. kr. 1.361,- incl moms. ialt kr. 21.776,-.) Implementere samme løsning med 8 stk. på Windows og 8 stk på Linux og sammenligne deres performance/pris/strømforbrug/"nemhed til skalering" og til sidst bruge alle 16 på valgte løsning.


For at nå alle mål skal eleverne arbejde i grupper med netværk, storage samt parallel og seriel computing. Der skal udarbejdes et SAN løsning en GPU løsning samt en Cluster løsning - i første fase hver for sig, men til sidst kobles sammmen - og vise hestekræfter. (Hopefully)

Hvilke programmer skal vi bruge til at teste clusteret

Det vi skal lave er et Cluster og ikke applikationerne. Dem laver "kunderne" af clusteret. Vi kan sikkert ret nemt får nogle problemer at knuse fra brugerne af scilab, som vi kan dissikere og optimere til Clusteret. (Vi skal sortere og målsætte kraftigt her, vi har kun 2-3 uger)

I delmål 1 arbejdes med CPU tunge programmer. (Har ikke brug for meget storage). I delmål 2 arbejdes med storage tunge programmer. Terabyte+ data der skal behandles i det samlede Cluster.