Top500 ha rilasciato alcuni dettagli riguardanti la classifica dei supercomputer, Linux è il sistema operativo più utilizzato con il 97%.

Top500 novembre 2014
In questi anni abbiamo parlato molto spesso di Top500, la famosa classifica che riguarda i computer più potenti al mondo (denominati supercomputer). Il portale Top500 rilascia ogni sei mesi una classifica aggiornata dei 500 supercomputer più potenti al mondo che vede al primo posto Tianhe-2 o TH-2, potentissimo sistema cinese installato a Guangzhou, presso il National Supercomputer Center, e basato su Ubuntu Linux. Stando alla recente classifica di Top500, Linux è il sistema operativo utilizzato in circa il 97% dei 500 più potenti supercomputer al mondo, aumentando cosi il numero di sistemi che si basano sul sistema operativo libero.

Per quanto riguarda le nazioni, gli Stati Uniti continuano a dominare con ben 231 supercomputer, al secondo posto troviamo la Cina con 61 supercomputer e il terzo posto è andato a Giappone con 32. Poi completare i primi dieci posti triviamo Francia (30), Regno Unito ( 30),  Germania (26), Corea del Sud (9) India (9), Australia (9) e la Russia (9).
Stando la classifica Top500 il principale produttore di supercomputer è HP (35,8%), seguita da IBM (30,6%), Cray Inc (12,4%) SGI (4,6%), Bull (3,6%), Dell (1,8%), Fujitsu (1.6 %), NUDT (1%), RSC Group (0,8%) e Atipa (0,6%)

Uno sguardo alle statistiche dei processori più utilizzati: al primo posto troviamo Intel Xeon E5 / SandyBridge (46,2%), Intel Xeon E5 / Ivybridge (27%), Intel Xeon E5 Haswell (5,2%), Xeon serie 5600 (5%), Power BQC (5%) e POWER 7 (2,7%)

Top500 Linux dal 2000 al 2014 nei supercomputer

Come possiamo notare dal grafico sopra Linux ha avuto un’incredibile crescita nei supercomputer, passando da 0 a fine anni 90 fino arrivare a ben 485 su 500 nel 2014.

Home Top500

  • Roberto che tu sappia risolve problemi di utilizzo delle chiavette internet? Ho difficoltà da quando ho aggiornato a Raring… credo sia un problema del kernel perchè a quanto pare la scheda è riconosciuta ma va in crash appena viene usata per connettersi… ed ho anche un messaggio di “nessun client disponibile per questa operazione…” boh

  • Xub

    Ciao, per caso è in programma una nuova versione dell’articolo dove si spiega come ricompilare un kernel ottimizzato per i3/i5/i7? Seguendo le vecchie guide sfocio sempre nello stesso errore (questo per la precisione: http://pastebin.com/ESvkt25U )

  • Simone Picciau

    Su Fedora è disponibile come aggiornamento senza aggiungere nessun repo esterno, sto eseguendo adesso

  • Arturo

    per gli sviluppatori: attenzione, c’è un bug in gcc con questa versione del kernel. Praticamente me ne sono accorto sviluppando un’applicazione client/server in C, con la versione 3.8 funziona egregiamente, con questa versione non funziona.

  • Paulo Boniatti

    Ecco che ho cercato di semplificare ancora un po’:

    #!/bin/sh

    #DownInstall amd64|i386
    DownInstall() { wget $(lynx -dump -listonly $link | egrep ‘all|’$@ ) ; echo sudo dpkg -i *.deb ; }

    link=$(lynx –dump http://kernel.ubuntu.com/~kernel-ppa/mainline/ | awk ‘/http/{print $2}’ | grep -v rc | tail -n 1)

    KVERSION=$(echo $link | cut -d “/” -f 6)
    LastKernelInstalled=$(ls /boot/ | grep img | cut -d “-” -f2 | tail -n 1)
    LastKernelAvaliable=$(echo $KVERSION | sed -e “s/v//g” | cut -d “-” -f1 )
    LastKernelRC=$(lynx –dump http://kernel.ubuntu.com/~kernel-ppa/mainline/ | awk ‘/http/{print $2}’ | grep rc | tail -n 1 | cut -d “/” -f 6)

    echo “nntt[UBUNTU KERNELS]”
    “nntLast installed :t” $LastKernelInstalled
    “tLast Stable online :t” $LastKernelAvaliable
    “ntLast RC online :t” $LastKernelRC

    if [ $LastKernelInstalled = $LastKernelAvaliable ] #controlla l’ultimo kernel installato)
    then echo “nnt gia’ aggiornato alla versione ” $KVERSION “nn” # non serve “echo -e”
    exit
    else echo “nnt aggiornando alla versione ” $KVERSION “nn”
    fi

    ########################

    echo “$(tput setaf 3)—kernel $KVERSION will be installed in an `uname -i` system—$(tput sgr0)”

    sleep 2
    read -p “Press Enter to continue, or abort by pressing CTRL+C” nothing
    echo “/n/n”

    DownloadFolder=$HOME/Scrivania/kernel_$KVERSION
    mkdir -p $DownloadFolder
    cd $DownloadFolder

    #System architecture
    arch=`uname -m`
    if [ $arch = i686 ] || [ $arch = i386 ]; then
    DownInstall i386
    elif [ $arch = “x86_64” ]; then
    DownInstall amd64
    else
    echo “Unsupported Architecture”
    fi

    sudo rm -rf $DownloadFolder

  • Bottom500

    Consoliamoci coi supercomputer.

    • sergio

      bhe ci consoliamo anche poco,
      scoprire che quindici dei più potenti pc usino windows mi rende solo che perplesso

      • alex

        Non usano linux, ma non è detto che usino windows, anzi….

      • gnumark

        Dei 15 rimanenti di windows ce n’è uno solo. Come 6 mesi fa. 1 su 500.

      • fg

        15 computer che usano windows?
        Su top500 ce n’è uno solo ed è oltre il 300° posto

  • ZaccariaF

    Useranno Windows per fare stress-test del HW

    • Samael

      Lo usano per mostrare al mondo cosa non installare su un supercomputer.

  • gian

    SuperComputer… che poi sono capannoni pieni di server
    mettiamoci una foto del TH2 và,
    http://i791.photobucket.com/albums/yy196/residentazz/misc/Tianhe-2%20Supercomputer/Tianhe-2_08_zpsc83d4e41.jpg

  • Vin Ben

    non avevo dubbio….

  • ale

    Be con windows penso non si possa nemmeno costruire un supercomputer, è ovvio che ci mettono linux o un’altra unix…

    • Informati

      TechNet . microsoft . com/en-us/library/cc514029 . aspx
      Windows HPC Server

      • Non c’è bisogno di informarsi

        Non pretenderai mica che tutti conoscano l’esistenza di un sistema operativo che è stato usato solo in UN supercomputer di quella classifica, vero?

        Piuttosto pensa che bello. Puoi giocare col registro e con i malware pure sui supercomputer.

        • Kim Allamandola

          Pensa ai tempi di defrag giornalieri dell’ntfs…

          • Che ignoranza

            Bravo

  • sabayonino

    “passando da 0 a fine anni 90 fino arrivare a ben 485 su 500 nel 2014”

    😀 beh GNU-Linux (Linux kernel) è nato nel 1991 …tempo 3-4 ani che si istemasse in giro per il mondo
    prima probabilmente ci saranno stati esclusivamente *nix

    • sabayonino

      ah . questa classifica credo che andrà scemando con il tempo .
      anche qui ormai si stanno sperimentando soluzioni “a basso consumo” e ad alta efficienza computazionale con meno risorse.

      • Kim Allamandola

        Basso consumo/alta efficienza sempre supercomputer sono…

        • sabayonino

          …intendevo la classifica. con l’andar del tempo non avrà nemmeno più senso far a gara coi “petaflofps”.
          lo ha dimostrato la corsa ai GHz fino a una decina di anni fa.

          cominceranno la gara a chi fa meno “MWatts” 😀

          • Kim Allamandola

            Ni, la corsa hai GHz s’è fermata per due ragioni: limiti fisici all’aumento di clock e limiti fisici alla velocità di IO: è inutile far pacchetti in meno tempo se il nastro che ti porta la roba da impacchettare più di tanto non viaggia. Coi cluster penso arriveremo a scenari simili: per la maggior parte dei compiti l’IO tornerà un collo di bottiglia per cui sarà più importante avere taaaanta ram e/o tanto storage permanente MOLTO veloce rispetto alla mera potenza di calcolo.

            Alla fine “il computer” è un insieme di componenti che devono lavorare in concerto, si sviluppa di più quel che si ritiene più utile/facile/economico: ieri erano GHz di CPU e Gb di HD, oggi sono velocità di HD e “collegamenti lontani” (storage di rete), domani sarà qualcos’altro…

          • TopoRuggente

            Sicuro, anche la ferrari si adatterÀ, fra qualche anno uscirà con motore 50cc e 30Km/h di punta.

            Un supercomputer serve per fare calcoli velocemente (Flops), se il mio obiettivo è consumare poco uso la calcolatrice.

  • Tomoms

    Questa classifica era più o meno scontata.
    Domanda che non c’entra NULLA col post: perché se uso Google Chrome e vado sul lfflPUNTOorg accanto ai titoli dei post non mi viene scritto “** commenti”, mentre se uso Firefox si?

    • Kim Allamandola

      A volerla prender larga: perché le “web-app” sono paradigmaticamente sbagliate. Perché non puoi pensare di fare applicazioni con un sistema che fu pensato per documenti, il risultato di ciò è che la complessità di queste e degli “strumenti per leggerle” ha raggiunto livelli parossistici con problemi randomici continui.

    • Agostino

      A me li fa vedere con Chrome. Comunque domandalo a Disqus, il browser c’entra poco con le mancate implementazioni.

  • XfceEvangelist

    Voglio almeno un supercomputer che usi AmigaOS!

  • Vorrei capire

    C’è un mistero al quale non riesco a dare una risposta:
    *** Quando fino a poco tempo fa il Kernel (<2.4) non supportava ancora il multi-threading, Gnu/Linux come li faceva girare 'sti super computer??? Azzoppati? Non c'è da scherzare.

    • Simone Picciau

      Le distro linux che girano su questi supercomputer sono patchate e personalizzate pesantemente credo

      • Vorrei capire

        Si certo, ne sono convinto. Ma se avessero implementato la possibilità del multi-threading (che non è poco) Linux non avrebbe continuato la strada ad occhi chiusi davanti ad un abisso così.

        • Kim Allamandola

          Perché la SUN con “Slowlaris” cosa fece? Cmq la maggior parte del supercalcolo è multiprocesso non multithread anche perché più che mainframe sono cluster, il peso dei context switch è irrilevante rispetto all’IO fuori-cpu.

          • Vorrei capire

            Ma va là. Per niente irrilevante. Se un calcolo è multiprocesso vuol dire che segue un flusso procedurale unico suddiviso per compiti. Se un calcolo è multiprocesso con thread multipli annidati, il punto di forza è l’aumento nella velocità di calcolo sui dati molto piccoli ma allo stesso tempo enormemente voluminosi ed interconnessi. Cosa non possibile se non molto limitata col solo multiprocesso. Si deduce che i calcoli ce fanno o sono appunto azzoppati, o sono molto elementari dove la complessità è rappresentata dal solo volume finale.

          • Kim Allamandola

            Uno dei più grossi problemi di programmazione è come partizionare un lavoro e gestire la sincronia tra i dati condivisi. Se pensi che si possa fare n threads sino a saturare la capacità del ferro e per di più avere performance migliori sei molto fuori strada 🙂

            In pratica avresti software enormi con tempi di sviluppo ingestibili, manutenibilità zero e performance schifose!

          • Vorrei capire

            Guarda caso io ho lavorato alla produzione di questi software, con specifiche di lavoro molto pesanti. Altrimenti non me lo sarei chiesto. Ti assicuro che so bene quanto può essere determinante la presenza di colli di imbuto e che il multiprocesso è anch’esso un bel collo d’imbuto in molte situazioni non a meno delle scritture/letture IO, o dei carichi di rete. Chi ha parlato di saturare? Test ne ho fatti parecchi nella mia vita (direttamente sul ferro in doppio senso) proprio per evitare tutte le saturazioni possibili e garantire la massima fluidità dal primo all’ultimo bit livellato uno ad uno.

          • Vorrei capire

            Aggiungo che da come parli te Kim, sembra quasi che tu pensi che i thread si comportano in una vita a parallelismo cieco. Allora ci credo che mi sollevi queste critiche. Il parallelismo dei thread (almeno come lo intendo io) non è più questo da 20 anni. Si è evoluto e non siamo più a fare n° diramazioni per n° compiti così a caso tanto per metterli. È ovvio che il multiprocesso ha la sua fondamentale importanza, ma lasciarlo solo equivale a sfruttare neanche metà della reale potenza macchina-mostro. Parlo di ambienti DINAMICI dove i thread devono sempre essere usati con ponderatezza con un management che analizza in realtime l’effettiva efficacia. Questo intendevo ovviamente.

          • Kim Allamandola

            Scusate la tarda risposta, inbox un po’ sovrabbondante 🙁

            di che thread models parli? Alla fine tutti i modelli sviluppati sino ad oggi (almeno tutti quelli che conosco) si risolvono in più o meno elaborate strategie di sincronizzazione che sotto sotto altro non usano che i vecchi mutex…

          • Kim Allamandola

            La totalità dei supercomputer sono cluster, l’accesso ai dati non è quasi mai locale e partizionare un algoritmo al punto da riuscire ad avere una granularità senza interdipendenze tali da poter lavorare ogni nodo per se, ogni nodo con le sue risorse mi sembra abbastanza improbabile, per lo meno adatto solo ad un iper-ristretto numero di problemi… Che cosa ti cambia l’overhead di un context switch quando per accedere ai dati che elabori impieghi qualche manciata di ms? Quali strutture dati si avvantaggerebbero della memoria condivisa al punto da superare i problemi di sincronizzazione da gestire in sviluppo?

    • gatano

      Ricordo che già con la versione “beta”l 1.3.* ed ufficialmente con il 2.0 il kernel linux aveva implementato il multi threading, che poi non tutte le librerie ed i programmi fossero prontissimi è un altro paio di maniche, ma per il super calcolo ci sono programmi e librerie ad hoc.

      • Vorrei capire

        Si si lo so, ma solo su internal scope e NON per i programmi. Ti lascio questo documento che parla da solo. Siccome mi pare che qualcuno non mi creda e mi correggo: la versione del kernel è la 2.6 che ha iniziato ad essere minimamente seria (quindi qualche anno fa, altro che lontano passato – un bel record di ritardo per linux):
        en . wikipedia . org/wiki/Native_POSIX_Thread_Library

  • XfceEvangelist

    Ma la mia domanda è: che cosa ci fanno con i supercomputers? Simulazioni militari, calcolo quantistico o magari per craccare passwords e algoritmi di encryption?

    • Kim Allamandola

      Test di Montecarlo, FEA/FEM, simulazioni finanziarie, commerciali e delle risorse, analisi meteo, … Oggi consideriamo la capacità di (super)calcolo come direttamente proporzionale alla capacità e livello di sviluppo di un paese.

      Su questo aspetto c’ho qualche dubbio ma ad ogni modo di applicazioni ne abbiamo un bel po’.

  • Aquila

    Ma io che ho un Hp con Xeon 52.. e ciapilu c’ho un supercomputer????
    Li usano per infettare Windows con Regin, il malware supertecnologico.

  • DigiDavidex

    Se provano a mettere windows sopra gli va a fuoco l’intero edificio con eventuali aumenti della bolletta elettrica 😀

  • dark_brain

    sara’ usato tra i 500 mainframe del mondo, ma gnu-linux deve dare sul fronte home computing / desktop / office automation dove e’ indietro 10 anni su sviluppo drivers, sviluppo software rispetto ai sistemi closed. 😛

No more articles