Ubuntu 16.04 LTS sarà molto probabilmente l’ultima release disponibile con la ISO 32 Bit.

Ubuntu
Si è da poco concluso l’Ubuntu Developer Summit (UDS 14.11) importante evento nel quale gli sviluppatori di Ubuntu e progetti correlati parlando delle novità da introdurre nelle future release. Tra le varie sessioni, troviamo anche una dedicata alla rimozione della versione 32 Bit di Ubuntu che dovrebbe già iniziare a partire dalla futura release 16.10. L’ultima versione di Ubuntu con ISO 32 Bit sarà quindi la 16.04 LTS, release che sarà quindi supportata fino ad aprile 2021, data nella quale i pochi utenti che utilizzeranno ancora sistemi che non supportano l’architettura 64 Bit dovranno decidere di cambiare pc o distribuzione Linux.

L’abbandono del supporto per 32 Bit da parte di Ubuntu consentirà agli sviluppatori di poter lavorare solo sulla versione 64 Bit e il supporto per ARM migliorando lo sviluppo di Ubuntu e dei progetti correlati.

Ecco il video della sessione dedicata ad Ubuntu 32 Bit:

Oltre a Canonical, presto verrà rimosso il supporto per 32 Bit anche da parte di altre distribuzioni tra queste anche Arch Linux.
Secondo voi Canonical fa bene o male a rimuovere il supporto per 32 Bit?

Per maggiori informazioni:

32 vs 64 bit discussion; should we recommend 64 bit now?

  • giuseppe76

    secondo il mio parere ubuntu perderà qualcosa, visto che ancora ci sono in giro pc che supportano solo 32 bit, come nel mio caso. anche se nel mio caso uso la distribuzione xubuntu 32 bit, la mia speranza è che non venga tolta anche su questa distro. Comunque forza linux 🙂

    • ilcampione

      Si ma fra 5 anni quante possibilità ci sono che tu utilizzerai ancora quel pc?
      Anche se funzionasse ancora (cosa che ti auguro, ma che è improbabile se lo usi costantemente) i programmi avranno aumentato talmente tanto la loro richiesta di risorse che sarà difficile poter usare decentemente pc cosi datati.

      • Lo sa

        In realtà potrebbe tenerselo anche per altri 20 anni ancora se… eh… mondo di anti-programmatori mi viene da dire.
        Tu non sai che esistono programmi di 10 anni fa con features anni luce avanti rispetto ai programmi piatti di oggi, tutti caduti nel dimenticatoio. Certo consumano più risorse quelli di oggi, ma perché? Colpa dei programmatori “copia/incolla” da chi già aveva fatto “copia/incolla”, per ottenere alla fine dei minestroni micidiali che insudiciano e manderebbero su di giri qualsiasi super pc moderno. Una volta questo non accadeva ed i prodotti software si che erano Buoni! Altri tempi.

        • I-Bonzo

          “Si stava meglio quando si stava meglio
          si stava peggio quando si stava peggio
          si sta bene quando si sta bene
          si sta male quando si sta male
          tutto è bene quello che
          finisce.
          Lalala lalala lalala lala”
          (cit. Lo Stato Sociale).

          • Sim One

            e… tanto va la gatta al lardo che ci lascia lo zampino?
            e… piove governo ladro?
            e… non è bello ciò che è bello ma è bello ciò che piace?
            e…

          • I-Bonzo

            Piove governo ladro è un evergreen.

        • ZaccariaF

          In altri tempi si accedeva direttamente alle periferiche(certo poi ogni modifica al programma che la utilizzava andava fatta in assembler,ma va be) e non si doveva passare da astrazioni e driver di 100 mega,per usare uno spettrometro di massa,ma non è che sono così acido con l’ informatica moderna. 🙂

        • Kim Allamandola

          Forse una volta il manager era meno divinità-che-gira-il-sole-con-le-stanghe di oggi e quindi il programmatore era un proffesionista con una certa dignità non uno scribacchia-codice a cottimo.

          Cmq secondo la legge di Sturgeon il 90% di tutto è spazzatura e non mi pare tale percentuale sia cambiata nel tempo! I programmi buoni c’erano, ci sono anche oggi (si notano solo di meno per questioni tecnologiche che richiederebbero lunghe dissertazioni) e la spazzatura c’era e c’è…

          • ZaccariaF

            Sai com’ è non sono i soldi,o l’ organizzazione che producono codice migliore,ma la passione e la ricerca,che sono cose da scienziati non da imprenditori.
            ll fatto di aver mollato l’ innovazione in mano all’ industria,ha prodotto quella spazzatura di cui Sturgeon parla,anche nel software.
            Ti immagini quanto ci sarebbe voluto per produrre qualcosa come Unix,se a pensarci fosse stata una ditta privata?

          • Kim Allamandola

            Hem, UNIX è nato in una ditta privata, l’AT&T… Solo ai tempi ragionavano in maniera un po’ diversa da oggi.
            E del resto ai tempi il MIT con l’ITS, Multics, le LispM ecc criticavano UNIX proprio per le sue “oscenità commerciali”.

            IMO se lasci mano all’accademia rischi di non evolvere disperdendo energie enormi senza grandi risultati concreti, passione e ricerca pure tendono a portare la testa tra le nuvole; se lasci mano all’industria-turbocapitalista rischi di non evolvere per paura di toccare lo status quo, il guadagno dell’oggi diventa l’unica guida… IMO serve il vecchio in medio stat virtus garantito da “cittadini” consapevoli e governi…

          • ZaccariaF

            Ad essere esatti ,a quei tempi era un po’ come la Sip,era monopolista di stato e chiuse il sorgente di UNIX, dopo essersi totalmente privatizzata(causando le proteste di cui parli).
            La ricerca,anche quella da tappeti volanti,ma principalmente bleeding edge, si fa pagata dallo stato, nessuna ditta ,puntando al guadagno,accetterebbe mai di rischiarsi dei soldi(nonostante le palle che ci propinano a riguardo)in ricerche forse fallimentari,preferisce aspettare,anche a babbo morto.
            Guarda cosa è successo ai laboratori dell’ ENI.
            Un’ accademia fa le ricerche senza pensare a come venderle e quindi produce migliori risultati ;anche Linux,se ci pensi in fondo,era “solo” una tesi di laurea.
            Se non si arriva nemmeno col l’ immaginazione fra le nuvole,figurati se mai si sarebbe costruito un aereo.

          • Kim Allamandola

            Hum, se dovessi scegliere punterei più sull’adolescente da garage che non sull’accademia, almeno per le esperienze italiche che ho avuto: qualcuno veramente in gamba ancora si trova ma la maggior parte dai docenti ai dottorandi sin alle matricole per non parlare dell’amministrazione… Le uniche ricerche reali e “ben riuscite” erano quelle circa la miglior strada per andare al bar, per restare incollati alla poltrona ecc…

          • ZaccariaF

            Ti piace giocare a perdere? O.o
            Pultroppo l’ uni italica è affetta da nanismo cronico,dopo anni di “fate skifen”,provocato da una parte politica un po’ rosé che non ha pensato altro che chiudere laboratori, tagliare fondi statali alla ricerca universitaria(che altrimenti gli italiani si montano la testa,sia mai) e farsi le guerricciole tra di loro,per i posti da rettori,amminstratori nelle partecipate e capoccia vari.
            Naturalmente i problemi dell’ Italia se chiedi a questi,sono il barista che non scontrina un caffé dalla disperazione,mica questi tristi mietitori di know-how,che privatizzano ai loro amicicci per disintegrare ogni innovazione e vendere telescriventi quando invece si comprano Pc.

      • ZaccariaF

        A dire il vero,a parte i videogames, il consumo di risorse medio degli applicativi è addirittura sceso.

        • Kim Allamandola

          Pensa ai browsers e sopratutto alle varie webapp, persino Google search è passato da una manciata di Kb di html+js leggero ad un pachiderma!

          • ZaccariaF

            Beh devi anche considerare l’ introduzione di molte inutility come Google Now,un bel servizio,perennemente in RAM, che IMO ha sempre saputo di spyware.

          • Kim Allamandola

            Daccordo ma cosa fai? Stile RMS con w3&c dentro Emacs? Purtroppo IMO non hai molta scelta…

            Non che mi faccia piacere per carità però sinora non ci sono abbastanza lamentele da far cambiare le cose.

  • bevo

    era ora.. la compatibilità dei processori desktop con i 64 bit è in circolazione da 12 anni, ormai non ha più senso supportare la vecchia architettura. Se consideriamo poi il fatto che la 16.04 avrà 5 anni di supporto, credo siano stati anche troppo gentili

    • Max Franco

      perchè.. ci perdevi qualcosa nel fatto che supportassero i 32 bit? 🙂
      si trattava solo di ricompilare per l’architettura, e visto che tutto è automatizzato costava solo qualche tempo macchina.
      oltretutto ci sono applicazioni che girano solo con il supporto a 32 bit (skype, teamviewer ecc. ecc.) e quindi sino a che ci saranno questo tipo di problematich eoccorrerà comunque mantenere il supporto per l’architettura a 32 bit 🙂

      • Barrnet

        Nei pacchetti .deb esiste la multiarchitettura, puoi benissimo installare un .deb a 32 bit su un sistema a 64 bit. Inoltre tutte le macchine da 12 anni fa ad oggi supportano l’architettura x86_64, anche i vecchi pentium 4! Non è che solo le macchine con più di 4GB di ram sono a 64 bit eh 😛
        Probabilmente una vera macchina a 32bit sarebbe cosi poco performante da dover richiedere comunque una distribuzione leggera, anzi: che cavolo ci gira al giorno d’oggi su un Pentium 3?

      • ZaccariaF

        Devi anche considerare che moltissime macchine sparse per le PA,Industrie ecc. sono solo a 32 bit,e così perderebbero l’ aggiornamento.

        • Kim Allamandola

          Non sono desktop o server, sono per lo più porcate SCADA che non avrebbero dovuto esser manco fatte anni prima! IMO è un’ottima occasione per togliere dai piedi potenziali (manco tanto, in genere) fonti di problemi!

      • Kim Allamandola

        Ci perdi un pacco di risorse per compilare e testare ogni build in tutte le configurazioni possibili, fare backport di roba non più compilabile direttamente a 32bit sin d’ora e per tutto il periodo di supporto ecc ecc ecc è il motivo per cui tanti vendor di roba proprietaria non son ancora decisi a buttare i 32bit nel cesso.

        Ocio che supportare una distro non è come compilarsi un sw in casa per gioco, Ubuntu non è solo un desktop per geek, è anche per server e desktop enterprise che razionalmente non possono “sperare che vada tutto bene” 🙂

  • Alla faccia della convergenza

    Se ubunto mi dice addio al 32bit già adesso, so che “per reciproco rispetto” (ed altri motivi a parte) non metterò mai questa distro sul mio netbook a 32bit che ha solo un paio di anni di vita. Tz…

    • Max Franco

      come faceva notare sotto bevo, ci sarà ancora la 16.04 che uscirà tra 1 anno e mezzo e che avrà cinque anni di supporto. quindi puoi contare su almeno altri sei anni e mezzo di tranquillità. a quel punto il tuo netbook avrà 8 anni e mezzo e non credo che lo userai ancora… anche perchè un netbook solo a 32 bit di due anni fa non deve essere di certo un pc dalle prestazioni stratosferiche, cosa che lascia supporre che tra 4-5 anni sarà inutilizzabile comunque, se la richieste di risorse dei software salirà come ha fatto negli ultimi anni.
      –edit… leggo sotto che ho replicato quello che diceva ‘ilcampione’ vabbè repetita juvant 🙂

    • Barrnet

      Sai vero che al 90% il tuo netbook ha già un processore a 64Bit? Gli unici Atom a 32 bit sono quelli monocore. Cosiderando che Unity gira già a fatica su quelli dualcore (aka se apri già firefox si impianta tutto) e già ora sono macchine in cui come minimo installi xubuntu o lubuntu…

      Fino al 16.04 sei apposto senza problemi, per la release LTS successiva e alla fine del supporto della LTS precedente (si parla del 2021: se quella macchina funzionerà ancora sarebbe da museo!) potrai ancora installare xubuntu o lubuntu in formato 32bit, senza perdere nulla in funzionalità!

      • Alla faccia della convergenza

        Non è una di quelle notizie che fanno piacere se dici che ubuntu fa fatica a girare su un dual-core, anche se è una tristissima verità che dovrebbe far riflettere a quanto ammonta il livello di software spazzatura che ci rifilano.

        PS: il mio è un 32 e nel negozio dovo ho acquistato, c’era solo un asus a 64. tutto il resto a 32 e se ne vedono ancora tantissimi. Beato te.

        • Kim Allamandola

          Scusa QUALE OS desktop moderno gira bene con meno di 4Gb di ram, di un processore dual core “leggero”? Che ci sia tanto sw spazzatura siamo daccordissimo ma i tempi e le necessità cambiano.

          Ps se un negozio oggi vende ancora netbook x86 a 32bit valuterei di offrire un corso gratuito di informatizzazione ai clienti e l’istituzione di un reato “circonvenzione d’ignoranti/polli” ad hoc per certi venditori! 😛

          PPs non è che ti riferisci a Windows a 32bit su macchina a 64?

          • ZaccariaF

            @KimAllamandola:disqus
            Scusa QUALE OS desktop moderno gira bene con meno di 4Gb di ram?

            La mia Testing+KDE,per esempio,4 e più GB di RAM,per me,servono solo per i videogiochi,e nient’ altro,anche pesanti compilazioni e rendering si fanno con 2 GB di volatile e un Core Duo,anche se overcloccato a 2.50,del 2002.

          • Kim Allamandola

            Se sei disposto a swappare regolarmente o aspettare centinaia di ms tra un comando e la risposta della GUI siamo d’accordo… A questo punto però c’è da mettersi d’accordo su cosa vuol dire “girar bene”. Personalmente per l’aspettativa “personale” (e condivisa da buona parte di coloro che conosco) oggi già un desktop con dischi a piattelli non “gira bene” ovvero “è lento”.

            Sarebbe interessante comunque una sorta di sondaggio a tema: “quanto vuoi il desktop scattante? Quanto tempo ti aspetti di dedicare a certe operazioni?” ecc 🙂

          • ZaccariaF

            @Kim Allamandola
            Se sei disposto a swappare regolarmente o aspettare centinaia di ms tra un comando e la risposta della GUI siamo d’accordo.

            Esaggggerato! :-),per carità raramente noto qualche piccolo rallentamento,rispetto ai normali 1-2 decimi di secondo,per chiudere una finestra e i 0.5 decimi,per la tastiera,quando compilo qualcosa di complesso e pesante come un Libreoffice, ma l’Os,di solito,con annessi e connessi,”gira bene”.
            Bisognerebbe davvero fare quel sondaggio, mi piacerebbe.

          • Kim Allamandola

            Tu compili LO su un desktop in uso!? LO e Chromium sono mostri da compilare che solo di source + obj + temporanei vari si ciucciano sino a 14Gb su disco e 8Gb in ram!

          • ZaccariaF

            Si ho un po’ esagerato 😉 compilo i fw ,spesso e volentieri, di router e microcontrollori,anche due contemporaneamente,se uno e un picchetto da 8(lo faccio per lavoro),guarda si riesce comunque a far qualcos’altro anche se con piccoli rallentamenti.
            Gcc sfrutta moltissimo la swap per non appesantire la macchina e lo fa molto bene.
            Scrivevo di LO,però è vero, l’ ho compilato su un sistema più perfomante di quello che uso per Audio/Video(e ci ha messo quasi 10 ore) :sorry( .

          • matteo81

            Il 90% di chi usa un pc/nootebook usa servizi internet, guarda e ascolta audio/video e usa pochi software ad hoc e generalmente nulla che giustifichi più di 2-3 gb di ram….
            Io con 3 gb di ram non ho mai swappato come penso il 99% dell’utenza di questo e tanti altri forum/blog…
            Certo che se passi ore a compilare, usare vm a muzzo oppure rendering pesante allora il discorso cambia ma quanti usano il pc per queste operazioni?
            Parliamo di utenza domestica che generalmente non produce ma usufruisce di contenuti e che nella stragrande maggioranza dei casi non ha esigenze particolari.. se apro un web browser e questo impiega qualche ms in più non mi pare un dramma…. visto che non passo la giornata ad aprirlo e chiuderlo….
            Ma non è per caso che tu sia un filo troppo esigente e puntiglioso? seguendo il tuo ragionamento il 70% delle macchine sarebbe da buttare all’istante…. quando invece una delle qualità migliori di gnu-linux è proprio quella di poter allungare la vita ad hardware non più recente…. il tuo mi pare un concetto un pò elitario….

          • Kim Allamandola

            Hum… Non sono in grado di dare una percentuale ma si, una parte significativa del parco hw in uso sarebbe IMO da riciclare, e non solo a tema computer. Purtroppo nella nostra società c’è il concetto di crescita non di evoluzione e di conseguenza mancano proprio anche tantissimi strumenti per evolvere a costi, sforzi e tempi ragionevoli…

            Su GNU/Linux… Il tempo in cui le distro erano delle soluzioni per riciclare il vecchio ferro è oramai passato, al di la di tutto proprio per l’uso web&multimedia che anche l’utente domestico vuole e per i consumi elettrici del vecchio ferro certe pratiche sono IMO non più attuali…

            Per le vm ed altri lavori pesanti la mia conf. attuale è mediamente 16Gb minimo, normalmente 32Gb di ram, 1 o 2 Core i7 e 2 o più SSD grandi quanto basta sia per l’host che a parte per le VMs. Ad ogni modo, solo per curiosità dai di tanto in tanto un free -h dal terminale, sarei sorpreso se con un browser moderno con 2/3 schede aperte (magari Fb/G+, Youtube, un internet banking/Il Fatto/l’ANSA) non swappassi manco un poco (a patto di non aver giocato sporco con sysctl)

          • matteo81

            Se parli di ambienti gnu-linux praticamente tutti se supportati da una cpu decente e con driver appropriati… se parli di: giocare, editing audio/video, rendering ecc ecc sono discorsi che riguardano una piccola porzione del totale… parlo per esperienza personale…
            Il problema è che forse oggi esiste troppa tecnologia rispetto a quella che realmente servirebbe alla media e per continuare a vendere e alimentare il mercato ci vendono un mucchio di “bella robetta” ma che in pratica è superflua per i più…
            Basta guardare come la gente usa il pc… per non parlare di smartphone e tablet magari acquistati per 500-600 carte… facebook, qualche minuto di internet, un pò di musica per la corsetta della sera e poi il nulla…

          • Kim Allamandola

            Se né esiste tanta che potenzialmente interessa pochi ne manca tanta altra che potenzialmente avrebbe audience enormi…

            Pensa solo alla collaborazione in ambito SOHO: se Google Keep non fosse un’app/servizio di Google ma un normale e diffuso metodo di prender note come lo sono i post-it nel mondo fisico, se applicazioni che permettono al volo di far foto, aggiungere testo, schizzare sopra qualcosa a mano libera, fossero la norma, se avessimo “semplici soluzioni” di disegno 3D parametrico con pochi fronzoli ecc quanta gente produrrebbe contenuti, lavorerebbe meglio, si divertirebbe ecc rispetto ad oggi?

            IMVHO quel che manca è proprio l’attenzione all’hobbista che cera ai tempi di NeXT, se ci fosse avremmo una pletora di utenza quasi-utonza ben meno fb-goog-yt-yp e bon.

          • matteo81

            Kim…. hai fatto un pippone infinito ma come spesso ti accade scivoli su territori oscuri e lande misteriose….
            La tua osservazione è che servono almeno 4 giga di ram e un dual core “ottimo” per far girare fluidamente un os moderno…. e io ti ho risposto che non è così… altrimenti sul mio cq60 che è un 32 bit, dual core 2.00 ghz e 3 gb di ram e misera integrata intel girerebbero solo i lightweight… eppure ho usato e continuo a usare senza problemi qualunque ambiente in modo soddisfacente… tutto qui…

          • Kim Allamandola

            Bé penso che il punto sia cosa riteniamo per girare fluidamente, per me oggi una macchina desktop “fluida” è come minimo 4Gb di ram ed un Core i3, con 60Gb di SSD per l’OS + quel che si vuole ed il costo di cotale macchina ivato per l’utente finale non dovrebbe superare i 300€. Se dovessi consigliare un aquisto “rilassato” direi 8Gb di ram, Core i3, 120Gb SSD (o di più o uno a piattelli in aggiunta se si tengono foto, video ecc) restando sui 400€ questo ripeto per un desktop SOHO del 2014-2015.

            Poi certo se mi si dice che il DE/DS/WM sarà E17 o magari Fluxbox, che le uniche applicazioni usate saranno Emacs avviato come demone al boot, terminator con 4 zsh e poco altro che NON INCLUDE Firefox, Chrome, LO ecc e non si intende guardare Youtube ecc allora ok, i requisiti minimi scendono.

          • Alla faccia della convergenza

            Il reato di “circonvenzione d’ignoranti/polli” lo fanno in primo luogo gli sviluppatori di software a partire da quelli web. Non è possibile che per visualizzare 2 righe serva mezza ram di un normale PC (tutta dedicata ai loop js che a loro volta sono ingrassati con tonnellate di olio di palma che credono faccia bene alla salute), come non è possibile che un DE “spoglio” da solo ciucci tutte le risorse senza lasciare le briciole al primo programma che ti serve realmente.
            “i tempi e le necessità cambiano” hai scritto. A me sembra una grossa battuta. Quello che si deve fare a parità di richieste non è mai stato più oneroso di risorse rispetto al passato. È il modo di programmare ad essere cambiato in peggio: si è semplificato per porgere entrambe le mani a chi ha poca voglia di programmare seriamente… al costo però di abbattere tutto di quello che rimane del PC in uso.

            Questa non è più informatica.

          • Kim Allamandola

            Ni, per fare un paragone storico il C ha avuto il super-successo che ha avuto per la sua semplicità, vicinanza al linguaggio umano, libreria standard con quasi tutto quel che serviva ecc cosa che nessun altro linguaggio offriva allo stesso livello. Le necessità di oggi non son più quelle del 1/1/1970. Oggi il Python ed il Go hanno successi simili anche se non paragonabili (a causa del fatto che python non è sostanzialmente compilabile e Go ha una sintassi oscena).

            Il motivo per cui le applicazioni son diventate iper-pesanti sarà anche dovuto ad una (spaventosa) diminuzione delle competenze dello scribacchia-codice medio e alla conduzione managerial-moderna ma anche per mancanza di tecnologie di base moderne.

            Per capirci le pagine web sono nate per essere solo testo, il loro paradigma quello è, l’uso “come applicazioni” è un’aggiunta che va in conflitto con questo paradigma, è normale che il risultato non sia buono. Tante librerie grafiche sono nate per altri tempi dove certo “zucchero” non era previsto e ogni cosa è stata aggiunta livello sopra livello aumentando il peso. Se oggi avessimo un compilatore Go col paradigma CSP e la grammatica del Python, un server X semplice e pensato per i bisogni odierni con delle XLib del livello delle Qt (senza gli n layer uno sopra l’altro), un sistema di sviluppo CI-style con la relativa gestione dei deploy (aka package-manager-alike) ecc avremmo overheads ben inferiori.

            Il succo è che gli scribacchia codice bene o male ci son sempre stati, solo che in certe epoche han avuto strumenti più adeguati e gestioni migliori, spero di aver reso il concetto…

          • Alla faccia della convergenza

            Beh in primo luogo quando parlavo di pesantezza non mi riferivo in modo preciso ai layer dove è scontato un appesantimento, ma non del tutto voluto. In molti contesti si può chiudere un occhio. Mi riferivo a tutto quello che viene affiancato ed a certe scelte completamente fuori dai binari della programmazione razionale. Esempio web: ho visto programmatori prendere librerie js da 10M o più per aggiungere una sola banale funzionalità irrilevante rispetto a quanto richiesto. Questo è sbagliato. Ho visto inserire Jquery per fare un effetto Fade perché non conoscono il js nativo o gli stili, pazzesco da rimandare a scuola. Esempio app: ho visto introdurre crystalreports (1GB) per fare una semplice stampa! È osceno. Questo intendevo!!!

            Le cose già fatte, indipendentemente dal loro PESO fanno acquolina a tutti. Me escluso di sicuro.

            Chi scribacchia codice c’è sempre stato verissimo, ma almeno una volta i prefabbricati altrui erano rari e chi sviluppava aveva poco da sbatterci dentro. Ergo, chi voleva giocare – perditempo lasciava perdere subito o era scoraggiato per fortuna. Adesso tutti vedono chissà quale manna prendendo dal lavoro di altri, sempre più pesante, passaggio dopo passaggio.

          • Kim Allamandola

            Hum, le cose già fatte fan acquolina *ma* non è detto che debbano essere per forza malfatte. Oggi la maggior parte delle pappe pronte se non malfatte sono spesso inadatte all’uso che ne viene fatto ma questo non vuol dire che siano il male, anzi!

            Sull’ultimo paragrafo non sono molto d’accordo: se una volta il copia&incolla da StackOverflow non c’era le porcate non erano tanto più rare di ora, pensa solo all’ambito gestionale. L’unica differenza IMO era nell’utente finale che essendo un tempo “più elitario” aveva un peso, un approccio ed un potere contrattuale diverso da oggi.

          • ZaccariaF

            Se succedesse quello che dici tu,un Linux focalizzato su dei componenti standard,nascerebbero mille fork in un minuto,e uno dei pochi difetti dell’ open source.
            Il Python non sfonda solo perché è difficilissmo da offuscare,Sad but True!
            Le Xlib che fanno anche da DE,sarebbero come dire”questa è la tua libreria grafica ,non avrai altre librerie all’ infuori di me”.
            I problemi di overheads è anche il perchè i kernel non sono diventati micro,poi bisognava creare infinite interfaccie per mandare i messaggi tra un servizio ed un altro.
            Il C negli anni 70,serviva come assembly portabile,bastava che scrivesse a schermo ed era il grasso che cola.

            Non è colpa dei javini che scribacchiano,un linguaggio di oggi deve solo nella Stdlib,avere nell’ ordine:I/O(da n sorgenti di input diverse),grafica,audio,video,funzionalità di rete,eccezzioni(già preconfezionate),classi,eventi e addirittura aspetti,regex,cifratura,compilatore, decompilatore e incasinatore aka offuscatore,gestione di database,un IDE RAD,WebO,Saas,Caas e acronimi vari,
            oltre che un buon framework con tante classi gia precotte e dulcis in fundo,potersi interfacciare con millemila altri linguaggi e framework.
            Poi ti lamenti se tutto ciò pesa?
            Non mi parlare del Go ,ti prego(il C moderno e a paradigma funzionale),uno dei peggiori fail della storia informatica.
            Io però non sarei così contro lo zucchero(se implementato bene permette uno sviluppo a velocità supersonica e abbatte il numero di bug),pensa che il linguaggio di Dio ne era pieno zeppo,anche il C++,solo che a differenza di JS e Java sono fatte come macro e non come librerie separate.

          • Guest

            Se succedesse quello che dici tu,un Linux focalizzato su dei componenti standard,nascerebbero mille fork in un minuto,e uno dei pochi difetti dell’ open source.
            Il Python non sfonda solo perché è difficilissmo da offuscare,Sad but True!
            Le Xlib che fanno anche da DE,sarebbero come dire”questa è la tua libreria grafica ,non avrai altre librerie all’ infuori di me”.
            I problemi di overheads è anche il perchè i kernel non sono diventati micro,poi bisognava creare infinite interfaccie per mandare i messaggi tra un servizio ed un altro.
            Il C negli anni 70,serviva come assembly portabile,bastava che scrivesse a schermo ed era il grasso che cola.

            Non è colpa dei javini che scribacchiano,un linguaggio di oggi deve, solo nella Stdlib,avere nell’ ordine:I/O(da n sorgenti di input diverse),grafica,audio,video,funzionalità di rete,eccezzioni(già preconfezionate),classi,eventi e addirittura aspetti,regex,cifratura,compilatore, decompilatore e incasinatore aka offuscatore,gestione di database,un IDE RAD,WebO,Saas,Caas e acronimi vari,
            oltre che un buon framework con tante classi gia precotte e dulcis in fundo,potersi interfacciare con millemila altri linguaggi e framework.
            Poi ti lamenti se tutto ciò pesa?
            Non mi parlare del Go ,ti prego(il C moderno e a paradigma funzionale),uno dei peggiori fail della storia informatica.
            Io però non sarei così contro lo zucchero(se implementato bene permette uno sviluppo a velocità supersonica e abbatte il numero di bug),pensa che il linguaggio di Dio ne era pieno zeppo,anche il C++,solo che a differenza di JS e Java sono fatte come macro e non come librerie separate.

          • ZaccariaF

            Se succedesse quello che dici tu,un Linux focalizzato su dei componenti standard,nascerebbero mille fork in un minuto,e uno dei pochi difetti dell’ open source.
            Il Python non sfonda solo perché è difficilissmo da offuscare,Sad but True!
            Le Xlib che fanno anche da DE,sarebbero come dire”questa è la tua libreria grafica ,non avrai altre librerie all’ infuori di me”.
            I problemi di overheads è anche il perchè i kernel non sono diventati micro,poi bisognava creare infinite interfaccie per mandare i messaggi tra un servizio ed un altro.
            Il C negli anni 70,serviva come assembly portabile,bastava che scrivesse a schermo ed era il grasso che cola.

            Non è colpa dei javini che scribacchiano,un linguaggio di oggi deve ,solo nella Stdlib,avere nell’ ordine:I/O(da n sorgenti di input diverse),grafica,audio,video,funzionalità di rete,eccezioni(già preconfezionate),classi,eventi e addirittura aspetti,regex,cifratura,compilatore, decompilatore e incasinatore aka offuscatore,gestione di database,un IDE RAD,WebO,Saas,Caas e acronimi vari,
            oltre che un buon framework con tante classi gia precotte e dulcis in fundo,potersi interfacciare con millemila altri linguaggi e framework.
            Poi ti lamenti se tutto ciò pesa o è inefficente,o crea problemi?
            Non mi parlare del Go ,ti prego(il C moderno e a paradigma funzionale),uno dei peggiori fail della storia informatica.
            Io però non sarei così contro lo zucchero(se implementato bene permette uno sviluppo a velocità supersonica e abbatte il numero di bug),pensa che il LISP ne era pieno zeppo,anche il C++,solo che a differenza di JS e Java sono fatte come macro e non come librerie separate.

          • Kim Allamandola

            Quella dei mille fork è una storia che gira negli ultimi anni ed in genere la portano avanti più i commerciali anti-opensource e coloro che nel mondo open sono appena arrivati: ci sono mille fork di cavolatine ma di prodotti core non vi sono praticamente fork: di Linux ci sono (stati) tre rami con normale coesistenza e collaborazione, di XFree/Xorg praticamente non ci sono fork, della glibc ci sono solo mini-fork ad usi più o meno embedded ecc, solo delle calcolatrici&c c’è tanta varietà e per inciso i fork non sono un male, anzi, sono un modo di sviluppare meglio perché sono confronto di idee diverse. Purtroppo chi viene dal mondo proprietario abituato a legarsi senza scelta a qualcuno non se ne rende conto e considera la scelta un problema: perché oggi son tutti preoccupati per Systemd&c? Perché non ci sono fork, non c’è varietà si è legati alla galassia RH. Se ci fossero realmente mille fork nessuno si scalderebbe.

            Sui linguaggi: che Go (che per inciso non è funzionale!) sia un fallimento non mi risulta, la sua user-unfriendly sintassi non gli ha dato il successo del Python ma stà sempre più scalando le vette della programmazione di sistema (da Launchpad a LXD ai dns di ntp.org a Heroku sino alla BBC), abbiamo un disperato bisogno di Go, solo sarebbe gradita una sintassi più digeribile. Semmai il fallimento è Java: adottato da n-mila soggetti (anche grazie a moneta sonante by SUN) senza aver minimamente capito quel che Java voleva essere (paradigma che Go riprende, con miglior successo) con risultati nella quasi totalità dei casi immondi (bloatware spaventosi).

        • di1188

          E che negozio è questo? 😐 Una bottega Amish?

        • Barrnet

          Non è tanto la pesantezza del software, è proprio l’Intel Atom ad essere una chiavica. Possiedo un netnook con un Atom dual core da 1,66 ma in fatto di prestazioni si fa asfaltare dal muletto con un processore monocore (AMD sempron) 😛

      • ZaccariaF

        Se mi parli del “supporto” che avrebbero gli Atom dei 64 bit,mi viene sia da ridere, che da piangere.
        Non sollevo la storia dei pacchetti solo a 32 bit perché è già stata sollevata.

    • Kim Allamandola

      I netbook sono stati ritirati dal commercio da tempo per la loro inusabilità, erano partiti con “come la roba da GDO moderna spazzerà via il desktop” e son stati cestinati in meno di 3 anni, stessa cosa che fan i tablet oggi…

      • ZaccariaF

        O forse son stati assassinati,per il fatto che dovevano venderci le tavolette dell’ inutilità.

        A parte gli scherzi,ho ancora un Aspire One,che è il mio computer da lavoro principale.che non cambierei per nulla al mondo.
        Se mi dici sono trabiccoli fatti col deretano, 🙁 come darti torto.

        • Kim Allamandola

          Bé sei uno dei pochi, la maggior parte dei proprietari di netbook dopo pochi mesi ha smesso di usarli, qualcuno tornando al laptop classico qualcuno tentando la ancora relativamente pionieristica via dei convertibili 13″/14″…

          • ZaccariaF

            Gli unici nei sono l’ usura da denuncia dei componenti,specialmente gli schermi e il tentativo a livello hardware di impedire l’ upgrade dei componenti.
            Dopo un po’ bisogna cambiare tutto,l’ ho fatto,e ora un Super Aspyan di 3 livello :mad con Debian+MATE a 64 bit.

          • Kim Allamandola

            Quello più che problema tecnologico è scelta economica degli OEM, ci si può far poco.

            Io, non solo per questo, vorrei venisse pensata bene una “stagnation tax” che vada a tassare tutti coloro che non fanno ricerca e sviluppo reale ma si limitano a cambiar scocche e creare lock-in, il risultato sarebbe che se non investi per cose utili gli stessi denari li versi alla collettività in tasse. Questo forse riequilibrerebbe il mercato e magari anche le casse magre di tante PA!

          • ZaccariaF

            Oltretutto la qualità dei componenti nei netbook e router moderni,mollati nelle Mobo e Dabo è bassissima(specialmente le schede wireless,quanta nostalgia i Linksys),e si vede anche ad occhio,per non parlare dei cavetti volanti(sembrano sussurarti strappami dai).

        • EnricoD

          anche Io ! e ci scrivo pure documenti e fogli di calcolo con libreoffice e c’ho pure dei software per il disegno 3d di molecoline… eeepc 1011px è il migliore 🙂 non lo sostituirei con nessun altro pc ..

          • ZaccariaF

            Passi anche “Molecoline” sottobanco? ROTFL

            Scusa non ho resistito.

          • EnricoD

            Solo se son piccole abbastanza 😀

      • matteo81

        I netbook permettono molte più cose rispetto ai tablet in termini di funzionalità, costano molto meno e non sono certo meno trasportabili… quando parli di inusabilità parla in modo personale… te ne prego… per molti, compreso il sottoscritto, il mercato come sempre ha preso il sopravvento e ci sono stati proprinati tablet a volontà per tante ragioni economiche di svariato genere… non ultimo un marketing possente che ormai conta molto più rispetto alla qualità intrinseca di un prodotto…..
        Non sempre la scomparsa oppure il successo di un prodotto è proprorzionale all’utilità dello stesso…

        • Kim Allamandola

          Certo, l’OS dei netbook è lo stesso dei desktop, sui tablet in genere c’è Android, resta però quella che sarà anche un’opinione personale ma direi abbia diffusione che col minischermo e la minitastiera un OS desktop non è propriamente usabile ne come GUI ne come input da tastiera… Li han fatti sparire dal commercio perché non vendevano!

          Si spinge sui tablet perché al di la dei costi di produzione ridotti han un lock-in ben superiore ai computer classici e la popolazione ancora questo lock-in accetta (tantissimi non se la prendono se non possono manco cambiar batteria ad un tablet ma non è manco legalmente accettabile che un laptop non sia per lo meno installabile con l’OS che vuoi) ma gli OEM avrebbero ben voluto tenere anche i netbook se avessero potuto guadagnarci.

          • ZaccariaF

            Quotone per il lock-in delle tavolette dell’ inutiità.

  • Simone Picciau

    Fa bene, ci sono decine di altre distro valide disponibili per architetture obsolete.

    • Obsolete?

      Sarà ache come dici, ma se le architetture sono “obsolete” per quale ragione si vendono ancora in tutto il mondo dispositivi a 32bit senza presentare versioni dello stesso modello per x64??? Per farceli buttare via subito dopo comprati?

      • Simone Picciau

        Beh per adesso ubuntu supporta ancora i 32 bit, parlano di 16.04 lts come ultima disponibile per tale architettura, per quella data magari non si venderanno piu. Non è domani, ci vuole ancora un bel pò. E poi se anche mancasse da domani il supporto, ci sono altre distro per i 32 bit come già detto. Non è un dramma.

      • Vipruss

        Avevo letto (non ricordo dove) che i developer di Ubuntu sono in contatto con i developer delle derivate ufficiali (Xubuntu, Lubuntu e tutte le altre) per continuare il supporto all’architettura 32 bit nelle distro derivate che succederanno la 16.04.
        Senza contare il supporto a 5 anni della 16.04.

        Quindi di certo non si butterà via niente

      • Kim Allamandola

        Scusa puoi postare qualche link di macchine desktop x86 32bit in vendita? Gli unici casi che riesco ad ipotizzare sono le truffe per gonzi…

  • lorenzo s.

    D’accordissimo, le distro devono diversificarsi: Ubuntu è una distro volta al futuro, all’innovazione, mentre altre distribuzioni leggere devono occuparsi di pc datati. Altrimenti che senso avrebbe avere distro identiche che fanno le stesse cose, e che per accontentare tutti non accontentano nessuno?

  • osvaldo

    per i pc casalinghi (4gb ram) molto meglio la64 bit piuttosto che la 32pae eh?
    la siae per lo spazio hd del il multiarch e le librerie 32 è sempre felice

  • Jacopo Ben Quatrini

    era ora.

  • eugenio

    i tizi nel video sembrano tutti cloni di stalmann possibile?

    • Quello è il look da programmatore xD

  • mandingo_40cm

    alcune distro già sono passate a 64 bit definitivamente abbandonando le 32

    • sanayonino

      si.ma ancora multilib , per cui possono ancora girare applicazioni 32bit (skype & C. per i più esigenti)

      ma libreirie pure a 64bit non si vedranno ancora per un pò.

  • secondo me ancora fino alla 16.04 hanno senso, ci sono pentium dual core
    che supportano architetture a 64bit, ma hanno performance maggiori su
    sistemi operativi a 32bit, visto che richiede meno ram ed è più leggero.
    questi
    sono PC che è vero, sono vecchi, però sono pur sempre dual core e vanno
    ancora benone per chi non ha chissà quali esigenze, e installare un OS a
    64bit su PC del genere porterebbe ad avere performance peggiori.

  • it’s too soon, let’s wait the latest manufactured Atom-based netbook being 15 years old – i’m expecting using i386 machines for the next 10 years, at least

    • Kim Allamandola

      my be true but its a fault of their owner/buyer, a fault that must not create problems to others!

  • and btw, why amd64 architecture will not be considered obsolete as well? it’s a cisc as well, not risc! 😀

    • Kim Allamandola

      cisc is “historically newer” then risc 🙂

      #define SERIOUS
      btw IMVHO Intel architecture together with (U)EFI, traditional fs-based storage, tons of sw etc are obsolete my own personal truth is that vast majority of people do not want to evolve, they simply miss the needed forma mentis

  • carlo coppa

    Stiamo parlando comunque del 2021, mica domani ! I pc oggi in vendita supportano tutti l’architettura a 64bit, non mi risulta che esistano in commercio macchine che ancora non lo supportano. Inoltre se nel 2021 ci sarà ancora qualcuno con macchine che non lo supportano, possono sempre ripiegare su altre distribuzioni.

    • woddddy

      Non sai contare

      • carlo coppa

        Diciamo che non ho contato, ma ho semplicemente riportato quanto scritto nell’articolo.”L’ultima versione di Ubuntu con ISO 32 Bit sarà quindi la 16.04 LTS, release che sarà quindi supportata fino ad aprile 2021″

  • biosniper

    se installo una 64bit (ora ho la 32) avro’ un so piu’ preformante, piu’ esoso di risorse o avro’ semplicemente raddoppiato il numero 32?
    gradisco risposte comprovate da conoscenze e non supposizioni personali ( per quello so fare bene da me…), e’ come quando in un videogioco scegliamo la macchina con la linea speed al massimo, basta che abbia la speed al massimo e del resto non ci importa nulla, ma credo che questo non sia l’unico metro di giudizio nel valutare le proprie scelte.
    🙂

    • matteo81

      Il sistema è più performante a patto di avere almeno 4 gb di ram….
      Poi dipende dalle applicazioni… alcuni software nonostante l’architettura a 64 bit sia in vigore da parecchi anni sono disponibili solo in versione 32 bit… per quelli il funzionamento e la velocità sarà la medesima mentre per quelle con la realtiva versione a 64 il miglioramento sarà evidente…
      Se hai un processore a 64 bit e più di 4 gb di ram non ha senso proseguire con la 32 bit…
      Sia le performance che i requisiti aumentano di pari passo ma non si raddoppiano magicamente… non aspettarti programmi due volte più veloci ma nemmeno un consumo di ram doppio rispetto a prima….

      • biosniper

        dando lscpu il terminale mi restituisce

        CPU op-mode(s): 32-bit, 64-bit


        ma il pc da cui ti scrivo e’ un acer veriton (pc del lavoro) con lubuntu, ma considerando che ha 1 giga di ram pur supportando l ‘architettura 64 bit non e’ conveniente secondo il tuo ragionamento. giusto?

        il mio pc personale e il mio notebook hanno invece 4 giga di ram

        • Kim Allamandola

          No, parlando di pure performance non conviene.

          Detto questo IMVHO non conviene manco continuare ad usare una macchina con 1Gb di ram, swappi continuamente anche solo per aprire un browser moderno con Google search… Non è che non ci riesce ma è veramente frustrante come sperienza! Se anche c’è la minima scelta è da cambiare, se non si può… Bé allora è da mettere in conto la non ulteriore aggiornabilità e l’operatività decisamente limitata con tutti i problemi del caso, non solo di frustrazione ma anche di potenziale impossibilità di accedere a servizi (internet banking&c) dall’oggi al domani senza necessariamente avere (o notare) alcun preavviso. Quasi tutti gli sviluppatori di servizi web ed applicazioni hanno un po’ d’attenzione alla retrocompatibilità ma fino ad un certo punto.

          • biosniper

            scusa se ti rispondo cosi’, ma la risposta che devo dare a te e’ la stessa che ho dato a matteo81 qui sopra. Comunque tu come matteo81 dite le stesse cose che personalmente approvo. Non so solo se kubuntu e’ realmente la distro piu’ adatta per un pc datato…
            provero’
            🙂

          • Kim Allamandola

            Puoi risparmiarti la fatica IMO Kde è da sempre il DE più complesso e pesante del mondo GNU/Linux 🙂

            Se vuoi una distro leggera o te la fai a partire da Gentoo&c o passi a Puppy/DSL, Knoppix ecc il punto però secondo me è che la distro leggera non ti aiuta se poi hai bisogno di app-mostro come i browser moderni e le web-app a cui accedi tramite questi ultimi (ovvero l’uso più comune d’un desktop…)

        • matteo81

          Con 1 giga di ram assolutamente non conviene… puoi usare sistemi molto leggeri ma sarai spesso in swap in ogni caso…. lubuntu funziona bene con sistemi scarsi… prova al limite crunchbang… inoltre io proverei browser alternativi… tipo midori…

          • biosniper

            hai perfettamente ragione, ma permettimi di dire che spesso queste tanto decantate distro leggere e veloci (tipo lubuntu) non sono cosi’ veloci in pc scadenti come quello che mi hanno appioppato ora a lavoro. leggo sempre : distro leggera, veloce rianima vecchi pc… ma (come direbbero a Roma): ma de che!?!?
            le performance di un pc datato restano sempre datate. Ma e aggiungo MA una sola eccezione l’ho trovata nell’universo linux…Puppy linux, l’unica distro veramente “scheggia”, forse perche’ carica da ram o non so, ma e’ l’unica distro fulminea veramente. Tutte le altre (compreso lubuntu), sono buone ma non risollevano pc cosi’ scarsi: provate a dirmi il contrario. Ho lubuntu su 1 giga di ram e tutta questa velocita’ non c’e’ gira esattamente come win xp. Non critico affatto progetti del genere (lubuntu e altre distro “light”), sono ottimi lavori ma non mettano come loro bandiera la velocita’…
            sono velocissime solo in pc moderni, lubuntu nel mio portatile da 4 giga e’ una scheggia ,ma in questo veriton e’ un semplice so tipo win.

          • matteo81

            Infatti bisognerebbe sgombrare il campo dalle leggende metropolitane… non credere mai a quello che leggi ma provalo con le tue mani… purtruppo questo e altri blog tendono a fare cattiva informazione facendo credere alle volte in miracoli informatici falsi…
            Un pc obsoleto resterà sempre obsoleto… il vantaggio vero di linux è di consumare meno ram a parità di applicativi e di essere estremamente scalabile…. questo non significa che una 500 diventa una ferrari… significa solo sfruttare meglio le (poche) risorse a disposizione….
            Per finire permettimi anche di sfatare un altro luogo comune: se un ambiente consuma poca ram (lxde, xfce ecc ecc) non vuol dire necessariamente che sarà una scheggia ma solo che richiede meno memoria per girare…
            La fluidità è una cosa, la memoria un’altra…
            Kde disattivando gli effetti è il de più reattivo che abbia mai provato… ci credi? eppure ad ascoltare qualche santone sarebbe il più pesante….
            Diciamo che è sempre un compromesso… tra ram, cpu ed esigenze personali…

          • matteo81

            Puppy effettivamente è una scheggia per via del caricamento in ram che elimina il collo di bottiglia che si crea quando si carica dati da hard disk fisici…. diciamo che è un trucchetto furbo che indubbiamente funziona… puoi anche usarlo come os principale dato che permette di salvare dati e impostazioni… in questo caso il cambiamento è effettivamente notevole in termini di performance….

          • biosniper

            infatti l’ho testato in un giurassico t11 (credo si chiami così…) della ibm (un vecchissimo toushpad) e va una meraviglia, veramente velocissimo. però quando ho provato sullo stesso computer macpup che monta un diverso DE (e17), la velocità è rallentata drasticamente con continui blocchi e impallamenti vari stile windows…
            🙂

      • Ancucchi

        Ok.
        Io ho un pc con processore Intel Q8400 (un vecchio quad core a 2.66 Ghz) e 8 Gbyte ram che con Linux Mint Mate 17.1 va ancora discretamente bene. A breve installerò un SSD (Samsung 840 EVO 500Gbyte) per aumentarne le prestazioni e quindi reinstallerò il S.O. che da LinuxMint 14 in poi ho sempre aggiornato via dist-upgrade e mi pongo ancora una volta il dubbio: 32bit o 64bit.
        Ho letto tutto questo thread e altri sull’arogomento ma un unico dubbio mi rimane: posso installare applicazioni a 32 bit su sistemi a 64bit (come accade in Winzozz)???
        In caso affermativo, nel mio caso, discussione finita e 64bit saranno…

    • Kim Allamandola

      In teoria l’indirizzamento a 64bit è più pesante di quello a 32bit, ma in pratica se hai bisogno di ram (giusto per dire chi sviluppa oggi ha in media 32Gb, le vm per testare pesano ed i container cmq leggeri non sono) le “soluzioni” per indirizzare più di 4Gb di ram con 32bit sono decisamente poco performanti, alcuni fs e “dss” moderni come lo zfs non possono considerarsi stabili a 32bit, molte applicazioni *non spazzatura* (tipicamente spazzatura sono i crapware commerciali a 32bit) non sono più testate dai loro sviluppatori a 32bit ecc. ecc. ecc.

      Per dire le Alpha, le migliori cpu degli ultimi decenni, erano a 64bit e 450MHz quando Intel faceva cpu 32bit 33/66MHz, 64bit non è una novità fatta per moda è un’evoluzione che ancora qualcuno non ha recepito. È un po’ come dire “cosa non va nella mia vecchia Balilla?” niente, solo che dagli anni 20 del ‘900 ad oggi le auto son diventate un pelo più performanti, accessoriate, comode…… Questo è un paragone tra 32 e 64 bit valido nel 2014.

      • biosniper

        puoi leggere per favore la risposta che ho dato a matteo81 qui sotto e mi dai un tuo parere, grazie

  • ma… ma… io ho un netbook con Atom mono-core che supporta i 64bit, ma ha 1GB di RAM.
    E la mia ragazza ne ha uno Atom dual-core che è solo 32bit (end era venduto proprioncon Ubuntu precise).

    Tutti a dire “tra poco interromperemo il supporto, se avete un sistema 32bit usate una delle tante altre distro che lo supportano”. Ma se tutte una ad una interrompono il supporto, poi non ne rimane nessuna!
    Non sono totalmente contro la cosa, ma se ho dei pc che non possono fare l’upgrade, la scelta si riduce di parecchio.

    • mscanfe

      si ma nel 2021 ce li avrete ancora questi atom a 32 bit?
      dai… nel 2021 non sai neanche se avrai ancora la ragazza… (naturalmente per quanto riguarda la tua ragazza scherzo)

      • Veramente il netbook ha 2 anni ed era venduto proprio con Ubuntu

        • Kim Allamandola

          Non tutte le ciambelle escono col buco: i netbook l’han ritirati dal commercio per il loro flop…

          Una delle cose chi mi fa sempre girare gli zebedei è che non si prende mai in considerazione il concetto di evoluzione né si ammette mai alcun errore: un acquisto sbagliato? Daccordo, c’hai perso, a chi non è capitato? Metti nel sacco l’esperienza per non ricascarci in futuro ma procediamo, non creiamo catene di problemi per coprire un errore passato, con questo sistema generalizzando si creano obbrobri d’ogni sorta!

          Se solo avessimo l’evoluzione come forma mentis oggi la manutenzione si farebbe (non la si taglierebbe per far vedere che si son ridotti i costi in attesa del botto) avremmo tutti o quasi fibra ottica, avremmo case che a scaldarle e rinfrescarle non costano più dei palazzi di Kiruna, avremmo auto con motori elettrici e motogeneratori anziché mostri “plug-in” (non dico dove il plug andrebbe inserito), avremmo anche OS che crescono senza ancore legacy a iosa.

          Scusa lo sfogo, non è diretto contro di te ma mi hai dato il là 🙂

          • EnricoD

            Perché pensi che i motori elettrici potrebbero ribaltare la situazione attuale? 🙂 secondo me è come fare una scureggia nella via lattea, non conta niente 🙂

          • Kim Allamandola

            No, è un esempio di quel che può esserci se pensi in maniera evolutiva 🙂 chi ha scritto all’origine unix così fece e i risultati rispetto ad altri li conosciamo

        • mrholiday

          certo, invece altri sistemi operativi garantiscono il pieno supporto al prodotto a 9 anni dalla vendita!
          capisco se avessero detto che sospendono il supporto da domani…

    • ZaccariaF

      Per il primo,puoi aumentare la ram.

      Ad esempio ho messo 4GB e un SSD,nel mio AspireOne così da poter usare tranquillamente i 64 bit.

No more articles