Stufi di trovare la stessa canzone o la stessa immagine in tutte le directory del sistema? FSlint e FDUPES risolvono il problema.

FSlint è un GUI-tool che vi permette  di rimuovere i file duplicati dal vostro sistema. FDUPES svolge i medesimi compiti di FSlint ma opera da terminale. Se avete la brutta abitudine di scaricare tutto dal web in modo selvaggio vi capiterà di trovare i medesimi file in più cartelle. Trovare e rimuovere tutti i duplicati è un vero supplizio oltre che una perdita di tempo, per questo vi consiglio di provare FSlint e FDUPES.

FSlint e FDUPES: trovare e rimuovere i file duplicati

Fslint ha una serie di ottime funzioni che vi aiutano in questo compito. Per installarlo aprite il terminale e date:

  • sudo apt install fslint

FSlint

Come si evince dall’immagine qui sopra potete cercare i file duplicati, i pacchetti installati ma anche i file temporanei, le directory vuote e molto altro ancora. Vi basta selezionare il percorso e la funzione che vi interessa dal pannello sulla sinistra. Una volta terminata la ricerca potete selezionare i file da rimuovere.

Se volete fare le cose per bene potete accedere alla sezione “impostazioni avanzate” e settare i filtri di ricerca che fanno al caso vostro.

FDUPES, a differenza di Fslint, è una command-line utility. Vi trova i file duplicati in una determinata directory e vi permette di cancellarli.

fdupes

Per installarlo date:

  • sudo apt install fdupes

Terminata l’installazione cercate i duplicati dando:

  • fdupes /path/to/folder

Per la ricerca ricorsiva usate l’opzione -r

  • fdupes -r /home

Potete cancellare manualmente i duplicati usando l’opzione -d:

  • fdupes -d /path/to/folder

Questo comando non cancella niente in modo automatico ma vi mostra i duplicati e vi permette di cancellarli uno ad uno. Se invece preferite la cancellazione automatica aggiungete l’opzione -N.

Per ulteriori dettagli vi rimanndo al sito ufficiale di FSlint e alla pagina GitHub di FDUPES.

sharing-caring-1

Vi ricordiamo che seguirci è molto semplice: tramite la pagina Facebook ufficiale, tramite il nostro canale notizie Telegram e la nostra pagina Google Plus. Da oggi, poi, è possibile seguire il nostro canale ufficiale Telegram dedicato ad Offerte e Promo!

Qui potrete trovare le varie notizie da noi riportate sul blog. È possibile, inoltre, commentare, condividere e creare spunti di discussione inerenti l’argomento.

Via :

itsfoss

  • grogdunn

    questi tool trovano solo duplicati esatti (md5sum uguali)?
    perché io avrei bisogno di trovare i duplicati di immagini visivamente simili (ma con resize ad esempio) consigli?

    • Ansem The Seeker Of Darkness

      Sarebbe molto utile anche a me!

      • ghirlandaio

        Vedi la risposta che ho dato sopra a grogdunn.

    • Kim Allamandola

      Si, puoi scegliere vari hash ma i files duplicati sono intesi tali se l’hash combacia.

      Per immagini di dimensione eguale (ImageMagick)
      compare -fuzz 3% -metric ae 1.jpg 2.jpg diff.jpg
      ritorna un’immagine con indicato tramite un layer trasparente colorato le aree “diverse”, più ce ne sono meno le immagini sono uguali, variando la percentuale vari il livello di “sensibilità” ovvero quanto minime differenze (tipo un singolo pixel) debbano essere ignorate. È ad es. utile se fai foto di ambienti naturali con camera fissa e vuoi vedere evidenziate le differenze.

      Però da qui ha riconoscere per esempio un thumbnail e l’immagine originale ce ne passa, penso possa essere un compito per TensorFlow (facilmente usabile anche in Python) ma creare un golden sample è direi piuttosto manuale…

      • grogdunn

        mmm io e Python non andiamo molto d’accordo… Vedrò se ho tempo di giocare un po’ con TensorFlow… pensavo fosse un problema “comune” oggigiorno…

        • Kim Allamandola

          Puoi usare anche Go se preferisci 🙂

          Ma esattamente che tipo di “ricerca” intendi fare? Thumbnails+immagine a piena risoluzione? Immagine raw+jpg+altro? Immagini di vecchie vacanze da “diradare” per conservare solo pochi scatti per luogo? Documenti scansionati da classificare per fornitore/tipologia/natura/*? Cioè che tipo di “differenza approssimata” vuoi?

          Per lo stesso TensorFlow c’è pieno di esempi, dal “porn finder” al “trovatreni” pronti su GitHub che puoi semplicemente leggerli, clonare, far una prova al volo e se va dargli in pasto il tree (o una copia) che vuoi organizzare/potare… Ad oggi i campi più sviluppati sono l’archiviazione automatica di scan vari ed il miglioramento degli stessi (lato “business”) e la classificazione di foto (persone, paesaggi ecc) per ricerca/tagging etc (lato “aziende IT-centriche enormi”) più analisi di vario tipo dalla videosorveglianza alla cartografia. C’è molto codice già pronto ma sempre codice è perché comunque non c’è nulla di abbastanza generico/addestrato da poter usare direttamente.

          Per cose più testuali o gestibili in testo anche Recoll (frontend a Xapian, leggero e ben fatto IMO) va più che bene…

          • grogdunn

            Il caso d’uso sarebbe zappare via le foto di vacanze (e momenti vari) duplicate nel mio NAS 🙂
            È successo più volte che la foto “A” fosse stata caricata a piena risoluzione, poi mandata/ricevuta su WhatsApp (e simili) e ricaricata quest’ultima versione, che essendo compressa non ha più lo stesso hashcode. Quindi i duplicati a bassa risoluzione sono degli ottimi candidati alla cancellazione… ma trovarli è il problema!
            Grazie dei consigli 🙂

          • Kim Allamandola

            Mh, hai anche rinominato i files? Perché di solito le foto esportate da WhatsApp han nomi tipo IMG-AAAAMMGG-WAnnnn.jpg quindi le trovi facilmente. Se così è il tuo caso resterebbe solo il problema di discriminare le foto “duplicate” dalle altre di WA legittime, se la quantità non è immensa potresti far prima a occhio, sennò fai a occhio una parte e prendi paro-paro lo script-demo di TensorFlow del treno mettendo nei sample “buoni” le foto delle vacanze selezionate. Dovresti cavartela senza troppa fatica 🙂

    • ghirlandaio

      Due software: DupeGuru PE e DRE Similar Images Detector. Io li uso intensivamente, in quanto faccio collezion di sfondi (ne ho circa ventimila) e quindi la possibilità di incappare in doppioni è altissima. Questi due confrontano le immagini in sè, non gli hash, con vari livelli di intensità e secondo diversi algoritmi. Se ti servono maggiori delucidazioni chiedimi pure, anche se non so se qui posso mettere il link del repository da aggiungere ad Ubuntu per installarli.

No more articles