Refactoring
-
Quantification_clusters.py : remplacer le sprint par des logging puis enlever code inutile, faire un main et tester avec les fichiers d'input et output nécessaires extraits des tests. -
cd_hit_produce_table_produce.py : voir dans cd_hit.nf l'appel de ce script et recoder un script python qui lis le fasta.clstr et fait la suite. OU faire tout en awk ou en bash mais pas de mélange des deux. -
merge_kaiju_result.py : idem premier : mettre le main remplacer les print par logging, enlever code inutile, mettre le header etc... et tester avant et après refactoring qu'on a rien cassé. -
merge_abundance_and_functionnal_annotations.py : idem plus haut. tests et refactoring avec un main et des logging et refactoring si nécessaire. -
chercher dans le code si on a toujours un objet df_name = pd.read_csv, sinon renommer l'objet. -
Faire passer un pep8 sur tout le code pour voir si tout va bien. -
Utiliser pyfastx au lieu de biopython pour parser du fastq et du fasta -
merge_contig_quantif_perlineage.py : on peut faire une fonction pour les deux blocs finaux des krona qui prenne en argument nb_reads ou depth. -
plots_contigs_taxonomic_affiliation.py : améliorer le header, renommer df en df_affi -
quantification_by_contig_lineage.py : header à améliorer avec exemple, les print à enlever changer avec logging, mettre un main -
quantification_by_functional_annotation : enlever la fonction au milieu du script, main à rajouter, print enlever la duplication de code en faisant une fonction, utiliser les noms des colonnes au lieu de leur index. -
db_versions, mettre header : voir si on peut récupérer la taille d'un répertoire en python -
rajouter py.fastx partout même dans binnin (image singularity)
Edited by DARBOT Vincent