Résumé
Séquençage de nouvelle génération (NGS): mythes et réalités
Dr P. NITSCHKEa
a Université Paris Descartes, Paris
Ces dernières années, l’émergence et la généralisation des techniques de séquençage haut débit, permettant de séquencer en quelques jours plusieurs gigabases ont ouvert un grand nombre de nouvelles perspectives dans de nombreux domaines de la génomique médicale.
Ces nouvelles technologies de séquençage, de par la taille considérable des données et leurs types ont rendu cruciale la bioinformatique autant pour l’analyse, que l’intégration et l’accès à l’information pertinente. Elles ont nécessité le développement de nouveaux outils ayant chacun leurs propres caractéristiques (avantages et inconvénients) adaptés à ces nouvelles données et spécifiques de chaque étape de l’analyse. En parallèle, afin de définir et de qualifier ces étapes, ce sont développés de nouveaux concepts (qualité des bases, couverture…), et un nouveau vocabulaire (fastq, bam, vcf, calling…).
Si le NGS semble pouvoir répondre à un grand nombre de questions en génomique (CNV, grandes insertions/délétions, étude des ARNs, de la methylation…), il est devenu nécessaire de comprendre et de maîtriser les difficultés bioinformatiques liées à ce type d’analyses afin d’appréhender véritablement les forces et les limites de ces technologies.
Au sein de l’Institut Imagine, l’etude de petites variations (SNPs, insertions, délétions) du resequencage est “routiniere” en recherche (exome) et devient courante dans le diagnostic génétique (targetSeq). Nous avons donc developpé une suite de logiciels et d’interfaces (Polyweb) facilitant l’analyse des données de reséquençage. Sur 3 ans, 300 études (environ 4000 exomes) ont été réalisées et ont permis l’identification d’une cinquantaine de gènes.