ITRUST utilise des outils de crawling pour effectuer un traitement de masse et un premier tri des données sur le web de surface, le deep web et le dark web. Ces données sont ensuite exportées dans une base de données externalisée et analysées à l’aide d’un moteur de recherche. Un traitement manuel complète systématiquement les recherches pour évaluer la criticité de l’information