Le réseau Internet que nous utilisons aujourd’hui date des années 60. A l’époque, ce système de communication avait été créé pour survivre à une potentielle guerre nucléaire. L’objectif était surtout de proposer des informations accessibles à tous, sur un réseau fiable, et ce en toute sécurité. Quarante ans plus tard, Internet est devenu un vrai produit commercial que le monde entier utilise pour s’informer et se divertir. Marc Lueck, RSSI EMEA Zscaler, nous livre son analyse.
Qui dit évolution, dit aussi risque que cette technologie se retourne contre nous. C’est dans ce contexte que la cybersécurité a commencé à évoluer elle aussi. Du fait de contraintes en ressources et en moyens, une importante vague de désinformation a commencé à circuler, affirmant que les utilisateurs et les entreprises peuvent faire confiance à leurs réseaux, mais qu’ils ne doivent pas se fier aux réseaux externes à leur entreprise ou leur domicile. La plupart des mesures de sécurité reposaient alors sur l’idée qu’il est possible de sécuriser un réseau, mais c’était en réalité bien loin d’être le cas… Car la seule façon de sécuriser un réseau, c’est au final de ne jamais s’y connecter.
A lire aussi : Cybermalveillance : le Cybermoi/s 2023 rappelle que nous pouvons tous être des victimes
Pourtant, au début des années 2000, la course fut lancée : il fallait développer un réseau sécurisé que le grand public pourrait utiliser en toute confiance. Les équipes sécurité ont donc tenté de simplifier les vérifications et de mettre en place des barrières pour empêcher quiconque chercherait à y accéder. De nombreuses équipes informatiques ont par ailleurs fait le choix de la segmentation, une stratégie impliquant de diviser un réseau en plusieurs sous-réseaux plus restreints afin d’en accroître la complexité. Or ces idées restent profondément erronées, car elles reposent une fois de plus sur la fausse promesse qui veut que le réseau puisse être sécurisé.
Le modèle du jeu de la taupe
Pour appréhender la question de la sécurisation du réseau de la meilleure façon qui soit, il est essentiel de comprendre le fonctionnement du modèle traditionnel et la façon dont les cybercriminels peuvent le manipuler. Traditionnellement, avec le pare-feu et ses dérivés, les utilisateurs et les équipes informatiques disposaient d’un contrôle basique pour assurer la sécurité de leur réseau. Au départ, le pare-feu avait pour fonction de refuser automatiquement tout le trafic entrant par défaut dans un réseau, n’autorisant que le trafic comportant les adresses IP et les numéros de port corrects. Dans certains cas, cette mesure pouvait s’avérer très efficace, surtout si vous disposiez de deux appareils, et que vous vouliez qu’ils puissent communiquer entre eux. Cependant, dès que vous autorisiez le pare-feu à accéder aux ports Internet, vous le mettiez en danger. Cela revenait à verser de l’eau dans un tonneau percé.
Les équipes sécurité ont pour responsabilité d’examiner les flux de trafic à l’intérieur des réseaux, de les surveiller attentivement, et d’identifier les données et les applications sensibles de ce réseau pour les protéger en les isolant virtuellement. En réalité, peu importe le nombre de mesures de sécurité mises en place sur un réseau, les équipes sécurité ne pourront jamais lui accorder une totale confiance. Elles continuent inlassablement de rechercher les vulnérabilités potentielles qui pourraient permettre à des acteurs malveillants de contourner le pare-feu et d’attaquer le réseau.
Exclure le réseau de votre modèle de sécurité
Si l’architecture est modifiée de manière à exclure le réseau du dispositif de sécurité, les équipes informatiques peuvent alors abandonner l’ancienne approche basée sur la confiance implicite et adopter le principe du Zero Trust. Mais en quoi un modèle Zero Trust est-il différent, me direz-vous ? Le principe est d’offrir une connectivité interne (inside-out) en dirigeant tout le trafic vers un courtier de confiance vérifié. Ce dernier peut évaluer le risque de chaque élément du trafic et appliquer une politique de sécurité basée sur ce risque avant d’autoriser toute connexion au réseau.
Sans cette idée préconçue qui consiste à accorder des privilèges aux personnes déjà présentes sur le réseau, les équipes informatiques peuvent garder une longueur d’avance sur les acteurs malveillants et ne plus tomber dans leurs pièges. Ces équipes peuvent mettre en place des contrôles de manière centralisée et automatisée, sans avoir besoin d’examiner manuellement chaque élément du trafic une fois qu’il a franchi le pare-feu. Les contrôles utilisés ne sont pas très différents de ce que nous utilisons pour nous protéger contre les attaques depuis presque 35 ans. La question n’est pas de réinventer les contrôles eux-mêmes, mais plutôt de changer la manière dont ils sont appliqués. Au lieu de traquer constamment l’emplacement de toutes les données et applications sensibles sur le réseau pour y appliquer des contrôles, le modèle Zero Trust change la donne. Il permet aux équipes sécurité de cesser de courir après les collaboateurs qui ajoutent régulièrement de nouvelles données sensibles au réseau et cherche plutôt à protéger ces données, tout en gardant un œil sur les attaquants à la recherche de vulnérabilités à exploiter.
Il va de soi que le modèle Zero Trust n’est pas parfait. Les attaquants trouveront d’autres moyens de contourner la sécurité. Ce modèle permet pourtant aux équipes sécurité d’être proactives plutôt que de courir constamment après leur ombre. Il leur permettra d’organiser leurs défenses de manière bien plus intelligente, maintenant que le réseau ne fait plus partie de leur modèle de sécurité.
Les équipes informatiques peuvent ainsi significativement renforcer la sécurité des actifs et des données de leur entreprise, en partant du principe que l’idée d’une sécurité totale d’un réseau est un concept illusoire. Il est essentiel d’abandonner l’idée selon laquelle il est possible d’accorder une totale confiance à tous les éléments qui se trouvent à l’intérieur du pare-feu. Le modèle Zero Trust repense la manière dont le trafic doit être géré en centralisant les contrôles grâce à un courtier de confiance, qui permet ainsi aux équipes sécurité de prévoir les attaques potentielles au lieu de tenter constamment de rattraper l’évolution du réseau.