Sécurité par l'obscurité

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Le principe de la sécurité par l'obscurité (de l'anglais : « security through/by obscurity ») repose sur la non-divulgation d'information relative à la structure, au fonctionnement et à l'implémentation de l'objet ou du procédé considéré, pour en assurer la sécurité. Cela s'applique aux domaines sensibles de l'informatique, de la cryptologie, de l'armement, etc.

Cryptologie[modifier | modifier le code]

En cryptologie, la sécurité par l'obscurité va à l'encontre du principe de Kerckhoffs qui veut que la sécurité de tout cryptosystème ne repose que sur le secret de la clé.

Un message chiffré par exemple avec ROT13 ne peut rester secret que si la méthode utilisée pour chiffrer reste inconnue de l'adversaire. Si l'attaquant « connaît le système » alors il sera capable de déchiffrer le message. Les cryptologues prônent la transparence en matière de processus et de conception de primitives cryptographiques. Une telle pratique permet de mieux évaluer la sécurité des algorithmes.

Protection contre la rétro-ingénierie[modifier | modifier le code]

Pour éviter que quiconque puisse retrouver le code source d'un programme à partir de la version compilée (binaire), certaines sociétés utilisent des programmes pour rendre l'analyse plus ardue. Il existe différentes méthodes. On peut citer :

Obfuscation du code machine :

  • ajout d'instructions valides inutiles et/ou d'arguments inutiles aux fonctions (pour rendre la lecture du code plus complexe) ;
  • ajout d'instructions invalides et un saut au-dessus de ces instructions pour dérégler les désassembleurs ne supportant pas ce genre de « protection » ;
  • ajout de protection anti-débogueur ;
  • etc.

Une société peut distribuer le code source de ses programmes en les obfuscant au préalable :

  • identifiants renommés avec des noms sémantiquement muets ;
  • suppression de l'indentation, voire de tous les espaces non significatifs ;
  • suppression des commentaires ;
  • ajout d'instructions inutiles ;
  • ajout d'arguments inutiles aux fonctions ;
  • etc.

Exemple sur les mainframe d'IBM[modifier | modifier le code]

La société IBM développait ses principaux logiciels de mainframes dans un langage nommé PL/360[1], qui générait de l'assembleur. C'est ce code assembleur qui était fourni à ses clients réclamant les versions source des produits et non le code PL/360. Ni le compilateur du PL/360 ni la spécification du langage n'étaient fournis au public, bien que les instructions PL/360 apparussent en commentaires du listing assembleur fourni.

Les limites[modifier | modifier le code]

Par le passé, plusieurs algorithmes ou modules logiciels contenant des détails internes gardés secrets ont été révélés au public. En outre, les vulnérabilités ont été découvertes et exploitées, même si les détails internes sont restés secrets. Les exemples suivants, mis bout-à-bout, montrent la difficulté, voire l'inefficacité de garder secrets les détails des systèmes et autres algorithmes.

Un procédé basé sur la sécurité par l'obscurité ment sur la réelle fiabilité de sa sécurité, au pire, ou du moins n'en affiche que les points forts, au mieux. C'est alors une simple relation de confiance établie entre les fournisseurs de l'objet, de la structure ou du procédé ainsi protégé et leurs utilisateurs qui fait référence dans la vision de la-dite sécurité. Qu'une faille sérieuse remette en cause le système devient une source de difficulté pour le fournisseur, car en plus des conséquences directes dues à la faiblesse exploitée, l'utilisateur peut se sentir abusé par le faux sentiment d'invulnérabilité dans lequel on l'a maintenu.

Exemples divers[modifier | modifier le code]

Ouverture et sécurité[modifier | modifier le code]

La qualité reconnue de nombreux logiciels libres en matière de sécurité (Apache, Mozilla Firefox, GnuPG) est une bonne illustration que l'ouverture ne nuit pas à la sécurité.

Citation du député français Bernard Carayon dans son rapport À armes égales[3], remis au Premier Ministre en octobre 2006 : « Enfin, et parce que le code source est public et donc auditable, la sécurité des logiciels libres peut être mieux assurée ».

Notes et références[modifier | modifier le code]

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]