Thursday, September 19, 2013

Un an de liberté avec LIBRES !

*************************************
Un an de liberté avec LIBRES !

Il y a un an exactement, le 20 septembre 2012, paraissait dans les librairies l’ouvrage collectif « LIBRES ! ». 100 Auteurs, 100 idées en 100 pages recto/verso sur des sujets quotidiens ou académiques, les fondamentaux du libéralisme, comme des expériences bien humaines de la vie. Nous avons à cette occasion et pour marquer la journée du 20 septembre, initié la première Journée de la Liberté, qui curieusement n’existait pas encore.
Écrit par cent auteurs de manière totalement bénévole, Libres ! devint le premier livre à la fois collectif, spontané, accessible et entièrement dédié à notre liberté à tous, dans un monde où le politiquement correct croyait l’avoir définitivement rendue taboue.

Sur 9 mois, les 100 auteurs ont travaillé ensemble, pourtant sans se connaître tous. Leurs textes réhabilitent la Liberté comme fondement social, elle est reconnue comme solution logique de bien des problèmes. Grâce à un comité scientifique, des universitaires parmi les plus reconnus et de simples citoyens issus de tous les milieux ont collaboré au bol d’air qu’est « Libres ! ». 100 supporters sont venus les encourager, mettant ainsi 200 bénévoles au service de cette aventure humaine.

Cette expérience unique en son genre a permis de mettre les idées du libéralisme dans bien des mains qui en étaient restées vierges. Ainsi, déjà plus de 4000 exemplaires ont été écoulés, et diffusés auprès de 500 journalistes et 100 personnalités du monde du spectacle, du sport ou des affaires.
Nous sommes fiers d’avoir réussi ce que beaucoup qualifiaient d’impossible – jusqu’à pouvoir prétendre à la reconnaissance du Guiness Book pour le record mondial du nombre d’auteurs dans un même ouvrage, mais hélas invalidé car seul un ouvrage en langue anglaise était admissible.

Après un an de diffusion en format papier pour moins de 12€ sur Amazon, et 5.99€ en édition numérique, nous allons lancer la phase finale de ce projet libre de droits et de reproduction en diffusant le manuscrit intégral en format PDF gratuitement et ainsi permettre la diffusion et l’accès le plus large et le plus simple aux idées de la liberté.
Nous vous encourageons à télécharger cet ouvrage, le lire, le faire lire, le donner, l’envoyer par email ou le mettre librement en partage sur internet et vos blogs ainsi que sur les réseaux sociaux. Si nous voulons faire triompher un jour une vie en société harmonieuse, une création de richesse durable et légitime ou plus simplement que chacun puisse vivre sa vie comme il le souhaite, il est de la responsabilité de chacun de participer à l’effort et faire connaître ce qu’est vraiment le libéralisme.

LIBRES ! n’est qu’un des nombreux ouvrages sur le sujet, mais il reste un excellent outil pour faire progresser la liberté à une époque qui l’accuse injustement de tous les maux.
Les auteurs et la Liberté compte sur votre participation à cette aventure, qui n’est pas finie…

Pour télécharger gratuitement votre exemplaire de LIBRES ! en PDF cliquez ici.

Pour le commander en édition papier sur Amazon, cliquez ici.

Pour le commander en format Kindle sur Amazon, cliquez ici.


*************************************

Tuesday, September 17, 2013

Quelques mythes aux logiques de la sécurité informatique

Plus je lis d’articles dans la presse pourtant dite spécialisée, plus je me convaincs que – un peu comme en politique – il y a vraiment beaucoup de charlots qui ne comprennent rien à ce qu’ils racontent, ou s’appuient sur une compréhension erronée de la réalité, ce qui revient au même. Et ceci autant chez les experts que chez les journalistes.

Il y a ainsi un certain nombre de mythes, de sujets où on rencontre des articles et des opinions (*) les plus loufoques, faux ou imbéciles (cochez la mention inutile selon l’humeur du jour). J’en ai fait une liste à la Prévert sans prétention d’exhaustivité que je vous propose de parcourir et de remettre face au bon sens, en essayant de rester abordable par tous.

La sensibilisation des dirigeants

Beaucoup de « responsables de la sécurité informatique » se plaignent ou indiquent aux nombreuses enquêtes régulières du manque de sensibilisation de leurs dirigeants au risque que représente vraiment le manque supposé de sécurité au sein des entreprises. Et dès lors, le frein que cela représente à leur activité – celles des RSSI – et à leur fonction, par exemple par manque de moyens accordés. Pourtant, je considère que, sauf rares exceptions, il n’en est rien.

J’ai eu l’occasion de rencontrer assez souvent des grands patrons, ou du moins des membres de ce que les anglo-saxons appellent la C-suite. J’ai toujours et sans exception été frappé par la vision extrêmement claire et pertinente de ces personnes le plus souvent brillantes quant au rôle et aux enjeux joués par la sécurité au sein de leur entreprise.

Certes, il est tout aussi vrai que ces cadres-sups souvent peu techniques n’ont que rarement une compréhension fine de ce qui se passe vraiment dans un système d’information et notamment du concept même de faille de sécurité. Mais il n’y a là rien que de très logique puisque c’est précisément le rôle du RSSI ou CISO que de savoir faire le lien entre les deux niveaux. Une autre façon de dire que ceux qui se plaignent parlent moins de leurs chefs que d’eux-mêmes, en fait.

Car la méprise totale de ces RSSI frustrés, c’est de ne pas avoir su comprendre que la sécurité informatique fait partie du business, de tout business, et que la seule manière de la justifier à un CFO ou CEO, c’est de lui expliquer qu’elle est ou sera construite dans les systèmes comme le business l’exige – et non comme les hackers ou la conformité l’y forcent.

Les big chiefs commettent cependant souvent une erreur sans s’en rendre compte. Celle de penser que l’évidence naturelle qui est la leur d’intégrer la sécurité au business ne se fait en fait pas aussi automatiquement lors de la mise en place et en œuvre des systèmes d’information. Ce qui crée un écart réel mais incompris, par eux-mêmes comme par les RSSI. Mais cela n’est pas un problème de sensibilisation, mais de partage de la réalité.

Relier la sécurité au risque

Un autre phantasme de beaucoup de RSSI et même hélas de certaines normes, comme l’ISO 270xx et la 27005 en particulier, c’est de veiller, mettre l’accent sur le lien entre le risque métier et le risque « sécuritaire ». Comme ancien Risk Manager moi-même, je ne dirai pas, soyons clair, qu’il est mal de veiller à ce que ces deux métiers se parlent. Là n’est pas le problème, bien au contraire.

Le problème tient à la notion même de risque, qui est fondamentalement différente en informatique par rapport à l’acception générale de ce terme dans le reste du monde. Autrement dit, lorsqu’un RSSI parle de risque, neuf fois sur dix il parle en réalité d’autre chose. Et quand bien même il parlerait réellement de risque, il ne dispose que très rarement des données lui permettant d’exprimer sa réalité opérationnelle en de tels termes. Et ainsi souvent, lors de sa communication vers la C-suite, le résultat n’est qu’un élargissement du fossé de compréhension entre les deux et voir chacune des deux parties encore plus frustrée.

La raison tient à la réalité intrinsèque du risque sécuritaire. Un risque est constitué de deux grandeurs. Un « impact », qui exprime la conséquence négative maximale que l’événement considéré pourrait provoquer sur l’entreprise, en termes financiers. Et une probabilité dudit événement, entre 0 et 1 et qu’on cherche en général à réduire à zéro.

Or la nature de l’informatique fait que ces deux concepts n’ont pas de réalité informatique. Connaître, mesurer l’impact suppose d’avoir une vision extrêmement claire de la manière dont chaque application, sous-système et autres contribue aux risques métiers. Sauf pour des entreprises de structure et processus simples, il est très rare que cela soit le cas et que le RSSI sache (au sens ait les moyens de) faire une telle estimation, autre que très grossière.

La probabilité quant à elle n’a tout simplement pas de sens. Il n’y a en sécurité que deux états, pas trois ni cent. Un système ou une application est vulnérable ou ne l’est pas. Le hacker a trouvé une faille ou pas. Le risque n’a donc de matérialité que s’il y a vulnérabilité. C’est donc binaire, 0 ou 1.

Certains tentent de s’en sortir en assimilant la probabilité à des choses comme l’idée d’une « densité de vulnérabilités », où la probabilité croîtrait avec le nombre de failles en présence. Mais la réalité, c’est qu’une seule vulnérabilité suffit pour qu’un hacker puisse pénétrer.

Sur la base de ces concepts, l’analyse des risques sert souvent à identifier des priorités d’action, celles en réponse aux risques les plus forts, le plus souvent. On voit généralement ainsi figuré le niveau de risque visé suite à ces mesures, niveaux forcément plus bas, avec une flèche entre avant et après. Neuf fois sur dix, les flèches obliquent du coin supérieur droit vers le coin inférieur gauche (du plus de risque au moins de risque).

Sauf que ce n’est presque jamais vrai. Car lorsqu’on colmate une faille, on ne change pas l’impact, on ne change que la probabilité. La flèche doit donc être verticale (ou horizontale, selon les axes). Mais pas oblique. C’est un détail ? Allez dire cela à celui qui vous finance. Combien ont des flèches obliques chez eux ?

L’analogie du maillon faible

Pour finir avec la notion de risque, on prendra l’analogie avec le maillon d’une chaîne, souvent utilisée comme illustration, par exemple sur l’enquête 2012 de Ernst & Young. Elle relève de la physique où la résistance des matériaux peut être approchée par analyse statistique. Sur une chaîne, un maillon peut rompre, mais en réalité c’est la chaîne qui rompt et il suffit de la renforcer pour régler le problème. Rien de tel en sécurité informatique. Si un maillon doit rompre, cela ne devra rien au hasard.  Et personne ne s’en apercevra.

Internet n’est pas sécurisé

On trouve assez fréquemment des articles qui croient malin de rappeler que Internet n’est pas sécurisé, c’est-à-dire que la sécurité ne fut pas prise en compte lorsque Ethernet, TCP/IP, DNS et les autres piliers mêmes du réseau furent conçus et établis. Ce n’est certes pas faux de prime abord, mais c’est en réalité montrer une incompréhension profonde de ce qui constitue la sécurité des informations.

Le sécurité ne concerne de manière profonde que les données. Internet n’a comme fonction que de transmettre des données de A à B. Et il fait cela très bien, il est assez fiable, et donc sûr d’une certaine manière, pour avoir été adopté pour cette fonction. Mais jamais Internet ne pourra sécuriser des données dont il ne sait pas si elles doivent l’être ou pas.

Il n’y a que le propriétaire des données qui peut savoir et décider du besoin de sécuriser ses données et contre quoi ou qui. Dire que le réseau n’est pas sécurisé, c’est donc ne pas comprendre la sécurité. Au mieux, c’est dire que les gens ou entreprises qui ont des données ne les sécurisent pas « suffisamment » avant de les confier au Net pour les transmettre. C’est très différent.

Je mets « suffisamment » en guillemets parce que là encore il n’y a pas de ligne absolue, et c’est souvent mal compris. On pourrait ainsi à l’inverse dire que Windows est sécurisé – Microsoft ne s’en prive pas – sous le prétexte, inverse de celui d’Internet, qu’il offre de nombreuses fonctions et paramètres pour protéger les données sous son contrôle. Quiconque a pu constater combien il est facile d’accéder à des données sous la plupart des machines Windows comprendra. Or les deux extrêmes sont tout aussi faux.

Pour que Windows soit « suffisamment » sécurisé, il est nécessaire de savoir ce qu’il y a à sécuriser et envers qui, puis configurer le système pour qu’il respecte ce qu’il est convenu d’appeler une politique ou un modèle de sécurité. Ce n’est pas garanti d’être suffisant, mais c’est déjà pas mal dans bien des cas. De la même façon, pour que le Net soit sécurisé, il faut par exemple chiffrer les données sensibles qui transitent.

Ce n’est ni à Windows ni au Net de sécuriser quoi que ce soit. Ce malentendu est d’ailleurs à mon sens la source de 90% des incompréhensions entre le management et les opérationnels, le premier ne comprenant pas que les seconds n’aient pas spontanément sécurisé les systèmes techniques selon leur vue des enjeux, vue qu’ils n’ont pas eux-mêmes spontanément exprimée sous forme de politique exploitable. Là est un des vrais enjeux.

Le rôle de l’état sur le Net

Depuis l’affaire Snowden, mais aussi un peu avant avec le virus Stuxnet, les journalistes ont repris goût à la question du rôle de l’état sur le Net  et dans les questions de sécurité en général. Il n’est pourtant pas très difficile de comprendre qu’aucun état n’a quelque légitimité que ce soit sur le Net.

Il y aurait là de quoi écrire une thèse en droit et une thèse en informatique, mais essayons de voir les arguments principaux. Tout d’abord, Internet est un monde virtuel, sans aucune réalité matérielle et où les notions  de base de droit ne sont absolument pas applicables. Il n’y a pas de juridiction car il n’y a pas de territoire et il n’y a pas de frontières pour limiter le champ de l’état. Il n’y a pas de droit car il n’y a pas de propriété – et il n’y a pas de propriété parce qu’il n’y a pas – sauf de rares cas très précis – de conflit d’accès à la ressource informatique. Il n’y a pas de cyber-guerre parce qu’il n’y a pas de victimes ni d’ailleurs de cyber-citoyens. Oui je sais, cela va à l’inverse de tout ce que dit le droit positif moderne sur la question. Mais le droit positif montre souvent plus de côtés négatifs que le simple bon sens.

Un autre angle de vue consiste à revenir à Max Weber qui nous définit l’état comme une organisation ayant le monopole de la violence sur un territoire – ladite violence étant réputée servir à assurer l’ordre. On constate simplement que sur Internet, il n’y a aucun territoire, encore moins monopolisable, il n’y a pas d’ordre à faire régner et il n’y a pas non plus de violence physique. Donc l’état n’a aucune légitimité sur le Net qui n’en a simplement pas besoin.

Je m’arrête ici sur ce sujet, car il mériterait un ouvrage. Je suis sûr d’en choquer plus d’un avec ces propos. Si vous n’êtes pas convaincus, demandez-vous si vous ne confondez pas le matériel qui constitue ce qu’il faut pour donner vie à Internet et Internet soi-même.

C’est crypté

Parmi les sujets qui touchent à l’état justement, il y a le chiffrement, la cryptographie en français plus courant. Et c’est un sacré trompe-l’œil, car la cryptographie constitue le seul véritable moyen de protéger les données en informatique lorsqu’il n’est pas possible d’assurer un contrôle d’accès logique efficace.

De ce fait, on trouve de plus en plus de crypto un peu partout, dans les échanges, les VPN, les bases de données, les systèmes d’authentification ou de signature et j’en oublie. De la même façon, on trouve de plus en plus d’outils ou produits qui offrent du chiffrement. Mais quel chiffrement ?

A de rares exceptions près, tous les algorithmes de chiffrement font l’objet d’une autorisation étatique. Pas de la part de tous les états, mais disons que tous les états acteurs sur le Net ou ayant des velléités de voir le Net mis sous contrôle ont une réglementation en matière de chiffrement. Ainsi en France, l’usage de produits est autorisé, mais inventer et utiliser sa solution à soi ne l’est pas a priori. Et l’usage de quelques algorithmes reste interdit au public.

La raison en est invariablement simple : l’état veut pouvoir déchiffrer vos messages et vos données, il veut pouvoir surveiller ce qui se passe, ce qui se dit et ce qui s’échange. Le recours au chiffrement pour protéger ses données personnelles est ainsi une vaste bouffonnerie, puisque ces messieurs peuvent lire ce qu’ils veulent.

Il n’y a donc qu’une seule solution à ce problème : protégez vos données vraiment sensible en utilisant un algorithme non autorisé par l’état, ce sont les meilleurs et les seuls qui protègent vraiment. Une amende ? C’est un prix à payer.

Le syndrome de l’antivirus

Outre les produits de chiffrement, la sécurité est aujourd’hui assurée pour la plus grosse part par des « solutions », des produits logiciels commerciaux dont l’anti-virus est celui connu par le plus grand nombre, y compris la ménagère de 50 ans. Et ces produits se veulent assurer la sécurité qui sinon serait absente de nos systèmes. Cela est faux pour une bonne part.

Constatons tout d’abord que tous les systèmes ne sont pas égaux face aux virus. Windows a toujours été une passoire noyée par les virus alors que la chose est beaucoup plus rare pour ce qui concerne Linux, Unix et MacOS. Un bon système ne devrait tout simplement pas rendre les virus possible. Et donc le concept même d’antivirus est une insulte à la sécurité informatique.

Mais on s’aperçoit vite qu’il y a bien d’autre produits de sécurité dont le besoin même est aberrant, dans la mesure où leur n’existence ne se justifie que par déficience des systèmes d’exploitation. Les systèmes d’IAM sont un autre exemple de fonction certes très générale de contrôle d’accès logique, mais qui ne s’explique que parce que les OS n’ont pas la capacité d’utiliser des comptes selon des modèles externes.

Un des problèmes de la sécurité informatique vient donc du recours à des systèmes d’exploitation qui reposent sur un modèle de la sécurité sur le Net qui remonte au temps d’avant le Net et ne permet pas de modéliser les véritables organisations des entreprises complexes mais réelles.

L’open source n’est pas sûr

Quand on voit combien les systèmes ‘commerciaux’ sont peu ou mal sécurisés et de vraies passoires dans la réalité, il est surprenant, voire amusant d’entendre régulièrement cette légende qui voudrait que les systèmes et applications dits open-sources ne sont pas assez sécurisés ou sécurisables.

En fait, les entreprises qui achètent des machines et choisissent les OS pour les faire fonctionner tiennent un raisonnement faux. Elles constatent avec justesse que les systèmes sont des passoires et cela le plus souvent parce que les éditeurs livrent des versions qui ne sont pas absolument débuggées et qui présentent donc des failles. Elles se disent ensuite, toujours avec justesse, que face à de telles circonstances, en particulier en cas de piratage, elles n’ont pas les compétences pour sécuriser « à chaud » ces systèmes.

Elles cherchent donc à pouvoir se retourner vers des spécialistes qui pourront leur assurer les meilleures compétences face à ces questions. Et elles tombent alors dans le piège tendu par les éditeurs. Ceux-ci se placent comme les meilleurs spécialistes de leur propres produits et donc les sauveurs des passoires qu’ils ont réussi à vendre auparavant.

Pourtant, un Linux est en réalité bien plus fiable et sécurisé comme sécurisable qu’un Windows bancal et poreux. Le gros avantage d’un Linux, c’est que toute la communauté travaille sans relâche pour blinder ce système. Un Linux est donc en standard bien plus robuste et bien moins perforable qu’un Windows. Alors pourquoi toujours garder Microsoft ?

Parce que, paraît-il, comme il s’agit d’un open source, on ne peut se retourner vers personne en cas de bug. Si l’entreprise est prise dans une crise à cause d’un bug Linux, aucun recours n’existe, la seule option est de faire appel à des spécialistes, mais qui ne seront pas responsables du bug.

C’est là une logique de courte vue. Parce que les Linux étant bien plus robustes que Windows, il y est proportionnellement rare de connaître des failles de sécurité. Et c’est ce qui devrait primer. Le recours à des experts reste toujours possible, il y existe un vaste marché des experts sécurité open source. Et comme l’open source ne coûte presque rien, ni le TCO ni la sécurité objective ne plaident en faveur des éditeurs. Mais leur marketing a réussi à faire peur et nous sommes dans une société où la peur prime...

Le paradigme du bastion

Avec l’arrivée d’Internet et surtout celle des firewalls, les entreprises et autres organisations ont peu à peu ouvert leurs systèmes pour profiter de l’immense potentiel offert par le concept d’entreprise étendue.  Bien sûr,  les systèmes étant rarement conçus dès l’origine pour être totalement ouverts, les firewalls ont servi d’espèce de ponts levis entre le monde extérieur sauvage et un réseau interne tout aussi chaotique mais du moins supposé à l’abris. Tout le monde sait cela.

Ce paradigme de la forteresse a connu de beaux jours, la robustesse des ponts levis aidant et les architectures à base de DMZ se sophistiquant. Les attaques elles aussi allant croissant, en nombre et peu à peu en complexité, le paradigme de la forteresse est devenu celui du bastion, ou de la défense en profondeur, où au lieu d’avoir une seule enceinte, les barrière s’enchaînent en cercles intérieurs, une peu comme Minas Tirith, forteresse superbe du Gondor.

Malheureusement, ce type de paradigme est une erreur de conception depuis le début. On le voit dans le film, Minas Tirith est plus difficile à percer et à prendre que le Gouffre de Helm qui a moins de remparts. Mais elle aurait cédé tout autant sans l’arrivée des secours. Avec la puissance des APT actuels, peu importe la défense en profondeur. Ce qui compte, c’est soit une sécurité sans faille, soit la prise de conscience que les hackers finiront par passer.

De plus, à l’intérieur de chaque enceinte, les systèmes se supposent à l’abris et plus aucune – ou rare – mesure ne vient se mettre sur le chemin des hacker ayant réussi à arriver jusque-là. Et les vols et autres dégâts sont désormais en rapport.

Bien sûr, sécuriser un système qui n’a pas été conçu pour l’être peut coûter cher, surtout a posteriori. Mais il n’y a pourtant que deux cas dans notre monde. Soit une application ou ses données sont vraiment sensibles et doivent être sécurisées. Et dans ce cas ce n’est pas Minas Tirith qu’il faut car elle ne suffira pas, mais ce sont les données elles-mêmes qu’il faut sécuriser. Soit l’enjeux est moindre voire absent, et dans ce cas pourquoi ne pas ouvrir totalement les systèmes, histoire qu’au moins on gagne sur la fluidité ?

Encore une fois, on ne peut pas raisonner en informatique avec les notions de risques du monde réel. C’est un monde binaire et les arbitrages ne peuvent eux aussi qu’être binaires.

La non-sécurité est une fatalité

Ainsi, en cumulant toutes les erreurs précédentes et bien d’autres, on en arrive avec la conviction implicite des uns et des autres qu’il n’est pas, sinon plus, possible d’assurer une véritable sécurité informatique, le sujet et les systèmes étant devenus trop complexes. Il n’en est bien sûr rien.

Il est parfaitement possible de constituer un système, sous-système ou application absolument sûr. Ou même simplement « très » sûr. Les militaires le font, en isolant leurs systèmes, par exemple. Ou en chiffrant strictement tout. Et sans dépendre en aucune façon de logiciels commerciaux farcis de failles. Il n’y a aucune difficulté. Il juste un budget.

Et il faut juste savoir ce qu’on veut. Et c’est précisément sur ce point que beaucoup d’entreprises pèchent. Comme l’histoire a fait que le paradigme du bastion s’est imposé à une époque où les hackers étaient moins forts, elles ont pris l’habitude de poser comme principe que ce qui prime, c’est la simplicité des échanges et la fluidité des communications internes comme externes.

Avec comme conséquence que très souvent, les systèmes ou données réellement sensibles, quand ils sont connus ce qui n’est pas si fréquent, sont noyés indistinctement au sein d’un réseau peu sécurisé et eux-mêmes sans sur-sécurisation particulière. Ou comme autre conséquence que les équipes des RSSI sont vues et se voient elles-mêmes, ce qui est pire, comme des empêcheurs de développer en rond. Alors que la sécurité devrait être un enjeux primaire des DSI.

Il n’y a qu’une seule issue, me semble-t-il. Il faut que les RSSI cessent de vouloir boucher les trous de leurs gruyères et avec le budget ainsi économisé, se concentrent sur la mise en place de bastions dignes de ce nom et dans lesquels la sécurité des quelques données qui le nécessitent soit réelle. Mais attention, un vrai bastion. Pas derrière un simple firewall. Derrière les deux seules mesures qui sont quasiment inviolables sans coûter une fortune : le chiffrement basé sur des algorithmes non autorisés et une authentification par empreinte digitale, disponible en standard sur de nombreux PC.

On peut aussi hacker de tels systèmes ? Certainement. Mais cela sera cher. Les données dérobées seront donc très chères. La dissuasion fonctionnera donc pour le plus gros de la foule. Pour les données hyper-sensibles, ou s’il s’agit de se protéger des chinois, la solution reste encore plus simple : ne les mettez pas sur le réseau. Non, il n’y a pas de sécurité sans risque – on reboucle…


(*) J’ai écrit un article sur Contrepoints dont la thèse est de contester la notion d’opinion politique, dans la mesure où la théorie ne laisse aucune place au doute, seul le libéralisme est humaniste et viable. C’est un peu la même chose en sécurité, on peut exprimer plein d’avis, mais il n’y a qu’une seule réalité technique, une seule interprétation correcte.