Vers une informatique de défiance ?

Nous vivons une époque formidable. Mais si ! Depuis des années, on nous parle de sécurisation de l’informatique personnelle. Je suis entièrement d’accord, il faut sécuriser l’informatique, surtout à une époque d’ultra-connectivité.

Cependant, l’énième avatar de cette volonté de sécuriser l’informatique, à savoir la technologie SecureBoot (et l’effet « indésirable » que cela entraînera à terme sur la communauté du libre au plaisir non dissimulée de Microsoft, comme je l’ai exprimé sur un article écrit pour Chatinux), risque de provoquer la naissance d’une informatique où la défiance sera la règle.

Depuis le projet « Palladium » de 2003, tous les efforts pour rendre l’informatique plus sure se résume à rajouter verrous sur verrous, clés sur clés. Depuis la célèbre puce Fritz les efforts ont été constants.

Les verrous numériques ont fait depuis longtemps la preuve de leur inefficacité ou de leur nuisance envers les utilisateurs honnêtes. Les verrous des DVD et des BluRay ont soit été cassés soient contournés. Cette course à l’armement sera sans fin.

Quand on me parle du principe de SecureBoot, qui n’autorise le démarrage que si la clé annoncée par le système d’exploitation est autorisée donc valide, ça me fait penser à une scène du film « Gattaca« .

Dans cette scène, on voit la population « valide » accéder à leurs lieux de travail en se basant sur une goutte de sang, comme une clé pour ouvrir une porte. Des outils vérifient que cette goutte de sang est celle d’une personne qui a le droit d’accès ou pas.

Mais il ne faut pas oublier que d’autres étapes de cette informatique signée existe dejà : par exemple l’AppleStore ou encore la fonctionnalité GateKeeper du futur MacOS-X Mountain Lion.

Car l’informatique dite « de confiance » ne pourra l’être sans une forme minimale de censure. Censure technologique qui sera l’utilisation de clé qui donnera l’autorisation ou non au système d’exploitation de lancer l’application.

D’ailleurs, le principe existe depuis des années sur MS-Windows, avec les pilotes dit WHQL. Cependant, on peut toujours installé un pilote non-WHQL, le système prévenant l’utilisateur.

On ne protègera pas uniquement l’informatique par l’obscurité et l’empilement de verrous plus ou moins solide. Un minimum de pédagogie et d’information est nécessaire.

SecureBoot est une mauvaise réponse à une bonne question : comment éviter que des logiciels vérolés ne démarre sur une machine ?

Et pour finir, je reprendrais la conclusion de mon article sur Chatinux :

Tirons donc notre chapeau à l’enseigne de Microsoft qui en combattant le problème des machines qui pourrait faire démarrer une version frelatée (piratée ?) d’un OS, cela aura comme effet “kiss-cool” de se débarrasser d’un concurrent minuscule : GNU/Linux. Quoique la communauté GNU/Linuxienne s’occupe très bien de son cas toute seule, comme j’ai pu l’écrire sur mon blog personnel, avec un billet teinté d’humour acide.

En voulant conforter l’utilisateur en lui disant : avec telle et telle technologie tu seras à l’abri, cela créera d’abord un sentiment fallacieux de sécurité et engendrera une défiance envers l’outil informatique au final.

Ah, qu’il est bon d’avoir un bouc émissaire…

L’ancien triumvirat téléphonique qui prépare des plans de dégraissage sociaux a décidé que Free Mobile était responsable de cela et aussi de tous leurs malheurs depuis janvier dernier… Tout comme de l’entente illicite qui leur a valu récemment la confirmation d’une amende d’un demi-milliards d’euros, plus connue sous le nom du « Yalta du Mobile ».

Donc, Free Mobile qui en janvier dernier ne proposait que 2 offres. Pour mémoire, cette vidéo aux alentours de la 4ième minute montre la simplicité des offres de l’opérateur Univers Malpropre Mobile SFR. Il est vrai qu’au nom du confort de l’utilisateur, rien ne vaut une démultiplication des offres. Histoire de s’y perdre complètement à la fin, et de mieux siphonner les finances du gentil client.

Et que dire des croches-pieds ? La couverture insuffisante en février dernier, puis la saisine par les syndicats de la téléphonie mobile – hommes de paille des dirigeants du triumvirat historique – du Conseil d’Etat en juin dernier.

Je suis chez Free Mobile depuis janvier dernier. Cela fait donc 6 mois. Pour 15,99€ mensuel, je consomme en moyenne 1 h 30 à 2 heures de voix, 100 à 150 Mo de data et une centaine de SMS. J’avais eu un consommation équivalente auparavant chez BTP Bouygues Télécom. La note ? Pas loin de 70€…

Donc, dans le pire des cas, j’ai déjà économisé 54*6 = 324 €. Si on sort les 99€ que m’a couté mon téléphone nu, donc non subventionné, je suis bénéficiaire au maximum de 225€… Et je suis libre de partir quand j’en ai envie, si j’en ai envie, avec une carence de 10 jours.

C’est donc sur l’arnaque du téléphone subventionné dont on ignore le coût réel que Free Mobile a décidé de contre-attaquer, et SFR (qui lui a mis pas mal de bâton dans les roues) se prend une plainte en pleine face. Juste retour du bâton ?

Je cite :

Une grande partie des opérateurs mobiles, dont les trois historiques France Télécom, Bouygues Telecom et SFR, subventionnent l’achat par leurs clients de téléphones portables en échange de la souscription d’un engagement de longue durée de 12 mois, ou le plus souvent de 24 mois.

« C’est une façon de faire du crédit à la consommation déguisé (…) sans se soumettre aux contraintes légales », déclare Xavier Niel dans l’entretien à Capital, dont des extraits sont mis en ligne sur le site internet de la publication.

« Cela revient à pratiquer des taux d’usure de 300 ou 400% que le consommateur ne voit pas », ajoute-t-il.

Une question simple vient à l’esprit : dans le cadre d’un bon vieux contrat qui permet de rendre captif un client sur un ou deux ans, combien coûte le téléphone au final ? Et combien coûte le forfait ?

Pour mémoire, j’avais reproduit un entretien avec une « conseillère SFR » en février dernier.

J’ignore quel sera le résultat de la plainte. Mais si cela pouvait permettre de montrer l’arnaque que sont les mobiles subventionnés, ce ne serait pas un mal au final. Free n’est pas le chevalier blanc, mais au moins, chaque fois qu’il a fait des offres, le client a été gagnant au final. Souvenez-vous des offres à 45 € par mois pour de l’adsl nu en 2002…

L’oiseau du tonnerre a fait couler pas mal d’encre électronique.

Depuis une grosse semaine, un bruit se répand sur la blogosphère libre : la Fondation Mozilla va arrêter le développement de Mozilla Thunderbird… Non seulement, deux développeurs du logiciel, démontent la rumeur, à savoir Ludovic Hirlimann, et Mike Conley mais Tristan Nitot met une nouvelle fois les points sur les i et les barres sur les t

Je me suis abstenu de parler de cette annonce prématurée sur le blog, mais l’une des meilleures réponses que j’ai lu est celle de PostBlue : Thunderbird : pas de nouveauté, pas de chocolat :

Certains libristes s’emballent, lisent vite la nouvelle de la génération mac se faisant une bonne gorge chaude à dire que « chez-eux-c’est-mieux-d’abord », et nous y sommes : Mozilla va arrêter le développement de Thunderbird. D’autres d’ailleurs vont plus loin encore, puisque l’arrêt de Thunderbird enfoncerait la crédibilité de la communauté opensource.
[…]
Pour moi, voir la mort d’un projet à l’arrêt de sa course effrénée aux nouveautés, au profit d’une recherche plus poussée de stabilité et de sécurité est, en soi, quelque chose de drôle. Oui, vraiment : drôle. Allons dire ça à Debian ou à LaTeX, qu’on se marre. Il ne m’étonnerait même pas qu’on en vienne à se se taper sur la cuisse, le rire gras et tonitruant, en pensant à tant de beauf^WAppl^WUbun^Wsuperficialité à l’égard du logiciel. Pas de nouveauté, pas de chocolat, c’est ça ?
[…]
La stabilité et la sécurité d’un logiciel tel qu’un client mail en sont pour moi les deux caractéristiques essentielles, qui ne peuvent pas s’effacer au bénéfice d’un « effet d’annonce » aussi vide que l’éjaculat-pré-release de Firefox. Cette illusion de la nouveauté, parée de tant d’artifices clinquants, m’effraie : peut-on avoir confiance en un projet qui, tous les trois mois et demi, ajoute un bouton ci et là, change un menu mais pas ses fonctions, juste histoire de rester psychologiquement à jour, sans pour autant assumer de se consacrer à la stabilité et à la sécurité de celui-ci ? À mon avis, non.

C’est le genre d’article que j’aurais voulu écrire, mais je pense que les mots auraient été un peu moins diplomatique.

Maintenant qui croire ? Les personnes qui sont au coeur du développement du logiciel ou de sombres magazines partisans ?

Des élections législatives à la proportionnelle ? Pourquoi pas…

Mais cela donnerait un résultat ingérable au final, digne de feu la IVème République morte de son instabilité gouvernementale et de son incapacité à comprendre la nécessaire décolonisation.

La proportionnelle est le meilleur moyen de représenter les diverses tendances politiques, mais cela donnerait une assemblée complètement ingouvernable.

Prenons comme hypothèse de départ les résultats du premier tour de la présidentielle de 2012, même si les deux scrutins sont fondamentalement différents ; dans un premier cas, c’est 10 personnes pour un siège, dans l’autre, c’est 577 sièges qu’il faut pourvoir donc autant d’élections…

  • Eva Joly : 2,31 %
  • François Hollande : 28,63 %
  • Marine Le Pen : 17,9 %
  • Nicolas Sarkozy : 27,18 %
  • Jean-Luc Mélenchon : 11,11 %
  • Philippe Poutou : 1,15 %
  • Nathalie Arthaud : 0,56 %
  • Jacques Cheminade : 0,25 %
  • François Bayrou : 9,13 %
  • Nicolas Dupont Aignan : 1,78 %

Et faisons une règle de trois des plus simples : si 100% donne 577 sièges, combien pour chaque candidat, en arrondissant au mieux chaque résultat pour avoir un compte « rond », même si le résultat final n’est pas 577, mais 576…

  • Eva Joly : 13
  • François Hollande : 165
  • Marine Le Pen : 103
  • Nicolas Sarkozy : 157
  • Jean-Luc Mélenchon : 64
  • Philippe Poutou : 7
  • Nathalie Arthaud : 3
  • Jacques Cheminade : 1
  • François Bayrou : 53
  • Nicolas Dupont Aignan : 10

Continuer la lecture de « Des élections législatives à la proportionnelle ? Pourquoi pas… »

L’introduction en bourse de FaceBook, début du l’explosion de la Bulle 2.0 ?

La semaine a été marquée par l’introduction en bourse de FaceBook, le réseau social qui se vante d’avoir pas loin d’un milliard de comptes (ce qui ne veut pas dire 1 milliard d’utilisateur) car je connais des personnes qui ont deux, trois ou quatre comptes ouverts. Cela ne veut pas dire aussi que tous les comptes sont actifs, car si on sort les personnes qui ouvrent un compte puis le laisse ainsi à l’air libre… Soyons généreux, et disons que 75% des comptes soient actifs au moins une fois par semaine, ce sera bien et surement assez réaliste.

Donc, on va dire que sur le milliard de compte prévu pour cette année, 750 millions le sont vraiment. Donc, cela veut dire que la capitalisation boursière actuelle (en gros une centaines de milliards de dollars) se basent sur les faits et geste de 750 millions de personnes. Soit en gros, la moitié de la population chinoise ou encore l’addition de la population européenne, de la population des Etats Unis et du Méxique.

Donc, si on fait un calcul rapide, cela voudrait dire que Facebook considèrent que chaque utilisateur vaut (100 000 000 000 / 750 000 000) = 133,33$ pour savoir que Tata Jeannine a eu la courante à cause d’un coquillage pas frais, ou la photo boutonneuse d’un djeunz… Wow ! 133$ pour des infos aussi cruciales, c’est vraiment ultra cool.

Car Facebook n’a rien inventé. Il n’a fait reprendre l’envie des personnes d’être lié en un lieu unique, en regroupant une messagerie plus ou moins instantané, la possibilité d’ajouter une photothèque, des jeux plus ou moins (d’ailleurs souvent plus que moins) soi disant gratuit. Bref, reprendre les fondements de la toile (qui existe depuis en gros 20 ans) en l’enrobant dans une belle interface auto-générée grace à du code en PHP.

En gros, Facebook est le successeur de MySpace, de Second Life, et autre mondes virtuels ou réseaux sociaux qui ont déjà existés et qui ne sont plus que l’ombre d’eux même voire qui ont mis la clé sous la porte.

D’ailleurs voire que l’action de FaceBook est resté assez stable est une preuve supplémentaire que la bulle 2.0 ne va pas tarder à nous exploser dans les doigts. Car vendre du vent comme le fait Facebook, c’est génial, sauf quand on s’aperçoit que le vent, ce n’est que de l’air, et rien d’autre.

D’ailleurs, ce qui me fait aussi penser que la bulle 2.0 va pas tarder à exploser, c’est la prise de valeur sans commune mesure du réseau social graphique Pinterest… Il est marrant de noter que ce réseau social qui fait penser à un panneau d’affichage géant était valorisé à 1/2 milliard de dollars en mars dernier… Soit 18 fois la valeur des fonds levés…

Continuer la lecture de « L’introduction en bourse de FaceBook, début du l’explosion de la Bulle 2.0 ? »

Quand l’industrie de l’inculture tombe toujours plus bas…

Déjà que l’industrie de l’inculture en tenait une couche, ils ont décidé de passer la deuxième… Ou la troisième si on compte les lois techniquements obsolètes comme la floppée hadopiesque… Et souvenez-vous du CD lisible… presque nulle part.

En dehors des prix honteux pour des galettes plastifiées et restreinte géographiquement (30 € pour un blu-ray avec un film noir et blanc, muet et oscarisé… euh… ), voici donc l’idée magique suivante : l’ICE (un organisme nord américain) propose purement et simplement d’imposer deux avertissements contre la copie illicite qu’il sera impossible de sauter.

Donc, c’est la double-peine pour les personnes voulant rester dans la légalité : non seulement des prix prohibitifs, mais des propagandes gouvernementales pour aider les majors du cinéma à se faire des testicules en or.

Cory Doctorow en 2010 avait résumé la situation en une illustration suffisamment parlante pour ne pas avoir besoin d’être traduite…

Donc, on voudrait encore encourager la copie illicite qu’on ne s’y prendrait pas mieux.

A moins que les majors pleurant sur leurs chiffres d’affaires s’écroulant alors que les recettes des Avengers montre la vacuité du raisonnement cherche à faire passer des lois pour continuer à vendre de la merde à prix d’or en tuant toute forme de critiques pouvant venir des internautes ?

Comment cela, paranoïaque ? 😉

Quand l’industrie de l’inculture est coupée de la réalité…

Vous allez me dire : encore un article avec du déjà-lu auparavant. Il est vrai que l’industrie de l’inculture n’ayant pas voulu voir arriver le virage du numérique fait passer des lois iniques, ineptes et coûteuse pour maintenir en vie un modèle qui est techniquement obsolète : la rareté.

En effet, si avant l’arrivée en masse de l’internet, la rareté qui permet de maintenir plus ou moins artificiellement des prix élevés pour les produits culturels (frais d’impression, de gravure, de numérisation, de reproduction de galettes contenant de l’audio et ou de la vidéo, frais de distribution et de stockage) permettait de justifier des prix presque exorbitants, ce n’est plus le cas depuis la dématérialisation croissante des produits culturels.

Continuer la lecture de « Quand l’industrie de l’inculture est coupée de la réalité… »

Virgin Mobile : premier MVNO à mettre la clé sous la porte ?

Quand Free a lancé son offre à 19,99 € pour du tout illimité sans engagement, les manoeuvres de dénigrement de la concurrence (huissiers, syndicats téléguidés par les opérateurs historiques) ont été nombreuses, en vain apparemment.

Les MVNOs, faux-nez des opérateurs historiques dont ils dépendent pour fonctionner seront les premières victimes, aucun doute. Mais même si j’avais parié sur un petit dans ce domaine, c’est apparemment un des grands qui commence à souffrir, du moins, si on considère l’opération actuelle.

Virgin Mobile – qui dépend d’Orange pour son réseau – casse en quelque sorte – ses forfaits Extaz lancé pour contrer Free Mobile. Je cite l’article de Business Mobile :

Concrètement, Virgin Mobile casse les prix de ses derniers forfaits Extaz en date. L’offre 4h XL (4h d’appels, SMS illimités, Internet bridé au-delà de 3 Go) avec à un iPhone 3GS vendu 1 euro est proposé à 24,99 euros par mois au lieu de 34,99 euros par mois (engagement 24 mois).

Le tarif tombe à 14,99 euros par mois avec Samsung Wave 575 vendu 1 euro (au lieu de 21,99 euros par mois).

Le forfait Extaz 2h (2h d’appels et SMS illimités) sans téléphone et sans engagement est proposé 5,99 euros par mois au lieu de 8,99 euros par mois.

J’ai mis en gras les parties intéressantes… En dehors de ce qui est devenu une hérésie et un casus belli pour nombre d’utilisateurs qui se sont trouvés réengagés en fin d’année dernière, on voit que les forfaits ne sont pas si intéressants que cela.

L’iPhone 3Gs, c’est pas un téléphone vieux de 2 générations ? Sans oublier que le forfait 2 heures – avec SMS illimités n’est intéressant par rapport au forfait 2 € de Free qu’à partir du 40ième SMS hors forfaits. Il faut se souvenir qu’une heure de hors-forfait en voix coûte 3 € chez Free, et les SMS, 1 centime.

Brader ainsi une offre, cela sent un vent de panique. Mais je peux très bien faire erreur. En tout cas, d’ici la fin de l’année, le paysage du téléphone mobile français aura été bouleversé comme jamais auparavant…

Pour info, si j’étais chez Virgin Mobile, pour ma consommation actuelle, je dépenserais 1/3 de plus que chez Free Mobile. En effet, je suis dans les 3 h 30 à 4 h de voix par mois… Et comme je suis abonné chez Free pour la connexion internet…

GNU/Linux n’arrivant pas à s’imposer sur le bureau, est-ce un mal ?

Cette semaine, l’actualité GNU/linuxienne a été assez chargée. Entre l’abandon d’un greffon flash après la sortie d’Adobe Flash 11.2 (officiellement supportée durant 5 ans), l’annonce comme quoi CUPS abandonnerait certaines fonctions typiquement attachée à GNU/Linux, même si elles seront compensées par l’utilisation de technologie comme Avahi, on ne peut pas dire qu’elle soit joyeuse. Ah, si, ComiceOS, le clone plus ou moins bien réussi de MacOS-X basé sur une ubuntu est retourné à ses chères études et retourne à son vrai niveau technique, une béta mal dégrossie.

J’ai déjà abordé plusieurs fois ce sujet, dont ce billet d’octobre dernier. Cependant, Une raison que je n’avais pas abordé, c’est simplement que pour s’imposer un minimum sur le marché de l’environnement de bureau, il faut une unification intégrale, ce qui reviendrait à imposer au minimum :

  • Une seule interface graphique utilisateur
  • Un seul ensemble de logiciels bureautiques et d’outils en rapport avec l’internet
  • Un seul format de paquets, et d’outil pour ajouter des logiciels tiers

Bref, une seule distribution pour tout le monde. C’est le pari risqué de Canonical, risqué car c’est rajouté dessus la volonté de faire une interface graphique utilisateur qui malgré ses qualités et ses défauts n’arrive au final qu’à faire une chose : entraîner dans une partie de la communauté du logiciel libre et des distributions GNU/Linux un rejet limite viscéral.

Car, et je le répèterais jusqu’à ce que le message soit bien passé, le logiciel libre, c’est le monde du choix. Choisir son noyau (LTS ou « normal »), son format de paquets (rpm, deb, ou un format à la slackware / ArchLinux / Frugalware Linux, etc…), l’interface graphique que l’on préfère (Gnome, Kde, Xfce, RatPoison, WindowMaker, OpenBox, Lxde, Unity, etc…), son navigateur internet, sa trousse bureautique, etc…

On ne peut que saluer l’effort, que je considère comme vain et énergivore, de Canonical et de sa volonté d’imposer un environnement type unifié et unique.

Si un jour cela doit arriver, ce ne sera pas par la pression d’un acteur aussi puissant soit-il, mais par la volonté de la communauté de montrer ce qu’elle sait faire.

Car le monde GNU/Linux est avant tout communautaire, au sens noble du terme. Je vais donc finir ce court billet en citant un article que j’ai rédigé début janvier 2012 :

Mis à part Ubuntu, Fedora Linux (indirectement) et OpenSuSE, le reste est occupé par des distributions communautaires ou de type communautaire. D’ailleurs, cette année, la distribution communautaire ArchLinux fête ses 10 ans, Debian GNU/Linux ses… 19 ans ! CentOS ? 8 ans cette année.
[…]
Une distribution communautaire dépend des dons de ses utilisateurs, que ce soit en terme purement technique ou financier. Demander des fonds pour se financer, est-ce si grave ? Poser la question, n’est-ce pas y répondre ?

D’ailleurs, selon moi, une distribution communautaire aura, la plupart du temps, les reins plus solides qu’une distribution adossée à une entreprise. Pour une simple et bonne raison : pas d’actionnaires à qui verser des dividendes. Ce qui aide à la survie d’une distribution, même si des appels à donner arrive de temps à autres.

Bon samedi 😀

Du triste état de la blogosphère libre francophone.

Je suis dégoûté, pour ne pas dire écoeuré de voir l’état de la blogosphère libre francophone. On ne compte plus à la sortie d’une nouvelle version majeure de Mozilla Firefox, de Chromium ou de VLC (pour ne citer les premiers exemples qui me viennent à l’esprit) des blogs qui nous pondent un article du genre : « Installer trouduc 14.50 sur ubuntu / Linux Mint », comme si les distributions GNU/Linux se limitaient à ce duo.

Plus rare les articles ayant le même titre remplaçant ubuntu par Fedora ou encore Debian voire Mandriva ou Mageïa. Pas que ce soit des articles complètement inutiles, mais cela passe souvent par des dépôts dont la stabilité n’est pas extraordinaire et pouvant – même si c’est rarissime – mettre en danger la distribution installée.

L’actualité du logiciel libre se limite-t-elle à dire aux utilisateurs lambda comment installer une version qui ne sera peut-être disponible que dans quelques semaines ou mois, quand la distribution utilisée proposera une migration vers une nouvelle version stable ?

Continuer la lecture de « Du triste état de la blogosphère libre francophone. »