Bilan de mes prédictions pour 2012 : et au bout de 9 mois ?

Le mois de septembre est commencée depuis une grosse semaine, j’ai eu donc envie de voir où en était le bilan au trois quarts de la durée écoulée, depuis le billet de fin décembre 2011.

Concernant ubuntu 12.04.x LTS, j’écrivais :

C’est un peu le quite ou double. Car les utilisateurs restés sur la version 10.04 se verront proposer la migration. Et ces derniers seront-ils la copie conforme des personnes qui ont accueillis de manières variées l’interface nouvelle generation fabriquée par Canonical ?

Pour le moment, Canonical a gagné son pari, au point que des ports d’Unity sont en cours pour Fedora ou encore Archlinux.

Cinnamon ? Il continue son bonhomme de chemin, avec le fork de Nautilus, Némo. La version 1.5.7 est actuellement la dernière version de développement disponible, avec une version stable 1.6.0 dans les semaines qui viennent.

En ce qui concerne le duel Mandriva – Mageïa, le gagnant est clairement Mageia. Le projet a sorti récemment une première alpha de sa version 3, proposant Gnome Shell 3.5.91 et KDE 4.9 entre autre choses.

Mandriva en est encore à chercher le nom d’une fondation. Un cercueil ne serait pas plus approprié ?

La Pomme ? Après son procès contre Samsung dont elle a remporté le premier acte (c’est le genre de procédure qui se mesure en années), et avant la sortie du 7ième iPhone, que sera l’iPhone 5 (ben ouais, vous faîtes quoi du 3Gs et 4s ?), tout va pour le mieux pour elle. Il suffit de lire sa Pravda francophone pour le comprendre 🙂

Et elle pourra verser un gros chèque de remerciement à Microsoft qui n’arrive pas à se dépétrer du futur fiasco MS-Windows 8, dont l’interface a été étrillé par PC Inpact.

En tout cas, je souhaite bien du courage aux personnes qui devront former les utilisateurs à l’interface de MS-Windows 8.

Coté navigateurs, selon Statcounter, la messe est dite pour Internet Explorer : Il n’a plus que 32,85% des parts de marché.

Deuxième ? Google Chrome : 33,59%
Troisième ? Mozilla Firefox : 22,85% !

Autant dire que la partie est bien perdue pour le panda roux, malgré son cycle de publication calqué sur celui de Google Chrome. 5 points perdus en un an, au profit presque exclusif de Google Chrome.

Enfin, le morceau de choix, la descente aux enfers de Facebook : vendue 38$, l’action se négocie à seulement… 18,98$… Soit 50% perdu en l’espace de 4 mois et demi, l’action étant coté depuis le 17 mai… Ca fait mal ?

OpenSuSE 12.2 : à oublier si vous utilisez Gnome !

Hier, j’ai évoqué en vitesse le cycle atypique du développement d’OpenSuSE, ayant le cul entre deux chaises : la version semestrielle (trop courte) et annuelle (trop longue).

A l’époque de la version 12.1rc1, j’avais parlé d’une version 48 bits, tant le mélange entre les deux générations de paquets était encore importante.

En effet :

Que la remarque concernant le mélange de code 32 et 64 bits est toujours présent… 85 paquets 32 bits dans une distribution 64 bits avec l’installation par défaut… C’est la raison pour laquelle j’ai parlé d’une distribution 48 bits, car c’est un peu le cas, même si depuis la précédente version, la proportion de paquets 32 bits a diminué…

Pour tout dire, ce mélange de paquets a été résolu par la plupart des distributions depuis au moins 2 voire 3 ans. Mais voyons ce qu’il en est, après un cycle de développement qui s’est rapproché de la version annuelle pour sa durée.

Pour rester dans mon intégrisme environnement de bureau préféré, j’ai récupéré le liveCD 64 bits pour Gnome, le tout lancé dans une machine virtuelle VirtualBox. J’ai choisi de démarrer directement sur l’installateur.

Continuer la lecture de « OpenSuSE 12.2 : à oublier si vous utilisez Gnome ! »

La sortie retardée d’OpenSuSE met-elle à mal le cycle de développement de 8 mois ?

La distribution GNU/Linux OpenSuSE 12.2 est sortie ce 5 septembre, avec deux mois de retard par rapport à la date d’origine.

Les versions d’OpenSuSE sortent tous les 8 mois, du moins en théorie depuis 2009, car la précédente version, la 12.1 est sortie en novembre 2011.

Ce cycle de 8 mois est un peu « bâtard », les cycles de développement étant en moyenne de 6 mois ou d’un an, voire plus pour Debian GNU/Linux par exemple. Le prétexte utilisé étant qu’un cycle de 6 mois est trop court pour un niveau de qualité minimale.

Mais ce cycle, menant à la version 12.2, a été chamboulé, spécialement le coup de gueule au mois de juin dernier qui a débouché le rajout de deux mois supplémentaires. Et à moins d’être une quiche en anglais, c’est le niveau de qualité du produit qui est en cause, surtout avec des périodes de « cassure » parfois un peu trop importante.

Il est certain qu’un cycle de 6 mois est assez court pour stabiliser le code d’une distribution, et un an, c’est trop long surtout par rapport à certains logiciels qui évoluent rapidement.

Alors passer à une version annuelle ? Pourquoi pas ? Une idée à creuser, mais reste à savoir si elle est applicable dans la vie courante. En tout cas, un cycle de 8 mois pour stabiliser correctement le code ne semble pas être idéal au final.

Néanmoins, ne crachons pas sur la sortie de la distribution au Caméléon.

Vieux geek, épisode 4 : MS-Windows XP, l’arrivée de l’interface « Fisher Price ».

Octobre 2001 : alors que la bulle internet est en plein dégonflage, la crise des « dotcom » commencée en avril 2000 ne trouvera sa fin que 2 ans plus tard), Microsoft sort son nouveau MS-Windows, connu longtemps sous le nom de code de Whistler, à savoir MS-Windows NT 5.1 alias MS-Windows XP.

Basé sur le coeur de MS-Windows NT 5 alias 2000 Pro, c’est le premier MS-Windows grand public utilisant le moteur de la version professionnelle de l’OS de Microsoft. Sorti en février 2000, Microsoft Windows 2000 Pro reprend l’interface de MS-Windows 98 et va partager son environnement sonore avec le peu aimé MS-Windows Millennium.

Ouvrons une parenthèse : J’avais eu le nez creux en achetant dès sa sortie, fin février 2000, MS-Windows 2000 Pro qui avec MS-Windows XP reste mes préférés, enfin, c’est un bien grand mot. Il faut dire que la première installation de MS-Windows 2000 Pro (sur un Celeron 333, 128 Mo de mémoire, et 8 Go de disque) avait dépassé l’age canonique de 6 mois. Fermons cette parenthèse.

Mais ce qui choque le plus avec Microsoft Windows XP, c’est son interface. Elle chamboule énormément de trucs. Outre l’absence du MS-Dos (normal, la même base diffère de l’ancienne branche grand public), elle introduit deux nouveautés : le nouveau menu Démarrer (plus intelligent), et l’interface Luna que certaines personnes appelleront l’interface Fisher Price, car la transition pique les yeux à l’époque.

Pour les personnes n’ayant connues que MS-Windows XP, Vista et 7, voici à quoi ressemblait MS-Windows 98 / Millenium en général :

Et voici pour MS-Windows XP…

On peut aisément imaginer le choc d’une personne qui découvre l’interface Luna : c’est quoi ces gros boutons, ces couleurs plastiques, le menu qui regroupe tout ? Et le panneau de configuration qui oblige à fouiller pour régler quoique ce soit ? 😀

Je sais pas pour vous, mais cela me semble familier comme interrogation. Vous savez, l’arrivée des interfaces nouvelles générations dans le monde libre, le duo (ou duel ?) Unity / Gnome-Shell, et ce qui risque d’arriver pour Microsoft avec son MS-Windows 8…

Vieux geek épisode 2 : ah les compresseurs de mémoire et autres accélérateurs de téléchargements :P

Quand j’ai commencé à m’intéresser à l’informatique, c’était en 1989. Ma première machine, un Amstrad CPC 6128 (qui coutait 4000 francs à l’époque, soit en gros 610 €) était un monstre de puissance pour son époque, surtout pour les machines 8 bits : 128 Ko de mémoire vive, des disquettes 3 pouces contenant au maximum 360 Ko sur les deux faces, jusqu’à 27 couleurs en simultané (en codant en assembleur Z80 à un bon niveau) et une logithèque énorme.

J’ai passé une énorme partie des après-midi de mes années lycées à saisir des listings basic de plusieurs pages (plusieurs dizaines quand c’était pour saisir des programmes en langage machines).

Pour les programmes en Basic, je m’amusais à optimiser le code, en virant les commentaires inutiles, voir en compressant les lignes quand c’était possible. Il faut dire qu’un programme en Basic de 20 Ko, c’était énorme.

Déjà à l’époque, on faisait tout pour économiser l’espace pris. Il faut dire que les disquettes 3 pouces étaient assez onéreuses (20 francs pièces, oui 3 €). J’utilisais cet ordinateur de 1989 à 1994. En 1994, j’investis dans un Amiga 1200, puis en début 1995, dans mon premier compatible PC. Un Cyrix 486DX2 à 66 Mhz, 4 Mo de mémoire vive, 400 Mo de disque. Et c’est tout. Pas de carte son, ni de lecteur optique.

A l’époque on achetait des kits multimédias comprenant carte son et CD-Rom. Ma machine fonctionnait alors avec le duo MS-DOS 6.22 et MS Windows 3.1x. Je me souviens même des disquettes de mon exemplaire de Doom (4 disquettes) acheté 150 francs (22,8€) à l’époque.

A l’époque, la mémoire vive est hors de prix, et donc économiser le moindre octet est une priorité. Avec son MS-DOS 6.22, Microsoft propose un outil qu’on appelle memmaker. Il déclare optimiser l’agencement de la mémoire. Mais ce n’est pas le seul. Il existe aussi des outils comme Magnaram de Qemm par exemple ou RamDoubler de Connectix.

J’avoue que j’ai toujours trouvé ce genre d’outils assez inutile. Le seul vrai moyen d’être tranquille, ce n’est pas d’augmenter la mémoire vive ?

Passons quelques années, et voici l’année 1997. J’ouvre un compte sur AOL, qui ne l’a pas fait à l’époque ?, et l’année d’après, j’ai un vrai accès internet avec feu Club-Internet. J’ai alors une connexion de folie… Du 33,6 Kb/s en RTC. C’est à cette époque où l’on payait l’internet à la minute – car les forfaits étaient vite mangés – que sont apparus les accélérateurs de téléchargements.

Ces logiciels qui sont plus de la poudre aux yeux qu’autre chose, même si l’un des plus célèbres existe encore (Download Accelerator Plus pour ne pas le nommer) noie les serveurs de téléchargements sous les requêtes pour fractionner les téléchargements, et donner l’impression que tout va plus vite.

Alors que ce qui n’apporte vraiment une meilleure vitesse, c’est un plus gros débit ! J’ai eu de l’adsl depuis 2002, et j’ai appris une chose : rien ne vaut un meilleur débit pour avoir des téléchargements plus rapide 😀

Et on pourra trafiquer les réglages tous les logiciels nécessitant une connexion à un réseau. On ne pourra améliorer sa vitesse que par une augmentation de la taille du tuyau, et par rien d’autre.