Vieux geek épisode 2 : ah les compresseurs de mémoire et autres accélérateurs de téléchargements :P

Quand j’ai commencé à m’intéresser à l’informatique, c’était en 1989. Ma première machine, un Amstrad CPC 6128 (qui coutait 4000 francs à l’époque, soit en gros 610 €) était un monstre de puissance pour son époque, surtout pour les machines 8 bits : 128 Ko de mémoire vive, des disquettes 3 pouces contenant au maximum 360 Ko sur les deux faces, jusqu’à 27 couleurs en simultané (en codant en assembleur Z80 à un bon niveau) et une logithèque énorme.

J’ai passé une énorme partie des après-midi de mes années lycées à saisir des listings basic de plusieurs pages (plusieurs dizaines quand c’était pour saisir des programmes en langage machines).

Pour les programmes en Basic, je m’amusais à optimiser le code, en virant les commentaires inutiles, voir en compressant les lignes quand c’était possible. Il faut dire qu’un programme en Basic de 20 Ko, c’était énorme.

Déjà à l’époque, on faisait tout pour économiser l’espace pris. Il faut dire que les disquettes 3 pouces étaient assez onéreuses (20 francs pièces, oui 3 €). J’utilisais cet ordinateur de 1989 à 1994. En 1994, j’investis dans un Amiga 1200, puis en début 1995, dans mon premier compatible PC. Un Cyrix 486DX2 à 66 Mhz, 4 Mo de mémoire vive, 400 Mo de disque. Et c’est tout. Pas de carte son, ni de lecteur optique.

A l’époque on achetait des kits multimédias comprenant carte son et CD-Rom. Ma machine fonctionnait alors avec le duo MS-DOS 6.22 et MS Windows 3.1x. Je me souviens même des disquettes de mon exemplaire de Doom (4 disquettes) acheté 150 francs (22,8€) à l’époque.

A l’époque, la mémoire vive est hors de prix, et donc économiser le moindre octet est une priorité. Avec son MS-DOS 6.22, Microsoft propose un outil qu’on appelle memmaker. Il déclare optimiser l’agencement de la mémoire. Mais ce n’est pas le seul. Il existe aussi des outils comme Magnaram de Qemm par exemple ou RamDoubler de Connectix.

J’avoue que j’ai toujours trouvé ce genre d’outils assez inutile. Le seul vrai moyen d’être tranquille, ce n’est pas d’augmenter la mémoire vive ?

Passons quelques années, et voici l’année 1997. J’ouvre un compte sur AOL, qui ne l’a pas fait à l’époque ?, et l’année d’après, j’ai un vrai accès internet avec feu Club-Internet. J’ai alors une connexion de folie… Du 33,6 Kb/s en RTC. C’est à cette époque où l’on payait l’internet à la minute – car les forfaits étaient vite mangés – que sont apparus les accélérateurs de téléchargements.

Ces logiciels qui sont plus de la poudre aux yeux qu’autre chose, même si l’un des plus célèbres existe encore (Download Accelerator Plus pour ne pas le nommer) noie les serveurs de téléchargements sous les requêtes pour fractionner les téléchargements, et donner l’impression que tout va plus vite.

Alors que ce qui n’apporte vraiment une meilleure vitesse, c’est un plus gros débit ! J’ai eu de l’adsl depuis 2002, et j’ai appris une chose : rien ne vaut un meilleur débit pour avoir des téléchargements plus rapide 😀

Et on pourra trafiquer les réglages tous les logiciels nécessitant une connexion à un réseau. On ne pourra améliorer sa vitesse que par une augmentation de la taille du tuyau, et par rien d’autre.

Le marché des distributions GNU/Linux est-il conservateur ?

On dit souvent qu’une des faiblesses de GNU/Linux, c’est qu’il y a des trillions de distributions, et que cela empèche de porter des logiciels, car les distributions les plus utilisées ne sont jamais les mêmes. Même si l’outil de distrowatch est imparfait, cela permet de savoir quelles distributions ont eu le vent dans les voiles depuis l’an 2002.

En 2002 :

  1. Mandrake
  2. Red Hat
  3. Gentoo
  4. Debian
  5. Sorcerer
  6. SuSE
  7. Slackware
  8. Lycoris
  9. Lindows
  10. Xandros

Mandrake, devenu Mandrake Linux, puis Mandriva… Passons sur Red Hat, Gentoo, Debian.

Inutile de préciser quel est son état actuel. Sorcerer ? Elle semble encore exister. SuSE existe encore sous le nom d’OpenSuSE, et SLED pour les entreprises. Quand à notre bonne vieille slacky, elle existe encore de nos jours, et arrivera surement d’ici quelques jours en version 14.0.

Lycoris ? Rachetée par Mandriva en 2005. Paix à ses octets. Lindows ? Les plus anciens doivent se souvenir de la guerre de Microsoft contre Lindows, devenu par la suite Linspire. Racheté par Xandros, morte depuis. Donc, cela règle le cas des deux dernières entrées de 2002.

Continuer la lecture de « Le marché des distributions GNU/Linux est-il conservateur ? »

Tiens, intéressant le classement « buzzesque » de Distrowatch :)

Distrowatch, c’est le site de référence pour chercher les dernières nouvelles des distributions GNU/Linux et aussi des BSDs libres.

Outre son coté assez exhaustif, il est célèbre pour ses statistiques de pages vues pour les distributions. Souvent considérées comme sans valeur scientifique, elles peuvent être intéressante à étudier d’une manière plus « globale ». Il ne faut pas oublier que l’actualité joue énormément dans les visionnages de fiches.

Voici le classement à 7 jours, actuel :

  1. Mint 2891
  2. Mageia 2782
  3. PCLinuxOS 2436
  4. Ubuntu 2306
  5. Manjaro 1762
  6. Debian 1237
  7. Zorin 1202
  8. Fedora 1202
  9. Slackware 1017
  10. openSUSE 1003

Sur les 30 derniers jours :

  1. Mageia 2960
  2. Mint 2889
  3. Ubuntu 1769
  4. Arch 1245
  5. Debian 1206
  6. PCLinuxOS 1188
  7. Fedora 1179
  8. openSUSE 1139
  9. Slackware 924
  10. Zorin 894

Continuer la lecture de « Tiens, intéressant le classement « buzzesque » de Distrowatch 🙂 »

Chakra GNU/Linux 2012.08 alias Claire, un tournant pour cette distribution ?

La version 2012.08 alias « Claire » de la Chakra GNU/Linux, originellement un fork d’Archlinux ayant pris son envol par la suite est sortie. Les changements sont nombreux. Parmi les principaux :

  • Linux 3.4.6
  • KDE 4.9.0
  • Grub 2
  • Un début de migration vers systemd (elle aussi)
  • L’abandon de l’architecture i686 au profit de la x86_64
  • Un outil dérivé de Kaptan de la distribution Pardus s’occupe d’accueillir l’utilisateur après le premier démarrage. Il s’appelle Kapudan.
  • Abandon d’un outil graphique pour gérer Pacman. Ca va faire grincer quelques dents que de devoir installer les logiciels en ligne de commande…

J’ai donc voulu voir la nouvelle version en ordre de marche. Après avoir choisi l’interface en français au niveau du chargeur de démarrage.

Après un démarrage assez rapide, j’ai lancer tribe qui m’a accueilli en français. L’installation est assez simple, même s’il faut mettre la main à la pate pour le partitionnement du disque. J’ai apprécié la sélection graphique du fuseau horaire ou l’ajout d’un utilisateur.

Continuer la lecture de « Chakra GNU/Linux 2012.08 alias Claire, un tournant pour cette distribution ? »

Unity-2D, nouvelle victime de la limite des 700 Mo ?

La nouvelle a fait beaucoup de bruit. Unity-2D, la version « non accelérée » de l’environnement de Canonical ne sera plus disponible sur le support d’installation.

Florent Gallaire a écrit sur son blog un excellent billet où il crie sa déception face à la décision de Canonical – qui doit savoir mieux que ses utilisateurs – quoi faire de sa distribution, non ?

Et pose une question intéressante :

Mais alors que se passera-t-il lorsqu’un ordinateur n’aura pas les capacités 3D nécessaires à Unity, si l’on ne peut plus avoir recours à Unity 2D ? La solution choisie par Canonical est la même que celle que Red Hat a mise en oeuvre pour GNOME Shell et qui fonctionne depuis Fedora 17 : utiliser LLVMpipe, qui est basé sur Gallium3D, pour émuler en software les fonctionnalités 3D manquantes du hardware.

Ceci implique très logiquement de gros problèmes de performance et, le plus grave selon moi, une compatibilité limitée aux seuls processeurs x86. Or, en plus du Toshiba AC100 et de son processeur ARM, j’utilise aussi de vieux Macs équipés de processeurs PowerPC comme desktop…

Pour info, j’utilise actuellement le pilote nouveau et son extension nouveau-dri sur ma distribution. Qui dépendent d’un certain Mesa 8.0.x, donc du LLVMpipe dont parle Florent sur son blog. Et mis à part un léger ralentissement au démarrage, Gnome Shell fonctionne aussi bien, sinon par endroit mieux qu’avec le pilote nvidia officiel. Mais fermons cette rapide parenthèse.

Une question est pourquoi virer Unity-2D alors qu’il fonctionne partout ? Une réponse possible ? Sa taille. En effet, et dans une tradition digne de Kafka, Unity-2D n’utilise pas GTK, mais QT et Metacity. Et puis, jetons un oeil aux paquets composant unity-2d, dixit le page du projet du launchpad.

J’ai pris les tailles des paquets en 64 bits, car il faut bien se tourner vers l’avenir de l’informatique, non ? 😀

J’ai uniquement donné la taille des paquets indispensables. Les bibliothèques de développement n’étant pas indispensables, je ne l’ai pas cherchée, ainsi que le transitional package.

Total : 1496 + 42 + 42 + 423 + 163 = 2166 Ko, soit 2 gros Mo. Pourquoi le virer dans ce cas ? Parlons des dépendances des paquets cités.

Pour Unity-2d-launcher :

Soit : 904 Ko. Donc, on en est à 3070 Ko. Toujours pas de quoi justifier de virer l’environnement. Passons donc à unity-2d-panel et ses dépendances communes avec Unity-2d-spread :

Total : 668 + 231 + 8860 + 140 + 12475 + 124 : 13638 Ko. Soit 13 Mo.

Le total d’unity-2D ? 3070 + 13638 = 16708, soit un peu plus de 16 Mo. Sans oublier Metacity et son paquet Metacity-common qui rajoute respectivement 867 et 1168 Ko. Donc, si on prend ce qui compose la plus grosse partie d’unity-2D, on arrive à 18743, soit en gros 18,30 Mo. Sur un support qui en pèse 700, ça fait 2,61%. Ce n’est rien 2,61% sur une image ISO. Mais si on veut rester dans les 700 Mo, grapiller 18 Mo ça aide vraiment.

Et il ne faut pas oublier que sur l’ISO officielle, il y a des outils qu’on s’attend à avoir, comme une trousse bureautique, comme LibreOffice… Le coeur de la suite bureautique pesant à lui seul… 117 412 Ko (ou encore 114,66 Mo) soit 16,38% du total d’une ISO de 700 Mo.

Donc entre sacrifier l’expérience utilisateur en ne lui fournissant pas une trousse bureautique dès le départ ou sacrifier un environnement de bureau, le choix est très vite fait si on veut proposer une distribution grand public, non ?

Et comme abandonner le support des symboliques 700 Mo serait un mauvais choix pour de nombreux marchés informatique, on risque de voir encore d’autres logiciels être boutés hors des images ISOs dans les mois et années qui viennent.