Vieux Geek, épisode 13 : La Suite Mozilla 1.0

Et oui, déjà le 13ième épisode de la série. Ne soyons pas superstitieux, ça porte malheur. Enfin, dixit Pierre Desproges.

Hier, 5 juin 2013, les vieux de la vieille ont pu fêter les 11 ans de la Suite Mozilla 1.0. Oui, je parle bien du lointain ancêtre de Mozilla Firefox / Mozilla Thunderbird.

Après plus de 4 ans de travail, suite à la libération du code source de Netscape Communicator 5 (du moins, sa version pré-alpha) le 31 mars 1998, et un redémarrage à zéro à la fin de la même année, la première version de la Suite Mozilla sort.

Pour mémoire, en 2002, la machine de « bonne gamme » était du genre Pentium III (ou équivalent AMD) à 1 Ghz, 128 à 256 Mo de mémoire vive, un disque d’environ 50 à 80 Go. Cf ce support de cours que j’ai pu trouvé via mon ami Google.

Il faut se souvenir que 2002, c’est la fin de la première guerre des navigateurs, qui laisse l’ancien leader Netscape exsangue. En juin 2002, selon les archives de OneStat, la situation est claire : Internet Explorer 4 à 6 : 95% des navigateurs sur la toile. Autant dire que la sortie de la suite Mozilla 1.0 était plus une folie pour nombre de personnes qu’un espoir de rééquilibrer la balance.

Pour les personnes n’ayant pas connu la glorieuse époque de la suite Mozilla, j’ai fait une petite vidéo pour présenter l’engin de l’époque. C’était vraiment une usine à gaz à l’époque, surtout qu’il faut se souvenir que le top du top en France, c’était la connexion en ADSL 512K…

J’ai utilisé une Red Hat Linux 7.3, sorti en mai 2002 avec les paquets RPMs disponible sur le serveur FTP de la Fondation Mozilla.

Bon, ce n’était pas super stable, une sacrée usine à gaz… Cela fait étrange de voir le chemin parcouru depuis !

Vieux geek, épisode 12 : La Mandrake Linux 9.1

J’ai connu les distributions GNU/Linux il y a un certain nombre d’années. Mon premier contact, ce fut en 1997. Cependant, entre 1997 et 2003, les distributions se sont succédées sur le disque dur de mes machines respectives, ne durant dans le meilleur des cas qu’un jour ou deux.

En 2003, j’habite à Neuilly-sur-Bassin, euh, je voulais dire Arcachon, avec ma surpuissante machine de l’époque : Pentium 4 à 2 Ghz, 256 Mo de mémoire vive, et dans les 80 Go de disque. Du moins, si mes souvenirs sont bons, car cela remonte à plus de 10 ans !

A l’époque, j’essaye désespérement de me passer de MS-Windows XP. Les distributions GNU/Linux se succèdent sur mon disque dur. Et en 2003, MandrakeSoft propose la version 9.1 de sa distribution fétiche, Mandrake Linux. Après avoir récupéré les 3 ISOs de l’installation, je les avais gravé sur des CD-RW pour installé l’ensemble. Avec ma ligne 512K à l’époque, je vous laisse imaginer le temps nécessaire pour récupérer les 1,8 Go de données.

Et comme à l’époque je n’étais pas fan de KDE, je m’étais replié sur Gnome, en version 2.2.

Pour les détails techniques, je vous renvoie sur cette dépêche de LinuxFr.

En fouillant le grand nain ternet, j’ai pu trouver un miroir ftp où on peut trouver les ISOs de la Mandrake Linux, jusqu’à l’époque de la toute première, la Mandrake Linux 5.1.

J’ai donc voulu vous montrer ce à quoi ressemblait les distributions GNU/Linux à cette époque préhistorique. Qemu a été mon allié. Pour info, l’alias kvm32 contient la commande suivate : qemu-system-i386 -k fr -m 2048 -soundhw all -vga std --enable-kvm.

J’ai donc créé une image disque virtuelle de 32 Go. Tout en sachant que la distribution Mandrake Linux ne demandait qu’un gros Go installée.


[fred@fredo-arch ISO à tester]$ qemu-img create -f qed disk.img 32G
Formatting 'disk.img', fmt=qed size=34359738368 cluster_size=65536 table_size=0
[fred@fredo-arch ISO à tester]$ kvm32 -hda disk.img -cdrom Mandrake91-cd1-inst.i586.iso -boot order=cd &

Continuer la lecture de « Vieux geek, épisode 12 : La Mandrake Linux 9.1 »

Vieux geek, épisode 11 : l’épopée 3Dfx.

Revenons en décembre 1993 : iD Software donne un grand coup de pied dans la fourmilière en sortant le premier Doom. C’est un titre qui propose presque de la 3D. Car les personnages restent désespérement plat. Même si les titres qui se suivent améliorent plus ou moins le principe (comme les très bons Dark Forces ou le mythique Duke Nukem 3D), les personnages comme les objets restent désespérement plat.

1996 : iD Software frappe de nouveau un grand coup avec Quake premier du nom. Même s’il nécessite un monstre de puissance pour l’époque (un pentium 75 et 8 Mo de mémoire pour être tranquille), il propose un univers véritablement en 3D. La vidéo ci-dessous montre ce que donnait l’une des béta du jeu à l’époque. Autant dire que tout était calculé par l’ordinateur, et que le résultat était plutôt moche. Et qu’il dépendait de la puissance de calcul pur de l’ordinateur.

A la même époque, Intel met la dernière main à ce qui se veut une révolution, les processeurs munit des instructions MMX qui étaient censés donner un coup de fouet aux programmes optimisés pour le dit MMX. Et accessoirement pour vendre plus de processeurs 166 et 200 Mhz à l’époque.

Mais il faut être réaliste, le gain était proche de… zéro. A la même époque, une petite boite du nom de 3Dfx interactive se lance dans un marché juteux : les cartes additionnelles pour le rendu 3D. Elle avait un avantage non négligeable : elle libérait le processeur de calculer le rendu des images accelérées.

Continuer la lecture de « Vieux geek, épisode 11 : l’épopée 3Dfx. »

Vieux geek, épisode 10 : Microsoft WinG, l’ancêtre de DirectX…

J’ai eu l’idée de cet article en jetant un oeil sur la fiche d’un jeu sur Steam et d’un étrange copier / coller, , je cite :

OS:Ubuntu 12.04 LTS
Processor:Pentium 4
Memory:512 MB RAM
Graphics:DirectX 9.0c compatible
DirectX®:9.0c

Je voudrais bien voir DirectX® fonctionner sous Linux. Par simple curiosité. A moins que Wine ne le permette ?

Sinon, une image m’est revenu à l’esprit. Un vieux titre des débuts de la vraie 3D sur PC. Avant la sortie de Descent (pour les Shoot’em’up) en 1995 et Quake en 1996, les jeux dits 3D étaient souvent de la 2D trafiquée : Doom et Duke Nukem 3D en sont les parfaits exemples.

A la même époque, un Shoot’em’up en 3D fait son apparition sous MS-DOS, j’ai nommé Terminal Velocity.

Microsoft demandera alors à l’équipe derrière Terminal Velocity de proposer un jeu identique pour promouvoir son système d’exploitation sortant la même année, j’ai nommé MS-Windows 95. Et en attendant la sortie de MS-Windows 95 pour août 1995, Microsoft développe une surcouche qui sera l’ancêtre de DirectX, j’ai nommé WinG.

Continuer la lecture de « Vieux geek, épisode 10 : Microsoft WinG, l’ancêtre de DirectX… »

Vieux geek, épisode 8 : quand les Network Computers étaient l’avenir du PC.

Avec la mode des tablettes tactiles, on parle de nouveau de la fin des PC. En tant que vieux geek, cela m’a parlé. Et m’a fait me souvenir d’une révolution avortée : celle des Network Computer.

Depuis 1981, date du premier PC et 1996, les capacités ont explosées : En l’espace de 15 ans, les processeurs ont vu leur vitesse multipliée par 20 voire 25. La capacité de mémoire vive multipliée par 1000. La capacité de stockage multiplié par 50 à 60. Autant dire qu’aucune industrie n’avait connue une telle croissance. Mais les machines restaient chères. Et en 1996, une toute fraîche nouveauté chamboule tout, c’est l’internet.

Un des grands noms de l’industrie, Oracle s’allie avec IBM, Apple, Sun et quelques autres pour proposer un retour aux sources : un ordinateur le plus simple possible, qui ne fonctionnerait que grâce et au travers du réseau. Et si possible, sans aucune capacité de stockage, en clair, un bête écran avec un clavier et une souris, branché sur un boîtier réduit au strict minimum. Bref, une machine ne fonctionnant qu’en réseau, le Network Computer.

D’ailleurs, en 1995, Larry Ellison, un des porteurs du projet déclare :

A PC is a ridiculous device. What the world really wants is to plug into a wall to get electronic power, and plug in to get data

Ce qu’on peut traduire par :

Un PC est un appareil ridicule. Ce que veut le monde est d’enfoncer une prise dans un mur pour avoir le courant électronique et le brancher pour avoir des données.

Autant dire qu’à l’époque, avec des connexions de tortue rhumatisante à 3 pattes, et d’accès internet payé à la minute, cela ne pouvait être qu’un énorme flop.

Surtout que tous les logiciels étaient stockés à distance, ainsi que les données, dans ce qu’on appelle de nos jours, le cloud. Mais il y a plus de 15 ans, c’était vraiment balbutiant. Et les problèmes dont on parle de nos jours étaient déjà vrai à l’époque, par exemple :

  1. Quel contrôle de mes données à distance ?
  2. Les serveurs seront-ils toujours en fonctionnement dans un, deux ou trois ans ?
  3. Qui me dit que ma connexion n’est pas fliquée, et donc que mes données ne le sont pas ?

Google a essayé de réinventer le Network Computer avec ses Chromebook, sans grand succès. Alors, si on vous dit que les PCs sont en train de mourir, répondez que ce n’est que la énième fois qu’on déclare cela pour des machines nées il y a 30 ans 😉