Vers un démarrage toujours plus « propre » ?

Je suppose que c’est une nouveauté récente dans le développement de la distribution Hardy Heron.

Désormais, quand le nombre de redémarrages (par exemple pour une personne qui éteint sa machine chaque soir) qui nécessitent une vérification du contenu des partitions. (man e2fsck pour plus d’information).

Si sous des versions précédentes d’Ubuntu, si la vérification avait lieu, on passait du mode de démarrage graphique en mode texte, typique pour effrayer le débutant sous Linux.

Désormais, quand la vérification s’effectue, un texte arrive, informant l’utilisateur. J’ai fait une photo, mais le résultat n’est pas superbe.

Vérification des disques au démarrage

Intéressant, non ? 😉

KVM par l’exemple : installation d’une mandriva 2008.1 AMD64 « virtualisée ».

Dans un article précédent, je parlais de KVM. J’ai récupéré une image ISO du DVD de la version « free » d’une Mandriva 2008.1 (alias 2008 Spring) pour AMD64.

J’ai donc décidé de créer une image de disque dur de 32 Go, et d’allouer 768 Mo à la machine virtuelle, ainsi qu’un circuit son ES1370.

La création d’une image disque est assez simple. Dans une console :

$ qemu-img create -f qcow2 mandriva.img 32G
Formatting 'mandriva.img', fmt=qcow2, size=33554432 kB

La ligne de commande de lancement est assez simple bien qu’un peu longue 😉

$ kvm -m 768 -hda mandriva.img -cdrom mandriva-linux-free-2008-spring-dvd-x86_64.iso -localtime -soundhw es1370 -boot d &

En gros : -m = taille de la mémoire en Mo, -boot désigne le lecteur de démarrage, -k donne le clavier à utiliser.

Voici donc l’écran de démarrage d’installation de la Mandriva 2008.1 :

Ecran de démarrage de Mandriva 2008.1 dans KVM

Pour me simplifier la tâche, j’ai laissé les options par défaut, utilisant KDE comme environnement de bureau principal. L’installation et la configuration a duré une grosse demi-heure. Le circuit son émulé fonctionne très bien, idem pour la connexion réseau. Et la résolution écran choisie colle à ce que je voulais : du 1024×768.

Cet article n’ayant pas pour but d’être un test exhaustif de la distribution en question, mais plus une preuve de faisabilité, je me limiterais à une capture d’écran : celle de Firefox 2.0.0.13 qui prouve que c’est bien une distribution 64bits qui est utilisée.

Firefox 2.0.0.13 dans une Mandriva 2008.1 64bits sous KVM

Je pense avoir trouvé MON outil de virtualisation, et j’avoue avoir été agréablement surpris par la qualité de KVM.

KVM : la solution « ultime » de virtualisation pour les libristes ?

C’est ce billet de LLamgui qui m’a donné envie d’utiliser une solution de virtualisation libre, KVM.

A cause d’un bogue ennuyeux qui « tue » le support de la touche ctrl de droite du clavier, rendant l’utilisation de VirtualBox impossible, et surtout voulant avoir une virtualisation« virtualisation d’OS 64bits sans passer par un logiciel propriétaire comme VMWare Server, je me suis tourné vers KVM. Et comme j’utilise un PC portable propulsé par une génération de processeur AMD intégrant un support matériel pour la virtualisation, pourquoi ne pas en profiter ? 😉

L’installation sous ma Ubuntu Hardy Heron AMD64 a été assez simple, ne demandant qu’un redémarrage pour me permettre l’utilisation de KVM sans passer par le compte root.

Maintenant, je pourrais virtualiser autant d’OS que j’aurais besoin. Sans me prendre la tête outre mesure et en restant dans le logiciel libre, ce qui me fait assez plaisir.

Reste deux logiciels propriétaires encore indispensable : le pilote pour mon circuit wifi, et celui pour mon circuit graphique nvidia… Et j’aurais une machine propulsée à 100% par du logiciel libre 😉

Un article d’aperçu de la Fedora 9 AMD64 sera le premier test grandeur nature de KVM sur ma machine 😉

Succombons à la petite mode « geekienne » du moment ;)

fred@fred-laptop:~$ history | awk '{a[$2]++ } END{for(i in a){print a[i] " " i}}'|sort -rn|head
14 cd
12 sudo
3 tar
3 ls
2 unzip
2 nslookup
2 mc
2 chmod
1 whois
1 ./update-sm.sh

Cette série de commande qui analyse l’historique de la saisie en console, je l’ai trouvé en fouillant sur divers planets, dont planet Fedora-fr, que je lis, bien que n’étant pas utilisateur de la distribution Fedora.

La dernière entrée étant celle d’un script que j’ai jadis rédigé pour automatiser la récupération du code source de développement de SeaMonkey.

Inutile donc indispensable : le test de geekitude ;)

Si l’on en croit la définition « wikipédienne » (oh, le beau néologisme), le geek est :

une personne passionnée, voire obsédée, par un domaine précis, généralement l’informatique. Le type même du geek a un profil scientifique et est féru de superhéros et de science-fiction.

A ne pas confondre avec le « nerd » :

une personne à la fois socialement handicapée et passionnée par des sujets liés à la science et aux techniques.

Cette précision faîte, cela nous amène au test de « geekitude ».

Mon score ? 16,28788 – Geek

J’avoue avoir été un peu déçu de la faiblesse de mon score.

Et si les « hardeux » faisaient les plus belles balades et slows ?

Passionné de musique – et ayant horreur de la daube musicale actuelle, en clair 85% de ce qu’on peut trouver en rayon de nos jours et spécialement quand c’est étiquetté « RnB » – j’ai fini par me poser cette question : et si les plus belles ballades et slows n’étaient pas l’oeuvre de « chanteurs à minettes » mais des groupes plus ou moins liés à un moment de leur histoire à ce qu’on appelle « Hard Rock ».

Et spécialement les groupes nés dans les années 1970-1980.

Liste non exhaustive des titres auxquels je fais allusion :

  • « Since I’ve Been Loving You » (Led Zeppelin – 1970)
  • « Starway to Heaven » (Led Zeppelin – 1971)
  • « The Rain Song » (Led Zeppelin – 1973)
  • « Bohemian Rhapsody » (Queen – 1976)
  • « Still Loving You » (Scorpions – 1984)

Je sais que mes références sont un peu « limités » en nombre de groupes, mais je n’ai fait que citer les groupes et titres qui me sont venus à l’esprit spontanément.

Webkit-gtk : Acid3 est presque passé ? :)

Je me suis basé sur la révision 31787 de WebKit-Gtk pour rédiger cet article. Après avoir lancé une compilation en activant le support du SVG – avec un ./configure --enable-svg-experimental – puis une fois la compilation terminée avec le programme de test GtkLauncher.

Si au premier passage, le test n’est pas passé, au second lancement, celui-ci se lance, donnant un résultat presque parfait, n’affichant qu’une erreur : « Linktest failed ».

Webkit r31387 sous Ubuntu Hardy Heron AMD64.

Au moins, cela laisse de l’espoir pour le futur d’Epiphany, dont la version 2.24.x (en clair, celle qui sortira avec Gnome 2.24 en septembre prochain) d’utiliser WebKit sans gros problème de rendu.

Filtrer les échange en pair à pair ? Assez dur, voire impossible !

Certains « défenseurs des droits d’auteur » dans le domaine musical veulent que les FAI filtrent les échanges en pair à pair sous prétexte que les technologies en question sont utilisées à des fins de copies illégales.

Les majors du disque n’ayant pas vu arriver le virage de la musique numérique et de leur rôle « sautable » d’intermédiaires entre les VRAIS producteurs de contenu et les consommateurs, pour voir à quel point leur peur de perdre une « rente » (vente de galettes plastifiés dont la technologie est vieille de 25 ans) les poussent à demander l’impossible.

En octobre 2007, un livre blanc demande la mise en place d’un filtre sur les flux en pair à pair, allant même jusqu’à l’idée de bloquer purement et simplement les technologies d’échange en pair à pair : quid de Skype qui utilise en toute légalité ce genre de technologie ?

[…]
« Par le biais du filtrage protocolaire, qui va permettre de bloquer le protocole des logiciels peer to peer. C’est le système de filtrage le plus efficace mais qui contient un risque : celui de faire barrage à tout type de téléchargement, y compris légal. Mais puisqu’on sait très bien que le peer to peer est pour l’essentiel lié au piratage, nous estimons qu’il ne faut pas tergiverser. Pour exemple, imaginez qu’un kiosque vende 98 % de journaux illégaux, faudrait-il le laisser ouvert sous prétexte qu’il y a 2 % de ventes légales ? Nous pensons que non. »

Nous affirmons que non, effectivement, un kiosque qui vend 98 % de journaux illégaux doit être fermé. Mais comparer un réseau P2P décentralisé à un kiosque de journal est encore une fois ne rien comprendre à ce qu’est le P2P. Et nous affirmons que même si 98 % des contenus d’un réseau P2P sont illégaux, le réseau lui-même ne doit pas être fermé. Contrairement au marchand de journaux, personne n’est à la tête du réseau P2P pour passer commande de « journaux illégaux ». Chaque client arrive avec ses journaux et se les échange dans le kiosque, sans qu’aucun dirigeant de boutique n’ait ni son mot à dire, ni la possibilité de dire quoi que ce soit. L’utilisateur légal propre sur soi ne voit jamais circuler les « journaux illégaux », car le réseau est neutre. Il est simplement une place d’échange entre utilisateurs, qui sont seuls et uniques responsables de ce qu’ils échangent.
[…]

Or, suite à la commande d’une étude, on s’aperçoit que ce genre de demande se prend une petite déculottée à coup de fléau d’armes :

Electron Libre nous informe qu’une synthèse des résultats a finalement été publié fin mars par Internet Evolution, qui a co-financé avec le SNEP l’étude commandée au Centre de Test Réseau Avancé Européen (EANTC). Les résultats, issus d’une analyse conduite entre avril et octobre 2007, sont timorés.

D’abord, ils sont comiques. Alors que les tests étaient tous frais payés par les commanditaires, sur 28 sociétés qui commercialisent des solutions de filtrage des réseaux P2P dans le monde, seules 5 ont accepté de soumettre leurs produits aux batteries de tests. Sur ces cinq courageux, trois ont eu tellement peur en voyant les résultats qu’ils ont choisi a posteriori d’exercer leur droit de véto à la publication des résultats. Sur les 28 candidats de départ, il ne restent donc que l’Américain Arbor/Ellacoya et l’Allemand Ipoque, qui ont accepté que leurs résultats soient publiés. Les autres sont visiblement dans les cordes et ont encore beaucoup de progrès à faire.
[…]
En revanche, lorsqu’il est activé, le brouillage de protocole réduit considérablement l’efficacité des routeurs de filtrage du P2P, avec un taux de filtrage qui chute à zéro pourcent sur eDonkey/eMule. L’option de brouillage est pour le moment désactivée par défaut sur eMule, mais il suffit qu’ils l’activent par défaut pour que tous les utilisateurs contournent avec succès le filtrage. Freenet, qui est entièrement crypté, n’est pas du tout détecté par les routeurs.

Sur BitTorrent, l’option de brouillage de protocole est moins efficace pour contrer les filtres, sauf lorsque l’ensemble de la communication (et non seulement les en-têtes des paquets) est cryptée. Dans ce dernier cas, le système de Ellacoya est totalement floué, et celui de Ipoque laisse passer près d’un paquet sur deux.

Les résultats montrent donc qu’il est en théorie possible de filtrer des protocoles cryptés, mais que la difficulté est beaucoup plus grande. Or là aussi, le jeu du chat et de la souris ne fait que commencer. Les réseaux cryptés ou brouillés sont encore jeunes et devraient beaucoup se développer cette année.

Je tiens à préciser que je ne nie pas que de la musique soit piratée, et cela a toujours existé. Seulement, ce n’est pas en attaquant les « vilains pirates » que les ventes repartiront. Car il y a une série de problème de taille :

  • La qualité du contenu des galettes
  • Le prix de ventes de galettes
  • L’offre qui est souvent d’un intérêt proche de zéro : citez donc une dizaine d’albums novateurs sorti depuis la fin des années 1970…
  • Les méthodes presques maffieuses utilisées par les maisons de disque : cf l’affaire dite de « la poule »
  • La musique n’est pas un besoin de première nécessité, et dans des périodes de berne pour le pouvoir d’achat…

Bref, les majors du disque et leur affidés continueront à mentir comme des arracheurs de dents, ne voulant pas se remettre en cause… Plus dure sera la chute…