Suite à deux articles, l’un sur la démultiplication des distributions GNU/Linux disponibles, l’autre sur les risques du fork compulsif, j’en viens à me demander – en gaspillant de precieuses ressources si j’en crois certains esprits chagrins, si on n’assiste pas au final à un combat stérile entre une partie des développeurs et les utilisateurs « finaux ».
Pour la énième fois, je vais devoir m’expliquer, car il n’y a pas pire sourd que la personne qui se masque les oreilles.
Je ne suis pas contre le fork, mais contre son application compulsive qui finit par desservir le logiciel libre.
C’est bien beau de proposer le énième gestionnaire de paquets pour la beauté du geste, mais pourquoi ne pas aider à améliorer l’existant ? Simple question, hein. Je ne suis pas développeur mais juste un utilisateur qui apprécierait de voir son gestionnaire de paquet être amélioré.
Idem pour les gestionnaires de fenêtres, les outils du genre archiveurs, lecteur audio et / ou vidéo, implémentation libre de cette immondice technologie qu’est Flash, bref des outils que l’utilisateur final emploiera régulièrement.
Réinventer la roue, c’est bien beau sur le plan technique, mais au final ? On va se retrouver avec 15 outils complémentaires et / ou concurrents. On aura la diversité, ce qui est bien, même souhaitable. Mais au final, cela rendra plus complexe l’outil informatique pour l’utilisateur final, ce machin grognon, l’homme de Néanderthal aux yeux de certains développeurs.
Le choix, la diversité, le fork, c’est très bien. Mais quand on tombe dans l’excès… Bref, je sais très bien ce que certaines personnes diront. Elles l’ont déjà dit de manière plus ou moins sociale dans les commentaires.
Cette abondance de choix donne aussi l’impression que le logiciel libre est à l’image des processeurs ARMs : un joyeux bazar labyrinthique, indémélable. Quoique Linus Torvalds a des mots très doux sur les concepteurs de circuits ARM.
C’est bien beau de laisser beaucoup de choix, mais avec trop de choix, l’utilisateur finit par se dire : « Bon, je fais quoi maintenant ? Mon Windows XP est mort, je me tourne vers une distribution GNU/Linux, mais laquelle ? Il y en a tellement. Laquelle est la mieux adaptée pour moi ? Je vais vers Windows 7 pour rester dans un environnement que je connais ? J’investis dans un Mac en m’endettant sur 6 mois ou un an ? »
L’utilisateur d’informatique cherche une simple chose : utiliser son ordinateur. La liberté du logiciel, il s’en contrefiche un peu au final. Tant que ça fonctionne. Ca m’horripile, mais avant de découvrir le libre, en 1996-1997, j’étais aussi dans ce cas de figure.
Alors, soit on fait une révolution copernicienne et on se dit : oui, il faut forker, mais en restant raisonnable, on joint nos forces pour améliorer l’offre actuelle, un peu à l’image du projet LxQT. Et la situation bougera enfin dans le sens d’une démocratisation réelle des distributions GNU/Linux.
Si on conserve la situation actuelle avec des distributions interchangeables car la recette de base est la même, qui n’apporte rien si ce n’est rallonger la liste déjà longue des distributions.
Mais ce serait aussi respecter le logiciel libre et les fondements que sont le choix et la possibilité de forker. Et c’est tout aussi bien, au moins sur le plan purement technique.
Une image qui me vient à l’esprit, c’est celle de l’informatique personnelle des années 1980-1990. Il y a eu une floppée de micro-ordinateurs 8, 16 et 32 bits, tous plus ou moins imcompatibles entre eux : Amstrad CPC 464/664/6128, Zx80/81, Spectrum, Atari ST, Amiga 500/600/1000/1200/2000/3000/4000, Commodore 64 et Vic 20, Thomson MO5/MO6/TO7, Oric, et combien d’autres ?
Au final, il existait deux « standards » en devenir, le Mac d’Apple et le Compatible PC d’IBM. Qui aurait parier sur eux ?
La rationalisation se fera aussi dans le domaine du logiciel libre, mais combien de temps cela prendra au final ?
> Au final, il existait deux « standards » en devenir, le Mac d’Apple
> et le Compatible PC d’IBM. Qui aurait parier sur eux ?
Euh…. il reste des différences (Intel, PCI, SATA…, tout est identique désormais)
Par contre je pense qu’il ne faut pas oublier PowerPC (ok, uniquement dans la monde pro, vu que la PS4 est repassé en Intel) et ARM, sur de plus en plus d’équipements mobiles.
Sinon, sur le fond du fork à tout va, je voudrais rappeler un point qui me tient à cœur : « upstream ».
Oui, les distributions sont utiles, car c’est elles qui réalisent le travail d’intégration et fournissent un « livrable » utilisable par presque tout le monde (qui est capable d’installer LFS ?).
Par contre le plussoie ton regret des forks trop nombreux.
Le boulot doit se faire « upstream » avant tout, c’est à dire dans les projets utilisés dans les distributions. Et c’est là que les « gaspilleurs » d’énergie devraient s’impliquer. Il y des milliers de projets, petits ou énormes, qui ont besoin d’aide.
Et c’est bien en améliorant ces projets qu’on améliorera globalement la qualité de GNU/Linux.
Et il y aussi besoin d’énergie pour la documentation, les tests (QA), le support, etc… (à la porté de quasi tous les utilisateurs).
Bref, il y a du boulot, et (amha) un gros besoin d’énergie. Ce qui comme toi m’agace quand je vois tout ce gaspillage !
« Certains développeurs de logiciels libres oublient-ils qu’il y a des utilisateurs ? »
Les développeurs comme les utilisateurs sont libres de faire ce que bon leur semble. C’est leur liberté. Au final certains produits correspondent aux besoins du plus grand nombre, d’autres sont plus ciblés et, parfois, certains sont ratés. La belle affaire.
Mais au final pourquoi vouloir monter artificiellement les uns contre les autres. C’est cette attitude qui est stérile. Si un produit est loupé ou ne correspond pas à ses besoins propres on l’ignore. C’est tout.
Liberté, que d’énergie utilisée en ton nom 😉
Je ne cherche à monter personne contre personne. Je fais un constat. Qu’il déplaise, tant pis.
Mais il faudra bien un jour ou l’autre qu’une rationaliation aie lieu, comme avec l’exemple du rapprochement Lxde – RazorQT.
Entièrement d’accord avec le propos, forker compulsivement est surement une perte d’énergie et de ressources. Améliorer l’existant est probablement une meilleure solution. Ensuite les problèmes d’égo (comme le dit Jean Carle en com sur G+) devrait passer au second plan (enfin c’est mon avis).
Entre la théorie et la pratique. Quand les personnes comprendront qu’il vaut collaborer que forker compulsivement, que rapprocher des projets ayant le même but est bénéfique, on aura fait un pas de géant dans la bonne direction 😉
Mais c’est un peu le syndrome Linux dans toute sa splendeur, « trouzemille » façons différentes de faire la même chose, n’est-il pas ?
Avec les avantages et inconvénients inhérents à ce syndrôme.
C’est oublié un peu vite ce pourquoi les dev codent: s’amuser dans une bonne partie des cas. Or entre prendre du temps à lire une doc, tester et apprendre un autre outil, ou bien d’un autre côté s’amuser depuis une page blanche, ils prennent la page blanche.
Un utilisateur veux que ses applications fonctionnent bien, normal. S’il est un dev il fera un effort pour améliorer sa situation de user mais ça ne risque pas de l’amuser pour autant.
Bref, ça n’avance qu’avec les user+dev, ce qui n’est pas si courant 🙂
Je suis d’accord. Mais cela finit par conduire à une situation qui bloque l’utilisateur final. Sans qui le développeur n’aurait pas de débouchés.