Oui, on va me dire que je suis sacrilège, un enfant de trottoir, que je veux envoyer à la poubelle du matériel parfaitement fonctionnel. Déjà commençons par un point : j’écris ce billet le 26 avril 2020, soit une poignée de jours après la sortie de la nouvelle version supportée 5 ans de la distribution reine, celle qui est synonyme dans le grand public de Linux, j’ai nommé Ubuntu.
Comme le dit si bien NextINpact dans son article dédié à la sortie de la Ubuntu Focal Fossa :
[…]
Avant de plonger dans les nouveautés de Focal Fossa, signalons que cette version 20.04 prend en charge les scénarios de mises à jour depuis19.10 (la dernière classique) et 18.04 (la dernière LTS). Mais attention pour cette dernière : la nouvelle venue est exclusivement 64 bits et ne pourra donc pas réaliser une « upgrade » sur une machine à processeur 32 bits.
[…]
Petite parenthèse : n’étant pas abonné à NextInpact, j’ignore ce qu’il dise sur la volonté de Canonical de forcer l’adoption du snap. J’ai fait une petite vidéo pour exprimer mon point de vue ici.
Refermons la parenthèse.
Oui, sacrilège, on ne peut plus avoir la dernière Ubuntu LTS avec un processeur Intel ou AMD en 32 bits. Pour mémoire, en dehors de la période des mini-ordinateurs à la eeePC qui ont permis de produire des sombres étrons comme les processeurs Intel Atom, les deux principaux fondeurs de micro-processeurs pour ordinateur ne propose que des processeurs en 64 bits depuis fin 2003 voire mi-2004. Soit 16 ans !
J’ai retrouvé un dossier d’Hardware-fr sur l’Athlon64 à sa sortie en date de septembre 2003. Pour l’équivalent chez Intel, l’EMT64, c’est sur un artiocle d’août 2004.
Et oui, les derniers Pentium 4 étaient en 64 bits, notamment les 6xx et suivants. Pour les ordinateurs portables, c’est un peu plus complexe 🙂
Les vieux processeurs sont-ils pour autant condamnés à l’abandon si on est fidèle à la distribution de Canonical ? Que nenni ! Si on en croit le wiki d’Ubuntu, la 18.04.x LTS arrivera en fin de vie standard en… avril 2023 ! Merdre, encore 3 ans. Et on peut espérer, si on sort l’argent avoir 5 ans de prologation, soit avril 2028. Donc 8 ans.
Il est vrai qu’en 2023, utiliser des logiciels non critiques comme une vieille version de LibreOffice, la 6.0.x, alors que la 7.x.y voire 8.x.y sera la version supportée par les développeurs de la Document Foundation, ça ira… Mais est-ce que des ordinateurs qui ont souvent au grand maximum 4 Go de mémoire vive sont utilisables pour de la bureautique classique ?
Pour citer un article assez intéressant – et que je vous conseille – d’un blogueur dont je préfère taire le nom, un peu comme Tom Marvolo Riddle / Tom Elvis Jedusor dans la saga Harry Potter :
[…]
Il faut arrêter d’évoquer le mythe du Linux sauveur de vieilles machines en tout cas l’arrêter clairement en ce qui concerne toute forme de variante de *buntu. Effectivement au lycée les CORE 2 tournent correctement avec Debian Xfce à condition bien sûr que vous n’alliez pas sur le net. Il faut considérer que Linux sauf pour certaines distributions à vocation particulière sont une alternative libre au monde de Microsoft et d’Apple.
[…]
Vous me direz, bon, la Ubuntu principale, c’est mort pour le 32 bits. Mais le reste ? C’est non sur tout la ligne : que ce soit Kubuntu, Xubuntu, Lubuntu (oui, même elle !), Ubuntu Mate ou encore Ubuntu Budgie. Encore heureux, pour les vieilles machines 32 bits d’avant 2004 et les eeePCs restant en vie, il reste une bonne partie de la famille Debian, dont la Debian Facile Buster, descendante de la DFLinux et de la Handy Linux. Sans oublier l’excellente et plus qu’utile Emmabuntüs basée elle aussi sur Debian Buster depuis la mi-mars 2020.
Car il faut rester réaliste. Vous imaginez utiliser un ordinateur fabriqué vers la mi-2004 sur l’internet de 2020 ? Sans passer par un SSD pour lui donner une fin de vie honorable ? N’est-il pas mieux pour les ordinateurs en question – et encore en vie – d’être reconverti en stockage type NAS ? Je n’ai plus qu’un seul ordinateur en x86 de la dernière génération 32 bits, un vieil eeePC produit aux alentours des années 2010 qui est fonctionnel, mais dont le chargeur est mort…
Arrêtons-donc l’acharnement technique et – tant que cela est possible – utilisons du matériel plus récent que des processeurs vieux de 16 ans avec des cartes mères, de la mémoire vive et d’autres composants du même acabit. Du matériel sorti avant la première Ubuntu en octobre 2004…
Et oui, celle qui a pour nom de code la Groovy Gorilla alias Ubuntu 20.10 sortira pour les 16 ans du projet lancé par Mark Shuttleworth et son équipe.
En dessous de 2 go et 64 bits c’est la benne direct car un pc sans video ça sert pas a grand chose. Deja a ce niveau c’est des antiquités car maintenant il faut 8, 16 ,32 go de ram selon le travail que l’on fait sur son pc. Mais ce n’est que mon avis et tous les gouts sont dans. la nature. Perso une Artix Lxqt avec 2go de ram c’est une fusée, mon Arch Deepin avec 4go une fusée et ma PCLinuxOS Openbox avec 3 go de ram également une fusée.
La benne, rien que ça ? Envoyez-les moi plutôt. Je leur trouverai une utilité.
@ jp: un PC sans video ça sert pas à grand chose? Ça dépend pour qui, et pour quel usage. Exemples:
1. Pour un aveugle, une carte vidéo c’est pas super utile (sauf pour partager avec de voyants).
2. Pour un VPS, non plus. J’accède à ma VM Qemu située à Stuttgart en SSH, pas besoin de carte vidéo là-bas.
8 Go minimum ça fait beaucoup.
J’ai un portable en Core2Duo et 2Go de ram et il fait le travail : vidéo, bureautique, surf et sans problème. J’ai deux barrettes et avec 1Go ça se traine un peu.
En optimisant bien je placerai la barre à 2Go pour ma part.
je pencherais plus pour 4 Go maintenant.
Encore une fois ça dépend vraiment de ton utilisation. Même si c’est un appareil secondaire et que je m’en sers que pour faire de la lecture de vidéo, du surf (avec une dizaine d’onglets max) et rédiger quelques textes, je ne me trouve vraiment pas à l’étroit avec 2Go de ram, j’ai un peu de marge.
Il faut noter que sur internet on trouve facilement 2 Go de DDR2 neuve pour 10€ si besoin en était.
Je surfe et fait un peu de bureautique avec un core 2 et 2Gb de ram également. Il ne faut pas lui demander la lune mais ça passe. Mais on est d’accord, c’est que de l’appoint, on ne peut pas se contenter de ça aujourd’hui.
Si ils marchent encore quel est l’intérêt ? J’ai un vieux NAS Thecus abandonné par son constructeur qui a retrouvé vit grâce à Debian et il fait toujours aussi bien son boulot 10 ans après son achat pourquoi changer ? C’est de l’obsolescence volontaire… Il supporte très bien une Debian 10 et tous les algos à jour niveau chiffrement.
Ubuntu en 32bits c’est aussi l’impossibilité de faire tourner certains programmes avec Wine et Steam. Quel intérêt d’empêcher des utilisateurs d’ordinateurs très récents de pouvoir utiliser ces logiciels ?
Ça me rappelle un scanner Canon acheté 2 ans avant le passage de Mac sous Intel, Canon n’a jamais sorti de drivers pour Intel et le matériel était bon pour la poubelle.
A titre professionnel sur des serveurs à jour on fait encore tourner des progiciels 32 bits qui ont besoin des librairies du système en 32bits aussi. Quand les clients ont payé leur logiciels des centaines de milliers d’euros ce n’est pas décent de les forcer à repayer tant que c’est pas amorti ou les forcer à garder des serveurs obsolètes.
Ça sent l’article lu en diagonale. Mais je vais quand même répondre.
Si le matos fonctionne encore, autant l’utiliser, mais il ne faut pas se faire d’illusion sur la durée de vie restante du dit matériel.
Ubuntu 64 bits supporte encore très bien le multilib. Par exemple, le paquet gcc-multilib pour la Focal Fossa alias 20.04 LTS : https://packages.ubuntu.com/fr/focal/gcc-multilib
Ou encore steam qui est annoncé comme un paquet i386 : https://packages.ubuntu.com/fr/focal/steam
Pour wine, les deux architectures sont supportées : https://packages.ubuntu.com/fr/focal/wine
Bref, argument non recevable en ce qui concerne la non possibilité d’avoir certains vieux titres dans Steam et logiciels sous Wine.
Sur le dernier point, je suis d’accord. Les serveurs en 32 bits resteront le temps qu’ils tournent encore, mais cela ne durera pas éternellement. La migration devra se faire un jour ou l’autre vers du plus récent, pour des raisons de support technique ou simplement de consommation électrique.
Sur ce, bonne continuation.
Sur des ordis 32 bit, Ubuntu n’a plus de raison d’être à mon avis. Trop lourd, trop de services chargés au démarrage, y compris avec les variantes. Même un Lubuntu, c’est pas si léger que ça… et il existe d’autres distros bien mieux adaptées à mon avis (Antix, Puppy, Slitaz…) aux ordinosaures.
Encore faut-il avoir un processeur supporté. Les AMD K6 sont reconnus comme des i586 et c’est niet pour Debian et sa famille.
Salut Fred,
Beaucoup d’ordis 32bit sont encore fonctionnels, et encore davantage avec des systèmes gnu/linux adaptés. AntiX et Puppy sont destinés aux ordinosaures, même si (nous sommes d’accord) en dessous d’1Ghz + 1Go Ram, ça devient dur d’en tirer quelque chose…
Mais quand je vois le nombre de déchets informatiques, et d’ordis utilisables qui finissent à la benne (« parce qu’il est lent » justifient souvent les propriétaires, sans faire la distinction entre la machine et l’OS), et plus tard dans des décharges sauvages en Afrique, j’ai du mal à adhérer complètement à ton propos.
Pour moins d’un Go de ram et du Ghz symbolique, mis à part un NAS basique ou être une machine de musée, je ne vois pas.
Pour le manque d’éducation de l’utilisateur, il n’y a rien à faire, on ne peut pas éduquer outre mesure les personnes qui ne voient – peut-on leur donner tort – qu’un outil dans les ordinateurs.
Après, la gestion du moins disant en terme de prix, cela donne les décharges sauvages dans les pays du Tiers-Monde.
Bon, pour info la plus récente version de Slint ne supporte que l’architecture x86_64, simplement parce que je n’ai pas le temps de tenir à jour deux architectures en parallèle étant tout seul.
Cela dit, la première machine que j’ai utilisée professionnellement (je ne compte pas la Programma 101 d’Olivetti qui avait des programmes extérieurs sur carte magnétique) avait un processeur Intel 8080 (8 bits), 64 kilo octets de mémoire vive, un OS maison (DTC Microfile): assez pour faire tourner un traitement de texte, un compilateur Fortran (si je me souviens bien, c’était en 1977) et un interpréteur BASIC (pas en même temps, bien sûr). J’ai même pu charger en mémoire un deuxième BASIC pour traduire en Français les mots-clés et les messages d’erreurs en patchant directement l’exécutable , sauvegarder et ainsi avoir un BASIC en Français 😉
Sinon, Storm Dragon a sorti Stormux (image amorçable de Arch, accessible) pour Raspberry Pi et le bureau Mate de la version pour Pi4 B https://www.raspberrypi.org/products/raspberry-pi-4-model-b/specifications/ est paraît-il assez rapide pour être utilsable (je n’ai pas essayé, n’ayant pas le matériel). O tempora, O mores…
Bah ça fait chier de mon point de vue, j’ai pas mal de gens qui ont encore des ordinosaures, de mon coté j’en ai bien encore 3 (2 portables et un fixe) et honnêtement je ne compte pas m’en séparer car ils font le taf comme ils peuvent.
openSUSE Leap a abandonné le 32 bits depuis quelques versions, la version rolling quant à elle continue mais pour combien de temps? Debian garde pour le moment une version 32 mais là encore pour combien de temps…
Alors j’admets que c’est de plus en plus dur de faire tourner un 32 bits puisque les applications sont toujours de plus en plus lourdes, mais en cherchant bien on gagne en changeant ses application, son environnement. Comme passer de GNOME ou KDE à XFCE ou encore mate, libreoffice remplacé par gnumeric et abiword, thunderbird/evolution /kmail par claws-mail, firefox est plus dur à remplacer mais on trouve.
Après ça fait bien 15 ans qu’il n’y a plus de PC 32bits dans le commerce, mais c’est quand même poussé à l’obsolescence.
Comme tu le dis si bien « ils font leur taf comme ils peuvent ». C’est à dire qu’ils sont en train d’être de plus en plus poussifs ?
Le rolling en 32 bits, je t’avoue que je n’en vois plus trop l’intérêt. Même Manjaro a laissé tomber sa version Manjaro32 courant mars 2020 : https://forum.manjaro.org/t/manjaro32-got-removed-from-our-mirrors/132267
Changer de logithèque pour du plus léger, c’est juste reculer le moment où il faudra débrancher la prise.
Ta dernière remarque est assez contradictoire : n’oublie pas que même si le ralentissement de la montée en puissance des ordinateurs datent des années 2010, 15 ans, ça nous ramène en 2005, à une époque où changer le matériel tous les deux ans était indispensable.
Pousser à l’obsolescence ? Je veux bien qu’on garde des véhicules bien entretenus plusieurs décennies, quitte à s’approvisionner en pièces détachées. Va trouver de la mémoire pour de tels ordinosaures…
il y a 3 principales raisons d’abandonner le 32 bits au niveau architecture
1) ceux qui ont vendu des cartes-meres 32 bits , souvent sans EFI , essayer de démarrer un 64 bits , vous verrez il n’y en a pas beaucoup.ajouter à cela la mémoire max limité a 4Go , dont une partie est réservé pour la video& système ( 1Go ) , mais pour des ecrans 4K et plus ?
2) ceux qui ont vendus des processeurs 32 bits , avec toute ces solutions en limitation , performance ( parce que l’on veut que cela soit moins cher ) , et maxi 2 coeurs , de nos jours pénalisés par les failles de sécurité Intel ( perte de 30 a 40% sur un dual 2 core )
3) évolution dans le temps des performances , Nmve , Ethernet 10Gbit , video 4K et plus , USB-C , qui demande aussi les buffers suffisants en mémoire
au niveau des os , on ne garde le 32 bits que pour la compatibilité des jeux,
ou virtualisé
rappel un portable PineBookPro coûte 399 dollars et a de bonnes performances ( quad core) , penser a prendre un cable USB-C + alimentation pour le portable
Garder des ressources pour maintenir une distrib en 32bits parce que 3 péquins n’ont pas changer de matos depuis 20 ans …
Un laptop « refurb » i3, 4Go et SSD 128Go ça coute 200 balles, faut pas pousser quand même …
Beaucoup de « péquins » n’ont pas les moyens (et parfois pas l’envie) de changer de matos. De toute façon, comme je l’ai dit plus haut, Ubuntu et ses variantes se sont trop alourdies ces dernières années pour pouvoir être désormais envisagées sur du vieux matos. Donc l’absence de 32bit de cette distribution est désormais un faux problème à mon sens.
Hypocrisie pure et simple.
C’est facile de trouver en occasion des PC complets (tour, écran, clavier) à base de core2 duo ou de i3 première generation pour moins de 100€ voir encore moins.
J’ai failli en acheter un Dell complet à 50€ pas plus tard que ce week end… avant que ma moitié me fasse remarquer qu’il y avait déjà 8 à la maison (dont un destiné à la base à la déchetterie, 3 acquis pour 50 balles etc). Bref le 32 bits c’est le passé, autant l’enterrer.
Je ne parle pas que de coût financier, mais de motivations « écologiques ». Tant qu’un appareil est opérationnel, pas de raison de le jeter. Mais cela semble vous dépasser.
Opérationnel, mais avec quel rapport consommation d’énergie / utilisation ?
On parle d’ordinateurs construits au bas mot il y a 10 à 15 ans…
@Fred: La question du rapport consommation/service fourni est intéressante. Mais j’y mettrai deux bémols dans cette discussion:
1/ La puissance électrique n’a globalement pas évolué de manière fondamentale (hors séries extrêmes). Les fondeurs s’en tiennent à une enveloppe électrique et la puissance a augmenté au fil des années. Selon Tom’s Hardware la différence de consommation d’un i7 entre 2011 et 2019 est assez faible en charge (entre 10 et 20 W), simplement on mettra plus de temps pour réaliser une tâche (et encore sur des encodages lourds ou du jeu bien gourmand pour le reste pas sûr que l’on voit la différence).
2/ Il faut savoir que généralement, sur un produit manufacturé électronique, l’étape construction est la plus impactante d’un point de vue environnemental, que ce soit en terme de consommation énergétique, de consommation des ressources ou d’émission en équivalent CO2 par exemple, et de loin. La phase utilisation est clairement minoritaire. Donc il vaut mieux faire durer que de recycler quand c’est possible et que ça a du sens.
Il n’y a pas que les processeurs qui consomment : quid de la carte mère, de la mémoire, des supports de stockages mécaniques ou sous formes de cellules flash ?
Tant que les pièces tiennent le choc, soit. Mais il faut savoir aussi ne plus s’acharner quand le moment est venu.
Côté consommation électrique ? https://www.materiel.net/guide-achat/g7-les-ssd/2/
SSD : 0,5 à 2 watts
Disque dur : 5 à 9 watts
Déjà, ça peut pas mal jouer sur la consommation générale d’un ordinateur. Et que dire des cartes graphiques qui demande à être connecté sur l’alimentation centrale.
La GeForce 9600GT consomme plus d’une centaine de watts en action… https://www.clubic.com/article-126876-3-nvidia-geforce-9600-gt-review-test.html
Fred, c’est pas compliqué il suffit de voir les alims pour se rendre compte que la puissance n’a pas diminué drastiquement depuis une dizaine d’années.
En parlant des cartes graphiques, les GTX 1060 et plus récemment les GTX 1660 qui sont positionnées à peu près au niveau de la 9600GT chez Nvidia à l’époque, consomment peu ou prou la même chose 100-120W. Et je ne te parle même pas des gammes au-dessus qui tutoient les 200W. La puissance est sans commune mesure mais 12 ans après, la consommation est à peu près équivalente.
Je suis d’accord, mais la consommation de certains composants a été pas mal réduite. Après, les 32 bits s’éteindront au fil des années, quoiqu’en disent nombre de personnes. Rien n’est éternel, sauf la bêtise humaine 🙂
« la consommation de certains composants a été pas mal réduite »
Je ne dis pas le contraire mais c’est une illustration du paradoxe de Jevons (ou le fameux effet rebond). L’efficacité s’améliore mais la consommation stagne car on répond à de nouveaux besoins ce qui annihile les gains. On a en 2020 des PC qui doivent être X fois plus efficaces énergétiquement parlant mais qui fournissent X plus de service que précédemment, si bien que la consommation n’a pas diminué. Ça sert à faire marcher le commerce mais on se retrouve avec du matériel surdimensionné dans beaucoup de cas (heureusement (!) les éditeurs de logiciels s’arrangent pour que ça ne se voit pas 🙂
Maintenant je comprends les possesseurs de matériel 32bits, étant moi-même possesseur, mais je suis comme toi d’avis qu’en 2020 il est tant de rapatrier les ressources sur le 64bits et malheureusement de laisser le 32bits mourir de sa belle mort.
On serait sur internet de la fin 90 avec des pages hyper light ça ne poserait pas de problèmes. Mais même internet devient lourd et le matériel ancien commence à grincer.
@Frédéric : Attention à ne pas confondre date de la commercialisation du premier processeur X86-64 ET fin de commercialisation des derniers processeurs X86.
L’atom 32 bits a été fourni par Intel jusqu’à mi 2013 (Z670), donc il y a bientôt 7 ans. Et même si ce sont des étrons, il est à parier qu’ils en ont vendu quelques millions (dont tu fais partie). Autant de matériel qui n’a même pas 10 ans d’âge donc les mettre à la benne c’est un peu radical.
Et en réponse à « Mais est-ce que des ordinateurs qui ont souvent au grand maximum 4 Go de mémoire vive sont utilisables pour de la bureautique classique ? » je dirai oui (j’ai un des derniers P4 32 bits avec 2Go de ram) mais sans forcer. Le pire ce sont les navigateurs qui mettent à genou le CPU. L’obésité des pages internet a fait des ravages.
Même si je suis d’accord avec Zorzi sur le côté écologique, ça commence malgré tout à craquer de partout même en sélectionnant son bureau, et ses outils pour qu’ils soient les plus légers.
15 ans ça commence à faire beaucoup, par contre je ne vois pas l’intérêt de changer de PC si on a un matériel qui a 10 ans d’âge en moyen-haut de gamme. Avec l’apparition des core i7 / phenom II en 2009 on a franchi un cap.
Heureusement, il est loin le temps de la « loi de Moore », cette époque à laquelle un ordinateur était obsolète 18 mois plus tard. Je me rappelle de mon ordi flambant neuf acheté en 2000, plus bon à rien deux ans plus tard (enfin surtout au niveau du « gaming »…).
Le marché a quand même passé un cap après 2008 (la preuve, mon ordi actuel date de cette année-là).
Attention, tu sembles confondre la loi de Moore avec l’obsolescence (programmée ou non d’ailleurs) du matériel. Ce n’est pas du tout la même chose
La loi de Moore dit que la puissance de calcul double tous les ans, à cout égal. Il ne dit pas que les éditeurs vont se débrouiller pour que leurs soft ne tourne plus correctement si tu n’as pas le dernier matos …
N’étant pas un gamer, je peux t’assurer que je ne change de matos que quand ca pête. Et quand ça pête pas ba ca tourne comme au premier jour
Cela revient au même pour moi. Plus la puissance d’un ordi double rapidement, plus le matériel devient « obsolète ».
Ok, donc tu mets tout dans un chapeau : loi de Moore, obsolescence, ancienneté, crème glacée, etc.
et on se débrouille pour faire le tri
Pourquoi pas :p
Hola ! petit « pavé réaction à chaud » face à certains commentaires :
C’est triste de devoir se séparer de matériel fonctionnel et l’obsolescence programmée est un fléau. La dessus, je pense que nous sommes tous d’accord.
Mais ne parlons nous pas le cas présent d’obsolescence simple !?
Au final, Linux aura assuré un support de 15 ans à ces matériels…soit en moyenne 3 fois plus que la durée de vie moyenne d’une machine grand public !
(cf. données d’une étude de 2011 commanditée par les éditeurs qui ont du surévaluer ces données en redressant les résultats – résultats dispo sur Cnet).
A titre de comparaison : la norme industrielle de disponibilité des pièces est de 10 ans.
Rapide bilan, les machines concernées sont :
– Agées,
– Bien plus susceptibles de tomber en panne,
– Possibilité limitée de se fournir en pièces détachées,
– Avec des capacités limitées ou très fortement réduites vis-à-vis des pré-requis actuels.
Donc on parle de devoir :
1- maintenir des ressources humaines,
2- tordre des outils ou du code pour pouvoir s’adapter à la version x32
Le tout pour au final s’assurer que 0,001 % du matériel puisse fonctionner ? Sachant que dans un avenir plus ou moins proche, ce nombre va réduire drastiquement.
La vraie question, combien de personnes sont concernées par cet abandon dans leur usage quotidien ?
Je suis a peu près certain que les utilisateurs Linux sont des « Jean Michel Réparation » non représentatifs, que l’on sollicite très souvent du fait de leurs compétences, pour voler au secours de vieux tromblons et à qui ont demande l’impossible en termes de maintenance.
Coté Pro : idem. Quel est le pourcentage concerné ?
On parle de boites qui …
1 – Maintiennent un matos vieux de 15 ans sans support,
2- Le tout sous Linux, SANS support tech pour assurer le suivi (sinon, si t’as ce genre d’infra, tu as le personnel qui va avec),
3- Et font les MaJ la fleur au fusil sur du matos vieux comme Hérode.
Avec ce profil là, le 0,0005 % concerné n’a pas besoin de fin de support x32 pour aller droit à la cata….ils ont tous les pré-requis pour y aller sans souci.
Mot de la fin : à force de tout vouloir faire fonctionner, on se retrouve dans une situation où rien ne marche à 100 %
noooo je refuse de lâcher ma emachine avec processeur de merde mais qui passe partout que je met dans ma glacier du boulot
Rien n’est éternel, pourtant.
Bonjour, non moi j’ai encore des vieux processeur 32 bits comme le p2, p3, p4,.. Donc non il fais les passé à debian, mais surtout pas les jeté à la poubelle, il peuvent être encore utile !
Si tu le dis. J’attends de voir un Pentium 2 encore utile 23 ans après sa sortie…
https://fr.wikipedia.org/wiki/Pentium_II
Et oui, le MS-Windows le plus avancé à l’époque de la sortie du Pentium II, ce devait être MS-Windows 95 OSR-2…
Windows 95 OSR-2 était une sacré belle merde, ça c’est certain. Avec un OS un peu plus décent on peut tirer quelque chose de ce processeur. Mais il est évident que cela reste limité, surtout en raison de la lourdeur des applications actuelles qui ne sont plus optimisée pour ce type d’architecture.
Bonjour Fred
Je vais faire mon gentil troll mais il est possible de télécharger un ISO 32 bits de Windows 10 sur le site de Microsoft 🙂
https://www.microsoft.com/fr-fr/software-download/windows10ISO
Plus sérieusement, il serait temps d arrêter l acharnement thérapeutique sur le 32 bits pour les distributions bureautiques.
Je peux comprendre l argument écologique mais on ne peut pas bloquer les évolutions technologiques juste pour maintenir pendant 20 ans du matériel. Surtout que les processeurs 64 bits vont très probablement durer très longtemps. Il me semble que Fred avait réalisé une petite vidéo sur la quantité de mémoire vive que peut gérer un processeur 64 bits.
DENIS : Je ne suis pas pour maintenir le 32 bit ad vitam mais en quoi est-ce que ça « bloque » les évolutions technologiques ?
Je pousse un peu mais franchement la roue ça avait de la gueule. Le moteur c’était chiadé. Les médicaments une belle trouvaille.
Avoir un processeur 6 coeurs et 16 Go de ram pour écrire deux mails, surfer sur quelques sites, je ne vois pas en quoi ça rend la société meilleure XD
Vu la taille moyenne des pages web qui a dépassé la taille de l’installateur du premier doom début 2016 – https://www.pcworld.com/article/3060622/the-average-web-page-is-now-larger-doom.html – avoir un ordinateur qui ne rame pas du cul, c’est mieux pour ta consommation d’électricité 🙂
Cyril : Ce que je veux dire si on propose des systèmes d exploitations 32bits ce n’ est pas pour utiliser un processeur récent.
Pour que l expérience utilisateur soit satisfaite, il faudrait optimiser les logiciels pour tourner sur des processeurs anciens. Ce qui reviendrait à bloquer des évolutions technologiques. Heureusement ce n’ est pas le cas tu le dis toi même plus haut « Et en réponse à « Mais est-ce que des ordinateurs qui ont souvent au grand maximum 4 Go de mémoire vive sont utilisables pour de la bureautique classique ? » je dirai oui (j’ai un des derniers P4 32 bits avec 2Go de ram) mais sans forcer. Le pire ce sont les navigateurs qui mettent à genou le CPU. L’obésité des pages internet a fait des ravages. ».
« Il est vrai qu’en 2023, utiliser des logiciels non critiques comme une vieille version de LibreOffice, la 6.0.x, alors que la 7.x.y voire 8.x.y sera la version supportée par les développeurs de la Document Foundation, ça ira »
Lapin compris? En quoi c’est gênant que la DF ne fournisse plus de binaires sous Linux en 32bit alors que les distributions comme Debian s’en charge (version i386 de la 6.4.3 disponible). Il me semble que le support 32 bit de LibreOffice stricto sensu n’a pas été abandonné, non?
Euh, je vais dire quelque chose de complètement bête… Mais imagine que la Document Foundation profite pour nettoyer le code spécifique à une architecture matérielle officiellement abandonné, dans notre cas le x86 en 32 bits, ils vont faire comment les mainteneurs de Debian pour le rétablir ? Des dizaines de patchs à rajouter qui pourraient compromettre la sacro-sainte stabilité ?
Peut-être que cette purge du code inutile ne sera pas faite, mais ce n’est pas une option à écarter.
Sauf que tu inverses la logique 😉
Pour le moment ils n’en ont pas parlé et rien n’indique que la version 7.0 de Libreoffice dont la sortie est prévue en août, ne délaisse les architectures 32 bit.
Bien sûr qu’ils le feront pour alléger le code, mais personne ne peut dire quand. Donc ta remarque sur l’abandon par la DF des versions 7 ou 8 en 32 bit n’est pour le moment pas à l’ordre du jour. Ce n’est pour moi pas encore un argument pour abandonner le X86.
Pour le reste je suis globalement mais j’aime bien couper les cheveux en quatre 🙂
Tout de suite, les grands maux 🙂
La génération 7.x continuera de supporter le 32 bits, tant mieux. En comptant 5 versions – une par semestre – par génération, ça nous amène vers 2023, voire 2024.
Rien ne dit que la génération 8.x supportera encore le code qui permet de faire fonctionner l’ensemble en x86_32.
Dans 4 ans, quel sera le pourcentage de machines encore en vie utilisant du x86_32 uniquement ? 1% en comptant très large ?
Je ne parle pas du multilib, indispensable pour Steam et compagnie, bien entendu 🙂
Ouaip donc 2024 ;p
En tout cas les utilisateurs de LibreOffice sous linux 32 bit ne peuvent que remettre leur sort dans les mains dans ceux sur Windows. Italo Vignoli l’a dit l’année dernière, si le nombre de téléchargements de LiBo sous win_X86 diminue encore ç’en est fini définitivement du support !
Et bien voyez vous mes amis, si je regarde le package libreoffice sur Debian, il fonctionne actuellement sur mips 32 bit, PowerPC 32 bit, Motorola 68000 (32bit), Alpha, hppa pour ne citer que les plus obscures architectures. S’il faut bien admettre que le x86 est en déclin constant au fil des ans, on est encore loin du point ou se pose sérieusement la question de son maintient ou non dans Debian ainsi que dans les principaux logiciels tel que libreoffice. Alors oui, cela finira par arriver un jour, mais il me semble que l’on en est encore loin, même si j’admets volontiers que l’avenir est imprévisible.
Debian Buster, la stable actuelle sera maintenu jusqu’en 2024 pour sa période LTS. On verra d’ici là. Mais le dernier mot sera dit par les développeurs de LibreOffice qui décideront ou non de continuer à maintenir en vie le code qui permet de faire fonctionner la suite sur des processeurs 32 bits.
A un moment, y’en a un qui tranchera. Quand torvald fera le ménage dans le noyau
Le code spécifique au noyau i386 a été viré… En décembre 2012.
https://www.zdnet.com/article/good-bye-386-linux-to-drop-support-for-i386-chips-with-next-major-release/
Oui mais bon y’a eu pléthore de processeurs x86 après les i386 (qui ont eu 22 ans de support Linux) 😉
Les 486, les Pentium/Pentium II/III et IV chez Intel, la série des 5×86 et 6×86 avec ou sans MX chez Cyrix, les K5 et K6/K6-2 et K6-3, et la première génération d’Athlon d’AMD. Sans oublier les versions castrées comme les Celeron, Duron et compagnie.
Je pense que j’ai cité 90% des 32 bits sortis après le 386, non ? 🙂
Je ne m’adonnais pas à un jeu de devinettes mais je n’ai simplement pas compris ta remarques sur l’abandon des i386 par le noyau Linux en 2013 ??
Simplement que le code pour les vieux processeurs risquent d’être une réalité au fil des années… Quand la génératon des Pentium va être concernée, ça va commence à chauffer pour certains 😀
L’architecture x86 est un sujet extrêmement intéressant. Pour les archéologues du x86 je vous conseille fortement le site https://x86.fr/. Y est évoqué en particulier un appareil qui permet d’analyser n’importe quel processeur x86, des plus anciens aux plus récents. Pour le dire franchement, cet appareil ne sera utile qu’aux collectionneurs, car qui d’autre a besoin d’analyser un processeur x86 en 2020, mais cela reste un sujet passionnant, surtout pour le coté historique de la chose.
Pour un maximum de 3 machines Ubuntu accorde le support de la 18.04 sans bourse délier jusqu’en 2028. De quoi utiliser son CPU 32 bits jusqu’au bout du bout.
J’imagine que d’autres distribution prendrons le pas pour continuer le support encore plus longtemps. Évidement le nombre d’applications disponibles sur cette architecture ne va faire que diminuer au court du temps. J’imagine qu’il sera néanmoins toujours possible d’effectuer quelques taches de base.
Concernant les Snap, je suis totalement pour cette techno, mais elle n’est malheureusement pas encore au point. Démarrage d’application lent et thème mal intégré. C’est une demi-erreur de canonical de l’avoir forcé aussi tôt.
Cependant il est très facile de contourner les snap. Il suffit d’installer « Gnome software » depuis synaptic et ensuite on peut tout désinstaller dessus ( même le snap store). ça se fait en deux deux.
Pour un format obscur, dont la viabilité repose sur les personnes qui proposent les dits paquets et qui n’est activé nulle part ailleurs que sur Ubuntu ?
Quant à ta manip, quid de la stabilité à long terme de l’ensemble ?