Aller au contenu | Aller au menu | Aller à la recherche

Dans les entrailles du Libre

Mot-clé - Pensées

Fil des billets - Fil des commentaires

mar., 21/11/2017

La sécurité, l'obsolescence et la maintenance des systèmes embarqués

Il est assez banal de dire que de plus en plus d'équipements modernes sont connectés au réseau. Cela apporte de nouvelles fonctionnalités, la possibilité d'améliorer le produit même une fois vendu par des mises à jour mais aussi des problèmes de confidentialité et de sécurité.

Les systèmes embarqués sont particulièrement concernés par ces problématiques, que les industriels traitent parfois mal et dont les consommateurs sont rarement dans le vrai également.

C'est de cette problématique dont on va parler.

Obsolescence programmée ?

Ce terme revient souvent dans ce genre de discussions. Que l'abandon du support d'un produit, comme par exemple l'absence d'une mise à jour Android, ou que justement la mise à jour de trop rend le système trop lent (cas de certains iPhone) serait une pratique digne de l'obsolescence programmée.

Globalement c'est faux. L'obsolescence programmée est une pratique supposée où un constructeur fragilise **volontairement** son produit afin de nécessiter un remplacement régulier pour augmenter ses ventes.

Le mot clé est donc l'aspect volontaire. Qui est difficile en réalité à constater. Et certains oublient aussi l'aspect de l'équilibre entre le prix et la qualité. Un produit bas de gamme va minimiser la qualité des matériaux par exemple pour que cela coûte moins cher au client. Il est donc normal que le produit dure moins longtemps. Cette question du compromis dans la réalisation du produit est l'essence même du travail d'un ingénieur et de la création de différentes gammes de produits, on ne peut assimiler cela à de l'obsolescence programmée qui consiste en un sabotage.

Je ne vais pas m'étendre beaucoup sur le sujet, il y a trois articles de blog (ici, et là-bas) qui traitent bien de la question de l'obsolescence programmée qui reste une pratique à priori confidentielle. Mais le célèbre reportage d'Arte sur le sujet a mis en lumière cette pratique avec de mauvais exemples et certains le voient du coup... partout.

En tout cas on ne m'a jamais demandé de saboter mon propre produit, et aucun de mes collègues ou connaissances non plus. ;-) Par contre il arrive que certains bogues ne soient jamais corrigés, faute de temps ou de ressources financières pour les traiter.

De la question du progrès logiciel

Certains produits, comme nos ordinateurs ou téléphones portables, peuvent vivre des années sans problèmes. Et ces outils à usage assez génériques peuvent exécuter du logiciel conçu bien après la réalisation du produit.

Mon ordinateur portable personnel actuel date de 2011, il est passé de Fedora 16 à 27, de Windows 7 à 10, de Firefox 7 à Firefox 56, de GNOME 3.0 à GNOME 3.26, de Linux 3.1 à Linux 4.14, etc.

Ce sont des millions de lignes de code ajoutées depuis, le Web a beaucoup grossi entre temps avec du JavaScript devenu omniprésent et des sites devenant de plus en plus des applications complètes. Le contenu multimédia s’alourdit, passant du 720p à 4K pour les vidéos ou les photos. Le chiffrement s'est généralisé également dans les communications ou le stockage.

J'ai constaté peu à peu un ralentissement de ma machine, la consommation de la mémoire a monté (j'ai du rajouter 4 Gio récemment) alors que mon usage, fondamentalement n'a pas changé.

Ce phénomène n'a rien de nouveau, cela suit la loi de Wirth.

C'est un phénomène naturel. Les logiciels évoluent pour ajouter des fonctionnalités (pour répondre à des besoins des utilisateurs). Il est impossible de proposer du logiciel plus moderne tout en espérant une consommation en ressource identique indéfiniment. Soit il faut utiliser un produit qui n'évoluera plus fonctionnellement (cas de beaucoup d'outils simples et légers), ou alors il faudrait beaucoup de ressources financières et humaines pour maintenir plusieurs déclinaisons du logiciel dans le temps. Ce que l'on abordera plus tard.

Ce que la loi de Wirth n'explique pas ou mal, c'est que l'évolution du matériel se produit de manière globale, mais localement un produit a un matériel plutôt figé. Si le matériel évolue mais que les logiciels n'exploitent pas cette puissance supplémentaire, ce serait du gâchis. Donc la consommation des programmes évoluent pour bénéficier de ces ressources disponibles. Et forcément cela se fait au détriment des machines qui accusent d'un certain âge. Cela est encore plus visible sur les téléphones qui ont fait un saut de performances spectaculaire en très peu d'années.

Certains veulent exploiter la machine le plus longtemps possible (donc disons 10-15 ans) tout en bénéficiant de ces évolutions. Ce n'est pas possible sans concession. Il faut faire des choix, en payant cher des produits pour les maintenir longtemps, en renonçant partiellement à ce progrès, en changeant de machine ou renoncer à des usages. Typiquement, aller sur le Web avec une machine de 2002 doit être possible, mais cela ne doit pas être une expérience très agréable en dehors de quelques sites très légers.

Et pour un téléphone bas de gamme, conçu pour être tout juste capable de lancer les applications populaires de l'époque, ne peut pas soutenir la charge d'une mise à jour des dites applications sur le long terme.

Et après toute cette explication, comment associer cela à de l'obsolescence programmée alors que cette lourdeur progressive provient de logiciels extérieurs à la conception du matériel ? Ce n'est pas Intel qui a rendu Firefox plus lourd avec le temps. :-)

La sécurité

La sécurité est devenue depuis quelques années un sujet de premier plan pour tout un nouveau panel de produits. Avec une connexion accessible depuis Internet, il devient possible d'essayer d'infiltrer ces produits qui peuvent être accessibles non stop pendant des années et sans maintenance active (il n'y a pas un administrateur système pour surveiller le réseau domestique d'un particulier).

Du coup, pour combler les failles, il devient nécessaire de mettre à jour le produit. Parfois changer l'outil interne, ou le protocole employé (le MD5 n'est plus un moyen fiable pour vérifier l'intégrité d'un fichier ou d'un certificat).

Du coup pour améliorer la sécurité, on doit les faire évoluer. Ce qui peut nous faire revenir sur le point précédent où le logiciel devient trop lourd pour le matériel considéré ce qui rend compliqué la conciliation des deux.

L'autre problème est... le coût. Quand on achète un produit type téléphone, un réfrigérateur connecté, un modem ou autre, nous achetons le produit à un prix fixe, parfois très dérisoire car très bas de gamme. Sauf que d'assurer une maintenance sur 10-15 ans, cela coûte très cher. Car il devient nécessaire de maintenir plusieurs versions du logiciel (suivant l'âge du matériel et de ses successeurs à maintenir), de tester chaque mise à jour sur chaque produit, tester son déploiement, corriger les éventuels ratés auprès des clients, communiquer auprès d'eux (manuels explicatifs, mise à jour d'un site Web possiblement en plusieurs langues, courriers / courriels envoyés en nombre).

Admettons que pour maintenir un modèle d'un téléphone portable pendant 15 ans il faut une équipe de 10 personnes à temps plein (ce qui n'est pas irréaliste car cela demande beaucoup de travail pour corriger la moindre faille ou les bogues découverts, sachant que le logiciel dépend également du lieu vendu pour des raisons de contraintes légales). En admettant qu'ils ne sont pas mal payés (et qu'il leur faut du matériel adéquat), cela peut revenir par employé à un coût annuel pour l'employeur d'environ 100 000€. Donc 1 million d'euros par an. Sachant qu'un modèle lambda d'un téléphone peut être vendu auprès du million d'unités au total, cela reviendrait a un coût de 10-15 millions d'euros rien que pour la maintenance une fois le produit vendu. Pour des téléphones à 100€, cela représente 10% du budget global du produit ! Ce n'est clairement pas négligeable. Et je ne parle pas des cas de produits moins vendus qui méritent pourtant la même maintenance.

Le Libre comme solution ?

Certains pensent qu'un produit embarqué, s'il est fait avec du logiciel libre, il est aisé de le maintenir pour proposer des mises à jour du produit pendant des années après l'abandon par son constructeur. La réalité est plus complexe.

Pour les projets assez puissants pour accueillir un système d'exploitation Linux (cas des téléphones par exemple), le système est rarement compilé de zéro à la main. Pour gagner du temps, il existe des solutions comme Yocto ou buildroot (et ses déclinaisons OpenWRT ou ptxdist) pour compiler l'ensemble des logiciels (dont le noyau) pour notre système afin d'obtenir une image qu'on pourra installer sur la cible. Je les présenterais dans un autre article.

Seulement, chaque processeur ou plateforme a ses spécificités. C'est pourquoi, les concepteurs des puces (Qualcomm, Texas Instrument, Broadcom, Freescale / NXP et autres) fournissent les solutions citées plus haut avec les changements nécessaires pour exploiter la plateforme. Très souvent le noyau Linux et le chargeur de démarrage U-Boot accueillent une grande liste de correctifs maison (plusieurs centaines).

Cela est bien, car nous n'avons pas à développer nous même les pilotes pour exploiter les fonctions du processeur (notamment pour la couche graphique) et dans l'essentiel cela reste du code libre. Cependant ces correctifs sont gros et souvent… mal réalisés. Faute de temps et de ressources, les constructeurs ne cherchent pas à concevoir des correctifs qui finiront dans le projet officiel. Leur but est que cela fonctionne avec le noyau fourni aux développeurs / intégrateurs. Du coup nous nous retrouvons avec un noyau et un chargeur de démarrage figé, car Linux évolue très vite et il est très difficile de porter ces correctifs pour une autre version. Et comme cela est trop souvent trop mal fait (utilisation d'une pile logicielle différente que celle du noyau pour une fonction donnée, comme le SPI ou le réseau par exemple, code spaghetti avec lien fort entre le tronc commun et leur pilote, etc.) il est difficilement imaginable de porter cela sur le noyau officiel directement.

Pas mal de personnes essayent pourtant de porter le nécessaire sur le noyau officiel. Mais cela demande beaucoup de temps (aujourd'hui le support du téléphone N900 est quasiment complet, mais il aura fallu 8 ans après sa sortie !) et c'est souvent au prix de fonctionnalités partielles (performances graphiques ou réseaux plus faibles, gestion de l'énergie douteuse). Sans collaboration du fondeur, c'est une tâche globalement vouée à l'échec étant donné le rythme de sortie des composants. Puis le fabricant de la puce bosse déjà sur la plateforme suivante. Ils n'ont pas le temps, ni l'envie, de s'attarder sur un produit qui n'a plus d'avenir.

Et même dans le cas où ce serait possible, il y a des sacs de nœuds dans l'architecture du système. Si vous souhaitez profiter par exemple des dernières tablettes Wacom sur votre machine, il faudra un noyau récent. En admettant que vous avez un noyau LTS un peu ancien comme la 3.4, il faudra rétro-porter cette fonctionnalité. Cela signifie récupérer le pilote mais souvent d'autres commits sur le sous-systèmes des périphériques entrées. Mais le noyau ne fait pas tout, il faut également que l'interface graphique propose de quoi configurer et exploiter le matériel. Donc par exemple en récupérant du travail effectué sur les versions récentes de GTK+ et de GNOME. Cela peut donc représenter beaucoup de travail, sur beaucoup de composants, et il faudra tester bien sûr du bon fonctionnement, de la sécurité et de la maintenance de tout ceci.

Bref, l'aspect libre peut aider bien sûr à maintenir un produit plus longtemps. D'ailleurs les initiatives du genre OpenWRT, CyanogenMod / LineageOS permettent de maintenir à jour certains produits embarqués plus longtemps que le support officiel du constructeur. Mais cela se fait souvent au détriment de certaines fonctionnalités matérielles.

Solutions ?

Je pense que la solution ne peut se passer de l'aide des industriels, qui eux-mêmes ne peuvent pas se permettre à un coût fixe d'une maintenance complexe sur une très longue durée. Imposer légalement une durée minimale de support conduirait à une hausse de prix d'achat inévitable de tous ces biens.

Une autre solution serait d'évoluer vers une tarification en tant que service. À savoir payer pour une durée de maintenance souhaitée. Si l'utilisateur souhaite 10 ans de maintenance, il le pourra, au prix d'un abonnement ajusté en conséquence. Je pense que c'est la seule solution, notamment pour les produits vendus à un volume moyen ou faible, d'avoir une maintenance dans le temps à la hauteur, sans rendre le produits inutilisable ou trop cher à l'achat.

La solution libre et gratuite me semble difficilement possible. Il suffit de voir qu'aucune distribution purement communautaire gratuite pour x86 n'arrive à gérer une maintenance de plus de 5 ans. Pourtant la plateforme est plus simple et plus standard. Donc aller au delà me paraît difficile. Car ce n'est pas une tâche aisée, ni très passionnante. Il faut en effet du savoir faire du matériel et beaucoup de temps.

Après bien entendu, les constructeurs ont leur part à jouer, en s'impliquant d'avantage dans le noyau officiel (qui pourrait lui également avoir une politique plus adaptée à ces besoins, en ayant une API interne plus stable). Il faut également réduire la surface d'attaque au maximum, n'offrir l'accès au réseau que lorsque la plus valu est réelle. Ce genre de décisions aideraient à avoir une meilleure sécurité dans le temps de ces plateformes.

dim., 10/10/2010

Mme Michu : la nouvelle excuse pour critiquer les défauts ?

Je trouve que depuis un an ou deux, on a eu affaire a un nouveau personnage : Mme Michu. Cette dame, inconnue de tous est pourtant tellement citée qu'on pourrait presque la croire réelle. Ces dernières années elle est récurrente dès qu'il s'agit de parler de grand public ou de dysfonctionnement d'un logiciel. Seulement elle commence à m'énerver car pour moi c'est la pire des excuses et la pire des conneries possibles.

Mme Michu n'existe pas

Mme Michu en effet n'est pas réelle. Déjà dans tous les trolls, on peut voir qu'elle a plein d'exigences et de compétences. Un coup c'est une graphiste professionnelle, une autre fois c'est une incompétente de l'informatique, une autre fois ça sera une « jamais contente » ou tout simplement une ménagère qui veut parler à son fils via une webcam seulement du modèle Logitech XEUE:EEIU qui évidemment ne fonctionne pas dans les contrées libres. Le seul point commun à toutes les descriptions est la suivante : elle s'en fout de la notion de « Logiciel Libre ». Cela signifie une chose : tous ceux qui l'utilisent comme argument sont comme elle. Pourquoi ? C'est juste une excuse pour justifier ses propres problèmes ou exigences tout en se dédouanant de se foutre de la notion de Logiciel Libre. Pourtant c'est je pense l'argument le plus important pour utiliser de tels logiciels.

Donc Mme Michu représente des tas de métiers dans le monde, ce qui fait qu'elle n'existe pas. Personne ne peut avoir tellement d'exigences, et le grand public ne peut avoir ses exigences représentées par une personne type. On est tous unique, et on a tous des attentes différentes d'un ordinateur. Certains en ont besoin pour un métier, d'autres un loisir mais certains seront en même temps aveugles, gauchers, ou avec des troubles musculaires. Il n'y a pas un profil type pour décrire autant de combinaisons différentes donc Mme Michu n'existe pas, ou si elle existait, cela n'aurait aucun sens ou intérêt.

Tout le monde a des besoins différents, certains préfèrent la barre en haut, d'autres en bas, etc. Il est impossible par exemple qu'une interface graphique corresponde à tout le monde. Certains trouveront cela beau, d'autres moches, certains ont des besoins qui font qu'ils seront plus efficaces autrement, certains auront besoin de fonctionnalités pour permettre un certains conforts alors que d'autres non. La preuve de cela, KDE et GNOME par exemples, malgré les trolls, sont tous deux excellents pour ceux qui l'utilisent. Certains trouveront en KDE leur bonheur d'autres ça sera avec GNOME ou autre chose. Et les captures d'écran prouvent que malgré ces choix, tout le monde personnalise un minimum ces interfaces pour un meilleur confort d'utilisation car nos besoins et attentes sont tous différents.

Mme Michu se fout du libre

Comme je l'ai dis précédemment, Mme Michu s'en moque du libre. Et je constate que certains justifient¹ que « comme Mme Michu ne sait pas rapporter un bogue, moi non plus car il est amoral d'exiger de moi plus que Mme Michu » et ça je le constate que trop souvent sur les forums. Certains disent que c'est beau que le Logiciel soit libre mais si on doit utiliser la documentation ou rapporter un bogue majeur, alors c'est un logiciel mal fait.

Mais cela est oublier la notion de Logiciel Libre et son intérêt. Le Logiciel Libre est une chance qui a des défauts. Il faut se sentir heureux que si on a un souci il y a une communauté derrière pour nous aider, qui peut corriger les problèmes que l'on rencontre dans le code même du logiciel. Je ne suis pas sûr que Apple ou Microsoft tiennent mieux compte des intérêts de leurs utilisateurs et corrigent le maximum de problèmes qu'ils peuvent rencontrer, même les plus infimes.

Rapporter un bogue ce n'est ni long et ni difficile. Si Mme Michu ne sait pas le faire c'est son problème car elle ne profite pas de ses libertés mais consomme juste le logiciel. Seulement, vous, vous pouvez le faire, vous pouvez améliorer le logiciel que vous utilisez ou que vous aimez et ça c'est très différent et important. « La liberté ne s'use que lorsque l'on ne s'en sert pas »

Mme Michu et la perte de liberté

Certaines entreprises et des utilisateurs ou développeurs veulent que Mme Michu puisse utiliser du Logiciel Libre. Je ne critiquerais pas ce souhait car moi aussi j'aimerais bien que ça se fasse d'un côté et que ça permet d'avancer. Par contre depuis quelques années je constate des dérives dues à cette volonté qui me semble néfaste pour le concept même du « Logiciel Libre ». Pour que Mme Michu utilise un OS libre il faut que tout soit facile mais également qu'elle puisse reproduire ses anciens comportements sur GNU/Linux. Et ça c'est dangereux.

Car les anciennes habitudes de Mme Michu sont liées au logiciel privateur. Elle veut lire ses fichiers MP3, aller sur Youtube, parler via Skype ou MSN et utiliser son iPhone. C'est son droit le plus strict, si c'est son souhait elle est libre de le réaliser. Le problème c'est que beaucoup, par fainéantises et manque de conviction se laissent aller et adopte son comportement jusqu'à même imposer cela par défauts dans certaines distributions.

J'en avais déjà parlé dans mon blog avant² et je ne ressortirais pas tous les arguments. Seulement il est difficile de nos jours de citer une personne utilisant uniquement des Logiciels Libres sur sa machine. Je comprends parfaitement certaines situations, notamment professionnelles qui obligent cela, mais acheter un iPod ou iPhone quand on a GNU/Linux, ou encore préférer un lecteur Flash à télécharger la vidéo en local sans oublier de préférer le format MP3 au FLAC ou OGG c'est se foutre des valeurs du libre. Je pense qu'il est impossible de prôner la victoire du Logiciel libre auprès du grand public en ayant le comportement précédent, ou alors c'est juste la victoire de GNU/Linux qu'on veut mais pas du Logiciel Libre. Je trouve regrettable que pour quelques parts de marché en plus on sacrifie l'essence même des logiciels qu'on utilise, leur force de base qui a permis cet essor. Je ne suis pas venu ici pour Mme Michu, ni encore pour des trucs kikoolol avec des sources fermées. Je suis venu pour moi, pour la philosophie que j'adhère car elle me semble juste, sacrifier tout ça pour Mme Michu, est-ce que ça en vaut la peine ?

Je pourrais faire la comparaison suivante : est-ce qu'il faut tomber dans l'état orwellien de Big Brother et perdre toutes nos libertés juste pour garantir notre sécurité face au terrorisme ou aux pédonazis/pirates d'Internet ? Si pour vous ça ne vaut pas le coup, songez à cette situation mais dans la situation que j'ai décrite et vous aurez la réponse à la question du paragraphe précédent…

mer., 01/04/2009

L'HADOPI est voté : application pour le 1er juillet 2009, le Logiciel Libre sous surveillance !

Ça y est, le verdict vient de tomber, HADOPI, la loi de tous nos maux depuis 1 mois au moins est votée et sera mise en application le 1er juillet 2009 le temps que tout le monde remplit la bonne paperasserie.

Ceci dit, Christine Albanel ne veut pas en rester là, elle décide d'attaquer les méchants pas beaux (qui ont voulu sauver l'humanité, il y a de quoi) qui ont attaqué frauduleusement le site jaimelesartistes.fr et d'après sa déclaration de ce matin, le Logiciel Libre est pointé de doigts avec la Quadrature du Net comme ayant été les responsables en soulevant la population contre cette loi violemment. Les grands acteurs du Logiciel Libre français et ses sites de prédilections sont donc sous surveillances et leurs communautés respectives.

Elle est en train de préparer un dossier avec l'aide de notre chère industrie du disque pour interdire l'usage du P2P et de Torrent pour condamner leurs développeurs et utilisateurs. Un logiciel pour Windows sera obligatoire pour toutes les machines pour vérifier l'usage de ces logiciels.

L'APRIL, La Quadrature du Net et Linuxfr se sont engagés pour le moment pour lutter contre ces dispositions jugées « comme profondément immorales et déplacées. C'est une menace grave pour les libertés individuelles ! » mais le gouvernement a menacé de rétorquer pour diffamation et pour avoir menacer la sécurité intérieure de l'État via une propagande organisée contre cette loi.

Affaire à suivre...

sam., 21/03/2009

L'Acid Test : est-ce un indicateur objectif représentant l'efficacité des moteurs web pour les standards ?

Alors que IE8 vient de sortir ce 19 mars, on ressort sur la table toujours cet indicateur (hyper-célèbre dans le domaine) l'Acid Test pour représenter le respect dans standards par un navigateurs web ou plutôt son moteur de rendu. Très utilisé pour la comparaison de ces logiciels, je remarque qu'ils sont utilisés à mauvais escient et qu'ils cachent une part de vérité dans tout ceci. L'Acid Test n'est en effet pas un bon indicateur de tout ceci pour une simple et bonne raison : non exhaustivité et architecture du test trop mal faite.

En quoi ? Déjà il faut savoir que l'Acid Test n'utilise qu'un nombre restreint des standards disponibles, par exemple on n'a rien sur le SVG au niveau avancé, ni même le CSS3 à la même échelle et encore moins pour d'autres standards assez peu utilisés et connus. Donc en quoi c'est représentatif étant donné qu'une grande partie des standards sont de factos absents à ce test ?

Puis parlons plutôt de l'architecture du machin. L'acid test n'a qu'un but, mettre à genoux les moteurs de rendus en faisant des combinaisons que l'on retrouve dans aucun site web correctement fait. En faite, l'Acid Test exploite des conflits des règles des standards que les navigateurs ne prévoient pas (car on les rencontrent assez peu ou que la situation est tout bonnement improbable en condition réelle). En faite on pourrait comparer l'Acid Test à une dictée où on ajoute un contexte faisant que plein de règles de notre belle langue se rencontrent et entrent en conflit où même les plus grands intellectuels français pourraient trébucher tellement que la situation est complexe et inexpliquée (car imprévue) par nos règles grammaticales. Pourtant, ça n'empêche pas à ces intellectuels de manier notre langue presque parfaitement de bout en bout.

C'est un peu ça le problème, un score tel que 80% n'a pas pour autant moins de balises supportés qu'un moteur de rendu qui a atteint les 100 (d'ailleurs, de mémoire, Firefox supportent plus de choses que Webkit et a pourtant un score inférieur). C'est juste que le navigateur qui a 100 a spécifié à son moteur de rendu quoi faire dans de telles situations. Et le soucis que cela entraine, c'est que ce test est devenu une référence (absurde) et que ça en devient une arme marketing obligeant els développeurs à se préoccuper de ce test plutôt que d'inclure d'autres standards qui sont intéressants comme le SVG.

Existe-il un site qui représente correctement la chose ? Oui et non... La tâche est complexe, il existe beaucoup de standards et de choses à implémentées à l'intérieur de ceux-ci, donc tout représenter reste difficile. Ceci dit il y a une méthode simple, faire un grand tableau comme ce site qui permet d'être plus exhaustif, précis et instructif pour l'utilisateur et le développeur web.

Après, je pense que peu importent les tests. Ce qui faut voir, c'est déjà si on peut profiter pleinement des sites courants. Et si difficulté il y a, lesquelles ? Puis après de voir si certaines possibilités sont freinées ou pas (comme le SVG) par certains navigateurs voire tous. Après aux développeurs qui veulent en profiter de montrer la faiblesse de ces navigateurs qui empêchent de profiter de ces technologies.

Puis, de là à critiquer Firefox ou les navigateurs webkit ou Gecko d'être moins bien qu'Opera par exemple est ridicule, Opera supporte peu de choses en plus que ces navigateurs et encore, des choses assez inutilisées, de manière globale seul IE a un retard conséquent pour qu'on puisse parler d'avantage d'utiliser un autre navigateur...

dim., 04/01/2009

Le Logiciel Libre existe-t-il vraiment ? Amis du Libre, changeons de discours !

Ce billet consiste à parler de l'éventuelle existence du Logiciel Libre. Car à dire vrai, j'ai la curieuse impression que les valeurs du Libre se perdent et que finalement disparaissent. Je maintiens fermement une opposition à tout ce qui est non-libre car après tout j'utilise le Libre pour ses valeurs, valeur qui apporte une efficacité technique, et non l'inverse ! Ce billet peut être considéré comme un troll pour certains, ce n'est pas le cas, c'est juste une remise en question d'une politique générale de la communauté et de certains projets que je souhaite mettre en place dans l'idée de tous car elle ne se fait pas. Après si vous prenez cela comme une attaque personnelle contre vous ou votre distribution/logiciel préféré, grand bien vous fasse mais ce n'est nullement mon objectif.

Quand le libre joue la carte du propriétaire

Le Logiciel Libre est définit par la FSF par 4 libertés essentielles qui ne sont remises en questions et donc font autorité dans la sphère du libre. Inutile d'en faire un rappel, je suis sûr que la plupart d'entre vous en possèdent des exemplaires sur votre chevet ou sur un poster de votre chambre. Quand on regarde au sein de la communauté GNU/Linux, je dirais facilement qu'une grande majorité, peut être non-absolue défend les valeurs du libre parmi les priorités notamment pour en parler au monde extérieur. C'est beau, j'admire une telle volonté. Mais quand est-il de l'application ? Là on coince, je suis de plus en plus surpris par l'usage massif de solutions propriétaires au sein de GNU/Linux par les militants intégristes ! Certains le font par obligation (comme moi, je vous jure que une résolution 860*480 sur un écran de 20" ça a de quoi vous énervez, donc nVidia proprio) mais d'autres par choix (achat d'appareils propriétaires comme ceux d'Apple, utilisation de formats MP3, usage de Flash, etc.) la plupart de ces usages sont par choix et sont de plus en plus utilisés. Mais ce qui m'agace encore plus, c'est que même dans la haute sphère cela ne vole pas haut.

Je vais prendre un exemple simple : Canonical. Je ne crache pas sur Ubuntu en particulier mais la politique de Canonical qui est à mes yeux à part. Quand on consulte le blog de son dirigeant, Mark Suttleworth, une première chose frappe l'esprit : les vidéos sont en Flash. Donc en clair, le dirigeant d'une entreprise qui veut faire du « Libre » propose des vidéos de démonstrations d'interfaces d'Ubuntu (entre autres) via des solutions propriétaires alors que 90% au moins des visiteurs possèdent un plug-in OGG dans leur navigateur. De prime, Firefox va l'utiliser par défaut dès la version 3.1 l'an prochain. N'y a-t-il donc pas une contradiction ? Et je passe sur le meilleur avec l'architecture de Launchpad qui est propriétaire pour développer une distribution « libre » cela la fou mal. Comment soutenir un mode de développement communautaire en gardant un logiciel pour le développé qui est fermé ? Non ça ne fonctionne pas comme ça. Et du même coup j'accuse SourceForge qui reprend exactement le même principe, à une autre échelle.

La contradiction de la communauté elle-même

La communauté du Libre est belle, entre promouvoir le Logiciel Libre et l'appliquer strictement, il y a apparemment un fossé infranchissable que la plupart ne franchissent pas. Déjà je me dis, comment on peut acheter un produit Apple en défendant le Logiciel Libre ? Car ce phénomène est de plus en plus courant via l'iPhone, MacBook ou encore iPod... C'est très désolant de voir cette succession de contradictions. Certes ces produits peuvent être attrayants ou mêmes intéressants, mais quand on voit (notamment) leur intérocompatibilité avec les solutions libres, il faudrait se poser les questions avant l'achat. Mais ne jetons pas la pierre que sur les Apple-fan qui ne sont finalement pas les pire... Car il y a plus menaçant encore, je condamne ouvertement Linux Mint ou encore Flash Player. Pour moi ces 2 produits sont les pires ennemis du défendeur du Logiciel Libre, si on les utilise, je suppose que ne l'on peut se considérer comme un défenseur du Libre tellement la contradiction est grande.

Pour le dernier, regardons un peu. D'après Adobe, ça serait plus de 90% d'utilisateurs à travers le monde, donc d'internautes qui l'utiliseraient. Dans le Logiciel Libre, je remarque qu'une grande partie l'utilise et subventionne des sites comme Youtube, DailyMotion, etc. Même Linus Torvalds (mais bon comme il s'en fou du libre au sens strict du terme, lui il n'est pas contradictoire avec lui même). Le Flash c'est propriétaire, ça a agacé le Logiciel Libre pendant des années mais on lui pardonne tout pour 3 vidéos pourris. Vous avez oublié le nombre de temps qu'il a fallu pour que Flash Player fonctionne en 64 bits ? Que *BSD, OpenSolaris et d'autres peuvent se brosser pour avoir leur version ? Flash Player est le logiciel privateur par excellence : j'ai le total contrôle sur le développement, je fais planter vos navigateurs sans qu'ils puissent corriger et en plus je m'en fou des standards du web et ce que leur négligence peut apporter. Et je ne parle même pas de Gnash ou SWFdec qui malgré le fait sont des Logiciels Libres, vous soutenez malgré tout un format propriétaire qui tue le web qui après tout est un succès car c'est un ensemble de standards accessibles à tous !

Pour Linux Mint, cette distribution qui comme Xandros n'a de libre que de nom et encore. Ces distributions gagnent en popularité alors que par défaut c'est un mélange complexe de libres et proprios. Certains diront que Linux Mint installe par défaut ce que 80% des ubuntuteros installeront par la suite comme les codecs pour les formats avec autant de libertés qu'une prison. Mais quand on voit l'engouement pour Linux Mint auprès de la communauté du Logiciel Libre (et le nombre de ubunuteros qui passent le cap), il y a de quoi s'inquiéter sur l'importance finalement du Logiciel Libre auprès de la communauté.

Je vais même, (et je m'excuse auprès de la communauté francophone que je chérie tant, mais il faut agir !) mais j'accuse la communauté Fedora même francophone de soutenir ce type de contradiction. Sans parler de Debian... Car ce qui est marrant, c'est de considérer que la distribution est 100% libre (bon pas aux yeux de la FSF, bien que Fedora ne va pas tarder à rejoindre les rangs) mais que vaut cette argumentation si la plus grande partie des utilisateurs derrière de Fedora ou Debian utilise du propriétaire après coup ? Avoir une distribution libre au départ et la polluer finalement n'apporte rien de plus en liberté que si c'était proprio à la base comme Ubuntu (que Fedora-fr aime bien critiquer à ce sujet, amis Ubuntuteros profitez-en, je vous défends pour une fois !). Le seul avantage que cela représente, c'est que l'on a le contrôle de ce qui est propriétaire sur notre machine car on l'a nous même installé le paquet en question. Mais moi je suis contre tout cela, prétendre utiliser une distribution libre alors que l'on est pas nous même est une hérésie profonde. Il faut revoir le discours ! C'est comme si je disais « j'ai un système GNU » avec au final un noyau *BSD et seulement des applications compilées GCC avec Vim, KDE, etc. Tout ceci n'a GNU que de nom, bah ici c'est pareil, tout n'est Libre que sur le papier et de nom. Il faut réformer tout cela les enfants et tuer ce comportement totalement hypocrite de l'ensemble de notre communauté.

Je vois une belle argumentation, tout bellement ficelée mais hautement ridicule. Dans Logiciel Libre on a le choix de nos logiciels et donc d'installer des logiciels propriétaires. Mais dans Windows on peut installer librement des Logiciels Libres comme sous GNU/Linux, pourtant Windows n'est pas un système Libre à mes yeux, ni aux vôtres je pense. Non ici le logiciel Libre n'offre pas la volonté d'installer du propriétaire si cela nous chante. Car ce n'est pas la liberté du choix que le Logiciel Libre propose en particulier, car après tout qu'il n'y ait qu'un logiciel libre pour lire un fichier .odt n'empêche en rien que c'est un logiciel libre pourtant on n'a pas le choix de l'applicatif pour cela. Pareil ici, le Logiciel Libre correspond aux 4 règles de la FSF, ni plus, ni moins, donc cette argumentation tombe à l'eau car elle n'est définit nulle part dans les 4 règles. j'ajouterais même que c'est en contradiction, car avec du logiciel propriétaire dans notre système libre, notre système global ne répond pas aux 4 règles de la FSF en général ce qui est problématique car elle supprime votre liberté générale.

Mais, si on a pas le choix ?

Dans mon discours, j'accuse tout le monde dont moi même. Avoir un système totalement libre n'est pas irréalisable mais reste bien difficile malgré tout. Une bonne partie de la population n'a pas de bol : un matériel nécessitant un pilote propriétaire pour fonctionner. Ceux là sont excusés car les choix sont souvent faits avant notre connaissance du Libre. Mais je condamne ceux qui y adhèrent puis ensuite achète du matériel qui en ont besoin comme les produits Apple. Et qu'on ne me sorte pas qu'on était pas au courant, ça se vérifie assez rapidement. Cela ne vous empêche donc pas de faire attention à vos prochains achats en connaissances de causes. On aime le Libre ou on s'en fou, il n'y a pas « oui mais... ».

Après bon, disposer d'un BIOS libre relève encore du fantasme pour la grande majorité d'entre nous, mais je l'exclue pour le moment des considérations techniques. Mais on a aussi des professions qui n'ont pas non plus le choix, c'est proprio ou rien. On aime le libre, mais je pense qu'entre le Logiciel Libre et le chômage, le choix est vite fait pour beaucoup (et je le comprends) mais pourquoi ne pas aider de faire en sorte à ce que la situation change ? Certains d'entre vous sont peut être développeurs ou même connaissent des gens qui peuvent le faire. Après tout, ça ne coûte rien d'essayer...

Après bon qu'on me sorte Youtube ou les fichiers MP3 pour votre bibliothèque musicale forte importante, je dirais que ce ne sont pas de bonnes excuses car les solutions libres existes et sont très utilisables... Comme je dis on défend le libre ou pas... Après chacun a sa propre conscience qui agit.

Que faire ?

Je pense que la situation est assez catastrophique. On prône un système entièrement libre, on revendique nos libertés et cette philosophie. Qu'obtient-on ? Une communauté qui dans sa majorité finalement transgresse et sans gène ces valeurs. Quand on voit la communauté de Debian qui nous fait un caca nerveux à propos de Firefox (soit disant pas libre, mais on en reparlera dans un autre billet) pour finalement installer des codecs MP3 par la suite, c'est assez véridique de la situation. On est capable de tout pour le Logiciel Libre, tellement qu'on est capable d'utiliser du propriétaire pour des choses qui n'ont aucune importance. Que croyez-vous ? Si nous mêmes, la plupart geek et des adorateurs de la philosophie du Logiciel Libre nous ne sommes pas capables pour la plupart de garder un système entièrement libre, qui le fera à notre place ? Ce n'est pas la mémé du coin qui va débattre sur nos valeurs et les protéger. Nous sommes ceux qui peuvent le faire car nous y croyons, mais pour cela il faut respecter cette idéologie que diable !

2 solutions s'offrent à nous : soit on arrête de dire que notre système est libre, de revendiquer nos libertés quand on les transgresse car ces paroles n'ont alors plus aucune valeur (comme Linus Torvalds). Ou alors vous abandonnez MSN pour Jabber, vos MP3 pour du Ogg Vorbis, Flash pour un web standard et libre, Skype pour Ekiga, vos baladeurs hors de prix qui sont enchainés auprès d'une multinationale, etc. Là on pourra prôner le libre, le défendre, le revendiquer aux yeux de tous et protéger ces valeurs que l'on aime tant ! Cela ne tue pas, pourtant le Libre n'avancera que comme ça...

mer., 31/12/2008

La démocratisation de l'informatique, une mission du Logiciel Libre ?

Cet article est une réaction par rapport à ce que je lis régulièrement à savoir « Apple et Microsoft ont permit la démocratisation de l'informatique», bien que ceci a du vrai, je pense qu'il y a une nuance dans ce mot « démocratisation », ce qui me permet de penser que cette phrase est une non-vérité ou plutôt une ignorance d'un état de fait. J'ai constaté particulièrement dans cet article de Daniel Glazman qui est entre autre un ingénieur français membre du comité décisionnel du CSS dans le W3C et concepteur de Nvu et de son équivalent dans SeaMonkey lors de l'époque Netscape. Cet article et en particulier les commentaires m'ont fait tilter.

L'informatique est-t-elle démocratisée et comment ?

Entre 1960 et 2008, il y a un écart de seulement 48 ans et pourtant le monde a été bouleversé, entre autre, par la présence systématique d'un ordinateur partout. L'ordinateur a permit de substituer l'Homme pour certaines tâches répétitives ou impossible pour notre organisme et de réaliser un progrés scientifique et technologique incomparable. Un monde aujourd'hui sans ordinateur s'effondrerait car l'essence même de notre économie repose sur leur fonctionnement via les banques et la Bourse par exemple ou encore dans de nombreuses branches professionnelles voire toutes ! Il est vrai que dans ce sens, l'informatique a été démocratisé car présent partout et pour tout faire (sauf le café mais c'est en étude).

Seulement, est-ce que Microsoft et Apple ont été les stimulants ? Sans doute, Apple a permit la conception d'un nouveau marché : l'ordinateur personnel. Cette conception de l'ordinateur a permit de le retrouver partout, même à la maison et dans des bureaux, d'ailleurs sans Apple, IBM n'aurait peut être pas conçu le PC aussi tôt avec une architecture ouverte (pour gagner du temps) et ainsi se retrouver avec des clones compatibles permettant de baisser le coût des machines de manière substantielle et donc de se retrouver partout. Microsoft lui finalement n'a pas apporté grand chose, la plupart des logiciels qu'il proposait, ont déjà existé comme le tableur, peut être que certains d'entre eux ont été porté pour le « PC » au lieu de rester sur Mac mais le principe est le même, Microsoft n'a finalement que peu apporté là dessus. Certains diront qu'ils ont rendu l'usage de l'ordinateur plus facile, j'y répondrais dans la prochaine partie.

L'ordinateur utilisable au commun des mortels n'existe pas

On associe souvent les produits Microsoft à la simplicité, ou même ceux d'Apple. Sans eux on pourrait penser que l'informatique n'aurait jamais été dans une famille car trop complexe. Mais est-ce que l'informatique est simple ? Je pense que non... Peut-on dire que l'ordinateur est démocratisé si seulement les professionnels savent l'utiliser et encore ? Je pense que non également. Et c'est ça la nuance dans la démocratisation de l'informatique, le grand public ne sait pas se servir d'un ordinateur correctement, donc il y a une classe élitiste d'individus qui savent l'utiliser et qui ont donc « le pouvoir » et Microsoft et Apple peuvent faire et dire (tout comme leur fans) ce qu'ils veulent, le grand public ne sait pas utiliser un ordinateur.

Je m'explique. L'ordinateur est sans doute l'engin conçu par l'Homme le plus complexe qu'il existe et qui soit abordable. Pourtant on prétend que son utilisation ne nécessite aucun apprentissage. Donc en réalité une voiture qui est plus simple à réaliser (la voiture est quand même née 70 ans plus tôt au moins) nécessite quant à elle un apprentissage lourd et assez énervant que l'on a tous pou presque subis : le permis de conduire. Après tout c'est normal, la conduite n'est pas compliquée en soit, mais n'est pas une action naturelle et nécessite un apprentissage comme le code de la route. Pour l'informatique, le raisonnement est le même, utiliser un logiciel n'est pas naturel et nécessite aussi un apprentissage. Après il y a des logiciels plus simples que d'autres, c'est certains, et ce même s'ils garantissent les mêmes fonctionnalités mais le logiciel que l'on peut utiliser sans apprentissage dès la sortie de la boîte parfaitement non, cela est une utopie. Déjà la notion d'ergonomie est relative selon les individus car tout dépend de l'expérience de l'utilisateur que ça soit dans sa vie courante ou face à une machine. Par exemple Apple est considéré comme une marque qui fait des produits intuitifs, etc. Personnellement j'ai testé la plupart de leurs produits, c'était l'effet inverse, j'ai trouvé ça d'une complexité rare, je pense que le raisonnement de leurs ergonomes n'est absolument pas adapté au mien, quand on voit le dock de Mac OS X je me demande comment les gens préfèrent ça à une barre des tâches qui est à mon sens plus pratique et fonctionnel (sans oublier la puissance du machin). Et même constat avec mon père, on est bien plus à l'aise sur GNOME ou KDE avec le bon vieux terminal qu'un Mac OS X, question d'habitude et d'usage mais quand on voit les difficultés de ma mère pour apprendre le concept de n'importe quel OS (ou logiciel), on peut se demander vraiment si le logiciel facile par excellence existe vraiment.

D'ailleurs regardons le phénomène, généralement quand il y a un problème, et Dieu sait que ça arrive sur chaque logiciel qui existe, bah souvent les gens vont se rabattre vers des gens qui « s'y connaissent » ou des professionnels. Entre l'incapacité mentale de lire une notice et documentation et l'incompétence technique de la personne face à une situation, c'est sûr qu'il est aisé de comprendre que le commun des mortels au moindre problème paf ne sait rien faire. Si personne ne sait s'en sortir sans ces gens, comment peut-on dire que l'informatique est démocratisé si les gens sont dépendants de personnes compétentes même pour l'usage de tous les jours, pour certains on doit tout expliquer de A à Z en image et doucement pour qu'ils comprennent la manipulation, et malheur si une mise à jour modifie un menu, il sera totalement perdu alors que fondamentalement parlant, 2 minutes de recherches supplémentaires montre que le menu est à un autre endroit... Mais le commun des mortels ne sait pas faire ça...

Si on réfléchie 2 minutes, on peut se demander comment sans formation on peut substituer le rôle d'une personne qui a des certifications et autres études qu'il a mené pendant parfois 5 ans pour en faire son métier. Je pense que l'on ne peut pas le faire. Après tout les règles de précaution en informatique ne sont pas évidentes ni même intuitives. Comment une personne sans expérience sait qu'il ne faut pas aller sur certains sites ? Que certains logiciels sont des passoires de sécurités et que les mises à jour c'est essentiel ? Que d'ouvrir les courriels ou pièces jointes d'inconnus peuvent entraîner pourriel, arnaque ou virus en tout genre ? Ou encore que le pare-feu désactivé est une aberration et qu'un anti-virus sous Windows c'est le minimum de la précaution ? Qu'il faut défragmenter le système de fichier Windows à savoir NTFS de temps à autres pour améliorer les performances ? Que d'être en compte administrateurs ou root est également quelque chose à prohiber pour la vie quotidienne ? Qu'on installe pas des logiciels provenant de sites non-officiels ou réputés pour leur sécurité ? Etc. La liste est très longues et pourtant, ces règles sont sans doute le BA-BA de l'entretien et du bon fonctionnement d'un système, ces règles ne vous viennent pas à l'esprit en ouvrant votre boîte contenant votre première machine, non, elle nécessite un apprentissage, une expérience qui ne se forme pas d'un coup. Et pour ces règles, aucun logiciel ne pourra les éliminer et se substituer du comportement de l'utilisateur. L'utilisateur est maître de la machine et à lui seul peut faire n'importe quoi et ce quel que soit le logiciel, simple ou non n'est pas la question. La prévention est meilleur que la répression, un utilisateur ayant un comportement adapté pourra rendre son système plus efficace, propre et éviter moult problèmes que rencontre la population générale à la fin. La simplicité ne fait pas tout, dans un environnement simple, l'utilisateur reste quand même un danger que l'ordinateur ne pourra jamais contrecarrer...

Puis on n'oublie pas que Microsoft ou Apple cherchent le profit à tout prix malgré les volontés humanitaires de leurs fondateurs. Quand on voit le prix de leurs produits et les conditions d'utilisations et d'utilisabilité, certaines régions du monde sont pour le moment à l'écart du monde numérique et possèdent un retard important dans le domaine sur les pays développés.

L'ordinateur est un outil mal exploité par la population

L'ordinateur est un outil merveilleux pour les geeks, entre sa puissance et flexibilité, on peut comprendre que l'ordinateur soit un outil indispensable pour certains dans leur travail. Mais ce que l'on sait encore plus, dans un environnement adapté, on travaille plus efficacement, on répond mieux à nos besoins. Et on constate quoi ? L'utilisateur ne personnalise pas son environnement selon ses besoins et son comportement. On le remarque déjà rien qu'en regardant les captures d'écrans, sous Windows ou Mac OS X, à 3 détails près, en général l'utilisateur n'a pas poussé la personnalisation de son système très loin que ça soit en apparence que les options utilisés pour améliorer le confort de travail. Quand on regarde les systèmes libres, en général tenus par des geeks qui tiennent à un travail efficace et adaptés aux besoins, on remarque d'énormes différences dans la personnalisation et le goût de l'ensemble.

Car en réalité nous sommes tous différents avec des besoins différents. Imaginez un gaucher avec un trackball pour droitier, en général il sera moins efficace et il perdra en confort donc baisse de productivité. Pour les logiciels c'est pareil, utiliser The GIMP pour redimensionner une image c'est une perte de temps et de ressources pour la machine car il est adapté pour d'autres choses The GIMP, pour redimensionner la taille d'une photo on a vu plus léger et rapide au lancement... Mais c'est pareil pour tout. Surtout que certains et mêmes beaucoup de logiciels sont extensibles ou avec des options et possibilités poussées. Bah si on regarde bien, par exemple Firefox, la majorité des gens ne modifient pas grand chose et n'utilisent pas les extensions. Extensions qui peuvent apporter un grand plus au quotidien, par exemple d'avoir un lecteur de fluxs RSS plus performants, très utile pour suivre l'actualité, ou encore Thunderbird sans Lightning, certains pourraient améliorer leur productivité avec ce calendrier proposé en extension. Sans oublier l'ajout de logiciel qui pourrait améliorer le quotidien que ça soit pour le travail ou le loisir. Mais les gens ne savent pas non plus chercher des applications pour subvenir à un besoin ou encore répondre à un comportement, quand on voit que des gens se content d'un double clique pour naviguer dans les fichier alors que le mono-clique est plus indiqué pour eux car ils ont du mal à double-cliquer, on est en droit à se poser des questions sur la personnalisation de l'environnement selon les besoins. Sans oublier le fait qu'ils ignorent l'existence des raccourcis clavier qui peuvent pour certains faire gagner un temps considérable au final ou encore que les gens font un Sommaire ou un index à la main alors que OpenOffice.Org ou MS Office proposent des modules tous indiqués pour ces tâches. L'utilisateur se contente d'un environnement lambda sans personnaliser en pensant que tout le monde a les mêmes besoins ou envies. Tout ceci par flemme, manque d'informations ou simple ignorance et ça, sans formation ni aide des entreprises comme Microsoft ou Apple. Donc l'informatique n'est pas maitrisé par les gens qui en ont besoin.

Pour démocratiser, il faut éduquer

Nous sommes en 2008, et on retiendra le slogan de Sarkozy et de Darcos « lire, écrire, compter » sont les 3 axes majeurs de l'école indispensables pour chaque élève et citoyen. Pourtant je pense que le numérique mérite d'être à côté de ces 3 principes, après tout sans maitrise de l'outil informatique, on enlève la possibilité de beaucoup de métiers ou encore de leur efficacité dans l'avenir. Entre 2 personnes à compétences égales mais l'une maitrisant l'ordinateur et l'autre pas, il fera la différence car après tout l'informatique n'est pas instruit dans toutes les voies qui en ont pourtant grandement besoin comme les professions libérales pour la plupart. Ou même si cela n'est pas réellement utile dans le travail, c'est un apport important de savoir et d'efficacité dans la vie de tous les jours, beaucoup de choses passent par Internet et l'informatique pour notre quotidien ne serait-ce la consultation du compte bancaire ou le suivi de la Bourse, tout ceci nécessite une maitrise et des connaissances pour mener à bien ces besoins. Donc je pense que l'informatique est une matière longuement ignorée par l'éducation et qui se fait essentiel. Le B2i n'est pas suffisant, l'examen étant d'un ridicule rare puis les cours de technologie au collège ne nous aident pas plus à maitriser cet outil. Pour notre avenir et ceux de nos enfants, il est bon que l'informatique devienne un cours à part et obligatoire dans l'éducation et ce dès le plus jeune âge, entre le primaire et collège.

Pourquoi le Logiciel Libre ?

Je pense que c'est le Logiciels Libres qui va permettre la démocratisation de l'informatique et non nos amis du logiciel privateur. Déjà le constat est simple, le Logiciel Libre a une philosophie similaire à l'école. Entre la neutralité de l'école (et ne sponsorise pas des solutions américaines qui ont soif de clients, surtout les jeunes), le faible coût à long terme face aux autres solutions permettant des économies sur l'argent de nos impôts et les réutiliser dans des choses plus importantes dans l'école, mais aussi l'égalité car le Logiciel Libre permet à chacun d'avoir le Logiciel en question et de pouvoir lire les fichiers produits en classe avec, car jusqu'à présent avec MS office pour faire un bon travail on doit avoir MS Office et la même version à la maison car même avec OOo, la compatibilité n'est pas parfaite, les familles plus modestes ont donc les mêmes chances que les autres familles mais aussi favorise le déclin du piratage des logiciels propriétaires et donc l'illégalité. On permet dans tout cela un travail collaboratif plus facile et efficace, de quoi permettre aux utilisateurs de pouvoir mieux maîtriser l'outil informatique.

Mais aussi l'autre avantage du Logiciel Libre c'est d'utiliser les standards ou formats ouverts, permettant donc l'interopérabilité et donc de pouvoir facilement échanger les documents ou leur conservation. C'est donc une aubaine pour le Logiciel Libre qu'est l'éducation pour permettre la démocratisation de l'informatique.

Comment s'y prendre

Il y a plusieurs moyens de s'y prendre pour que le Logiciel Libre soit le moyen de démocratisé l'informatique dans le monde. De part son faible coût des licences et la consommation en ressource qui peut être faible, on peut envisager son utilisation dans de vieilles configurations que ça soit à l'école, au travail ou dans les pays du tiers monde. Si l'éducation adopte le Logiciel Libre en général, les élèves devraient avoir des cours obligatoires sur l'informatique pour assimiler des bases importantes. Et la diversité du Logiciel Libre permettra aux élèves de manipuler une gamme de logiciels et non un logiciel spécifique, au lieu de connaître que Word, l'élève sera capable de s'adapter à n'importe quel logiciel de traitement de texte avec une adaptation réduite et sans formation supplémentaire. L'utilisateur deviendra maître de sa machine et pourra l'exploiter au mieux et non plus subir l'informatique comme on a l'habitude de voir.

Pour finir, le développement d'une documentation simple et concise pourrait aider ce processus d'apprentissage, le libre permettant une documentation universelle (pour quasiment toutes les langues, gratuite et accessible à tous) ou encore des livres ou vidéos permettant d'étendre la maitrise de cet outil.

Conclusion

À travers cet article, je pense avoir montré mes grands doutes sur la démocratisation de l'informatique en 2008. Mais les avenirs à venir promettent peut être une éducation obligatoire du numérique qui est de plus en plus présent encore. Le logiciel privateur a pour le moment su saisir l'occasion de se démocratiser et de profiter d'un vide du marché. Mais, si le Logiciel Libre devenait l'arme ultime de l'Éducation ? Ne serait-ce pas un sérieux revers pour le Logiciel privateur qui en plus de perdre de grandes parts de marchés, aura en face des utilisateurs expérimentés qui utiliseront probablement un système libre, laissant les personnes moins compétentes sur leurs systèmes et donc souffrir d'une comparaison hors norme... L'avenir nous le dira, je pense que le Logiciel Libre a une opportunité sur cette voie, une voie libre et ouvert qu'il faudra tracer. Tel est la mission du libre, démocratisée l'informatique au monde entier en partageant des valeurs communes et idéales pour tous !

dim., 21/12/2008

Comment GNU/Linux pourra s'imposer dans l'informatique grand public...

Introduction

Nombreux sont ceux qui veulent que GNU/Linux soit sur toutes les machines du monde entier, ou du moins avec un système libre. Et l'existence de OpenSUSE, Mandriva ou encore Ubuntu confortent dans cette volonté d'y parvenir un jour. Et malgré tous les efforts actuels, force est de constater qu'on est encore loin de représenter une part du marché suffisamment importante pour faire peur à Apple ou Microsoft. Je sais que certains s'en moquent de cet objectif, pour des raisons qui leurs sont propres et je le respecte mais je pense qu'en tant que défendeurs des Logiciels Libres, nous devons partager cette liberté aux autres et non la conserver pour nous mêmes et enfin rétablir un équilibre dans un marché hautement dominé par 2 entreprises qui dictent leurs lois. Le but de ce billet est de déterminer comment et quand on pourra envisager une bonne implémentation de GNU/Linux au sein de la population mondiale. Ceci dit je ne suis ni expert en markéting, ni en économie d'ailleurs donc cela est à prendre avec des pincettes (comme tout ce que je peux dire de toute façon). Pour étudier tout cela, j'ai trouvé qu'une comparaison avec le succès de Mozilla qui est sans doute le Logiciel Libre grand public le plus répandu comme une bonne base pour faire autant avec GNU/Linux.

Il était une fois, un panda roux...

Il y a quelques années, disons avant fin 2004, on avait un navigateur gouvernant tous les autres : Internet explorer. 4 ans plus tard, un concurrent arrive à lui prendre quelques 20 à 30% des parts du marché. Un succès incroyable mais qui n'est pas du au hasard, on va tenter de voir les clés de cette réussite. Tout d'abord, Internet Explorer était technologiquement hors norme. Plus de mise à jour importante depuis 2002 soit pendant 2 ans (et encore, 2001 pour des évolutions vraiment importantes) avec des restes de la 1ère guerre des navigateurs : l'absence d'onglets, de flux RSS, d'anti-pop-up et tant de choses. Firefox a apporté ces fonctions qui sont utiles à la navigation de manière quotidienne. Il est clair qu'une fois qu'on surf avec ce genre de navigateurs, Internet Explorer laisse un gout amer.

Mais cela ne suffit pas, car après tout Opera, Netscape ou Mozilla (le papa de Firefox) disposaient déjà de ces fonctionnalités ou presque. Pourquoi n'ont-ils pas progressé en part de marché ? Car en réalité le succès de Firefox tient surtout d'un coup marketing incroyable pour le Logiciel Libre actuellement. Opera a toujours été discret autour de la sortie de ses produits, et le fait qu'ils soient payant (ou avec un bandeau de publicité) n'a pas aidé les choses, Mozilla et Netscape sont les perdants de la 1ère guerre des navigateurs et héritent d'un héritage trop lourd d'autant que Mozilla a mit du temps avant d'être considéré comme stable. Firefox lui rien, développement rapide, léger, et surtout on a entendu parler de lui. Entre l'article paru dans le New-York Times, un nombre incalculable de sites ou de journaux informatiques qui en font la promotion et le soutient de Google, si on aimait l'informatique fin-2004 on voyait du Firefox partout avec les louanges de tous ceux qui l'ont testé dont beaucoup de webmasters qui ont pu répandre leur enthousiasme.

Outre cette campagne médiatique réalisée d'un coup de maitre, le cadre temporel fut parfait. Le marché n'avait aucune concurrence, IE n'évoluait plus et les gens commençaient à se lasser de cette stagnation. Il est clair que si on retente la même chose avec un autre navigateur aujourd'hui, le succès sera plus mitigé que jamais à cause de la forte concurrence qui « tue » des projets trop petits que sont les Logiciels Libres à la base.

Pour mettre cela en application avec GNU/Linux, on va retenir 3 idées : les « fonctionnalités-killer », la campagne publicitaire et le cadre temporel vis à vis du marché. Sans ces 3 éléments réunies cela peut être une catastrophe, comme nous allons le voir...

Puis arriva le manchot !

Aujourd'hui nous arrivons à un carrefour important pour GNU/Linux qui peut se répandre partout. Depuis quelques années on commence à voir ce rêve ancien d'un professeur barbu du MIT (Richard Matthew Stallman) comme enfin réalisable (enfin pas complètement). Mais la moindre erreur pourrait tout détruire à jamais ou presque... En effet imaginez une campagne publicitaire menée d'une main de fer lancé actuellement ? Soit ça sera un coup d'épée dans l'eau, soit GNU/Linux sortira avec une image populaire mauvaise pouvant empêcher un nouvel essai. De même qu'il faut le faire avant que la concurrence ne tue le marché par les mines qui se posent petit à petit... On va voir quand est-ce que sera ce bon moment approximativement.

Le développement du système libre

Le développement de GNU/Linux est très rapide, si on regarde quelques années en arrière, GNU/Linux ne tenait pas longtemps la comparaison face aux OS propriétaires pour un non-libriste à moins d'avoir une grande volonté. Mais GNU/Linux a rattrapé beaucoup de son retard face à ces OS, si on regarde bien de Fedora Core 3 à Fedora 10 j'ai senti une progression plus importante qu'entre XP et Vista qui a eu pourtant plus de temps. Ceci a pu se passer grâce à la remise en cause de beaucoup de points de GNU/Linux ce qui a entrainé des dégâts (comme PulseAudio ou SELinux) mais cela est nécessaire pour avancer plus vite et se libérer des contraintes de l'héritage du passé. Car il est vrai, ces dernières versions de GNU/Linux ont connu quelques instabilités, mais cela a permit peut être de compenser l'écart qu'on avait avec les autres OS qui eux trainent du code datant d'il y a 20 ans et qui est obsolète au possible.

Des applications-killers en vue ? Une opportunité marketing ?

Ceci dit à cause de ce climat, il est sans doute trop tôt pour tenter une action marketing à grande échelle. Après tout dans certains domaines GNU/Linux a de gros points faibles comme les jeux vidéo. Mais les Logiciels Libres avancent vite et KDE 4.2, The GIMP 3.0, Firefox 3.1, etc. promettent énormément et pourrait devenir des applications incontournables, suffisamment pour attirer la population. Il est donc intéressant d'attendre l'évolution de ces logiciels, comme de l'intégration des pilotes libres de ATI par exemples. Mais un danger guette : Windows Seven. On ignore beaucoup de ce dernier, il y a certaines choses que l'on sait comme l'interface tactile mais est-ce que Windows Seven va révolutionner l'informatique comme cela était annoncé pour Vista ? On l'ignore, et si Seven est un succès populaire (après l'échec de Vista, cela est fort possible), GNU/Linux aura du mal à percer car les gens n'auront d'yeux que pour lui sauf si c'est un fiasco. Les gens profitent en ce moment d'un Vista peu populaire, rejeté de toutes parts. On peut supposer qu'il faudra le faire avant la sortie de Seven.

Comment faire la promotion de GNU/Linux ?

Pour faire ce type de publicité, il faudra sortir plus gros que les magazines de Diamond Edition et votre cousin Robert. Toute l'industrie informatique devra s'y mettre corps et âmes dans un assaut ultime. Tout d'abord il faut une unification dans le développement marketing pour éviter de se disperser. Les alliances comme entre Canonical, Red Hat et IBM sont une bonne chose vers ce sens, mais il faudrait également le soutiens d'autres poids lourds comme Sony, ASUS, Acer, Intel, nVidia, ATI/AMD, Dell et d'autres. Avec eux la campagne sera plus crédible et son impact ne sera que plus fort car ce sont des valeurs sures pour le grand public et même l'entreprise.

Cette campagne devra en somme faire un gros buzz, un peu comme l'iPhone ou Firefox à leurs sorties. Tout le monde doit en parler, de la presse informatique à la presse généraliste et évidemment dans le bon sens. La vente de machines et de matériels spécialement conçues pour GNU/Linux (comme l'EeePC avec la Xandros) est également essentielle. Bien que cela paraisse utopique, on se souvient de la publicité d'IBM diffusée de manière confidentielle ou encore le fait que GNU/Linux prend de la place dans l'embarqué et les netbooks. Le bouche à oreille devrait conclure cette campagne si bien menée permmettant peut être à GNU/Linux de grignotter quelques parts de marché et d'y faire son trou.

Ou alors la méthode douce

L'intrusion de GNU/Linux peut être plus progressive et moins brutale. La migration d'entreprises ou d'administrations est un exemple possible qui permet par la suite la migration des personnes qui y travaillent convenablement et sans accroche. Elle coutera moins chère mais sera plus lente. Dans ce cas, c'est vous utilisateurs de système libre qui avez la plus lourde tâche : faites migrer votre lieu de travail et votre famille sous GNU/Linux si évidemment cela ne pose pas de soucis dans l'efficacité. Aidez et aidez-vous des GULLs ou autres associations comme l'APRIL qui font en sorte que l'État français défendent et soutiennent le Logiciel Libre chaque jour. Et qui sait, si le gouvernement fait des actions et de la publicité pour notre système préféré, cela pourrait aider la conversion massive des utilisateurs non ?

Conclusion

Je pense et je montre à travers ce billet qu'il est trop tôt pour espérer une migration à grande échelle, pour l'instant on est à une migration douce et progressive. Mais cela ne suffira probablement pas si on veut que notre système se popularise au monde entier. Mais dans ce cas cela ne dépend pas que de nous mais aussi de l'industrie et comme on peut le voir, il y a des contraintes pour que la campagne soit un succès. De même que je pense que les systèmes comme Fedora ou Ubuntu sont assez peu stables notamment ces dernières versions car on est dans un cycle de renouveau pour doper l'évolution de GNU/Linux, si cela vous déplait, changez de versions ou de distributions (d'un autre côté prendre Fedora sans vouloir de la nouveauté, c'est un peu étrange non ? ;) ).

Et vous, vous envisagez comment la diffusion de GNU/Linux au sein du grand public ? Vous y croyez ? Vous en voulez ? Que faut-il faire selon-vous pour y parvenir ? Donnez vos idées aux développeurs, et participez aux projets que vous tenez le plus à cœur et ça aidera vous verrez.

Et si la théorie de l'évolution s'appliquait au Logiciel Libre

Introduction

J'ai souvent entendu, ici et là, en naviguant sur le Web, des personnes qui critiquaient la trop grande diversité du Logiciel Libre menant à la réinvention de la roue, des incompatibilités et autres problèmes nuisant finalement au Libre plus qu'elle n'apporte. Personnellement, je pense au contraire que c'est -dans une certaine limite- sa plus grande force et pour le montrer je pense qu'une petite analogie à la théorie de Charles Darwin est évidente, simple et efficace. Rien de scientifique là dedans ni de forcément exacte mais je pense que certains visualiseront mieux les avantages et la régulation naturelle conduisant à un avantage évident de cette diversité.

Au commencement...

On sait depuis un moment que toute espèce vivante est apparentée aux autres avec un ancêtre commun hypothétique unicellulaire. Malgré les différences entre ces espèces, on parvient à les classer en groupe comme les mammifères, les oiseaux, etc. Puis chaque individu est codé par un code génétique unique sous forme d'ADN. Quand on regarde les logiciels, on peut se dire (avec la disparition des cartes perforées) les logiciels libres initiaux sont le compilateur et l'éditeur de texte qui donneront naissances à d'autres logiciels par la suite. Et ces logiciels libres se sont diversifiées et malgré les différences on peut les regrouper en catégories comme le graphisme, les éditeurs de texte, les jeux, etc. Pour finir, un logiciel libre comme tout logiciel est composé d'un code unique lui étant propre : le code source.

Une évolution progressive

L'évolution des espèces se produit grâce à de multiples mutations génétiques qui ensembles forment de nouveaux caractères et donc de nouvelles espèces. Chez les logiciels on pourrait dire que les logiciels utilisent la bibliothèque C libre comme base et les imbrications, améliorations successives de cette dernière participe à l'élaboration de programmes de plus en plus divers et varié. Mais il existe dans la théorie de l'évolution des branches qui se coupent violemment et discontinues comme celle de la lignée humaine. On pourrait traduire ça par la naissance de nouveaux logiciels de bases comme les bibliothèques ou langages qui se basent (de manière hypothétique) sur la Lib C qui serait commune.

Et Dieu créa le fork !

Ces fameuses mutations pour les animaux peuvent être vues comme une copie du code source original puis après modifications donne un logiciel pouvant être totalement nouveau. Le fork peut être due à plusieurs facteurs : un désaccord sur les développeurs, de la communauté, sur la philosophies, les options, etc.
Le but du fork est de diversifier et d'étendre le public du logiciel et ainsi satisfaire un nombre d'utilisateurs plus élevé. Prenons l'exemple de Debian et Ubuntu, cette première est clairement destinée à des utilisateurs expérimentés ou dans des situations précises comme les serveurs. Debian n'a jamais revendiqué ni rien fait pour que le débutant s'y sente à son aise, d'où Ubuntu, qui a comblé le problème de Debian, et ainsi, a pu s'imposer dans la catégorie du « grand public » mais contrairement à Debian, Ubuntu n'est pas des plus réputés pour un utilisateur expert ou pour les serveurs. C'est une question de choix. Tout comme les animaux qui mutent pour s'adapter à l'environnement, le Logiciel Libre s'adapte à un public déterminé pour le satisfaire et le rejoindre. Le fait que Ubuntu ne soit pas des plus aptes par exemple à être sur un serveur n'est pas une insulte au contraire, ce n'est juste pas son objectif.

Regardez les papillons, les noirs généralement vivent dans les zones plus polluées car le bois est plus sombre et donc se camouflent mieux et inversement pour les blancs. Comme les papillons, les Logiciels Libres ne peuvent pas être tous multi-usages parfaitement et sont bien plus efficaces dans un domaine précis.

Vers une convergence évolutive ?

La convergence évolutive c'est le fait que les Logiciels Libres ou animaux évoluent séparément mais développent des fonctions similaires pour un milieu donné. Par exemple on sait que le dauphin et le requin sont de groupes opposés (poisson et mammifère), pourtant le dauphin a développé des nageoires car dans l'eau c'est la morphologie la plus avantageuse. Il n'a pas regardé des requins en se disant « ouaaa trop cool, j'en veux ! », d'ailleurs leurs codes génétiques diffèrent même pour cela.

Chez les Logiciels, même topo, regardez des navigateurs comme Firefox/Konqueror/Epiphany/Seamonkey, leurs apparences sont très semblables à la première impression. Je suis sûr que si vous utilisez Firefox et que vous testez Konqueror une seule fois, vous vous y retrouverez rapidement. Car l'interface graphique des navigateurs convergent vers une interface assez similaire car c'est sans doute la plus efficace pour cette tâche. Ou encore KDE et GNOME avec les 2 autres OS propriétaires, il y a des similitudes car bon il n'y a pas 10 façons de faire une interface graphique intuitive et la notion de barres et de barre des tâches était sans doute la meilleure, d'ailleurs d'autres environnements reprennent ce principe...

La destruction des espèces

La sélection naturelle est une loi inéluctable, l'espèce la plus forte s'impose et les autres meurent progressivement. C'est ainsi que l'Homme de Néandertal est mort il y a plusieurs milliers d'années suite à un réchauffement naturel du climat alors qu'il avait une corpulence pour supporter le froid. Contrairement à l'Homo Sapiens qui était moins trapu a pu tenir ce changement de conditions.

Le Logiciel Libre suit cette logique, plus un projet aura un public large, plus il s'imposera et les petits projets quant à eux perdront du public et des développeurs jusqu'à ce que le développement du logiciel meurt car le logiciel évolue trop lentement. Regardez -encore une fois- le cas Ubuntu. Avant Ubuntu il n'y avait en somme qu'une distribution grand public : Mandrake (la vieille époque hein ? ;)), ce marché était en berne et Mandrake avait des imperfections qui faisaient que le grand public avait plus de mal à venir. L'arrivée de Ubuntu en quelques mois a changé la donne pour se mettre en avant et reléguer Mandrake au second plan qui n'a pas réussit à tenir à la comparaison et à la force médiatique et marketing de Ubuntu. Ce changement d'environnement a bouleversé l'écosystème du Logiciel Libre tout comme l'Homme dans la Nature. Mais il est possible qu'un changement puisse inverser la tendance et supprime Ubuntu à tout jamais... Wait&see.

Le risque d'une imposition/monopole

Mais le problème que Ubuntu a embarqué comme l'Homme dans la Nature, c'est que l'ensemble modifie l'écosystème et risque de détruire un certain équilibre. L'Homme est ce qu'on appelle un super-prédateur, comme quelques rares animaux (comme l'ours), l'Homme n'a aucun prédateur naturel réel, il est donc au sommet. Et son action peut détruire à lui seul la survie de plusieurs centaines d'espèces diverses même parfois sans grandes importances. Le problème que Ubuntu pourrait créer, c'est de s'imposer au sein de la communauté et avec la force des médias la confusion GNU/Linux et Ubuntu se créent ce qui fait que le gens abandonneront leurs projets et distributions au profit de cette dernière qui prendra en importance. Et si l'industrie de l'informatique et la communauté tournent le dos aux plus petits projets suite à ça, ça sera leur mort assuré ou presque et seuls les plus grands survivront. Ce phénomène nuit à la diversité qui comme la théorie de l'évolution le montre, est la plus profitable au final.

Une diversité incontrôlable ?

Est-ce que cette diversité est réellement nuisible ? En réalité non, la Nature étant bien faite, le monde s'auto-régule naturellement via la théorie de l'évolution qui permet aux seules espèces les plus adaptées à l'environnement de survivre. Seulement certaines espèces peuvent avoir une plus grande influence sur l'environnement et accentuer le processus. Ceci dit il y a peu de risque que cette diversité soit incontrôlable. Par exemple on dit souvent qu'il y a plein de petits projets, il est vrai que quand on voit certaines distributions qui n'ont que un menu qui change par rapport à la première, on se demande qu'elle est l'utilité.

Mais il faut laisser faire, ces distributions tiendront tant que cela répond à un besoin, car après tout si elle ne répond à aucun besoin, à la fin sa communauté va disparaitre et de par la même occasion, les développeurs et donc le projet. D'ailleurs si on regarde bien, il n'existe qu'une vingtaine de distributions très connues sur plusieurs centaines qui sombrent dans l'oubli, ces 20 distributions (voire même 10) répondent quasiment à l'ensemble des besoins les plus généralistes, c'est sûr que de la distribution spéciale musique cela intéresse moins de monde qu'une Ubuntu mais cela n'enlève pas l'utilité de la première. Et si on regarde mieux encore, dans ces distributions, certains sont parmi les plus anciennes distributions comme SuSE, Debian, Red Hat, Slackware ou autres et leurs communautés ne désemplissent pas, les autres naissent et meurent en vain de trouver du succès à part quelques exceptions comme Mandrake ou Ubuntu...

Certains décrieront une dispersion de l'énergie, c'est vrai qu'il y en a. Mais qui sait leurs projets a peut être une utilité ou pourrait révolutionner l'écosystème de GNU/Linux. Puis d'un autre côté, changer la position d'un menu ne demande pas les mêmes compétences que pour créer un noyau révolutionnaire. Il y a donc un certains équilibre et la perte d'énergie est rapidement compensé. Le tout est que les Logiciels Libres ne se créent pas des incompatibilités entre eux de manière trop violente.

Conclusion

J'espère que cet article suite à des analogies assez connues je pense vous aideront à comprendre les biens faits de la diversité du Logiciel Libre et en quoi elle n'est pas destructive.
Ce message n'est pas un troll ni envers Ubuntu ni aucun autre projet et l'ensemble de ce message est applicable à l'ensemble des Logiciels Libres. Pour conclure mon exemple pour montrer les bien faits de la diversité : The GIMP est le plus puissant Logiciel Libre d'édition de l'image mais pour redimensionner la taille d'une photo c'est utiliser un tank pour tuer une mouche, trop lourd, c'est là que KolourPaint prend son sens car plus léger et simple puis ImageMagick qui est encore plus efficace mais un poil moins sexy à l'usage sans doute. Chacun a donc son public et son usage pourtant dans un même domaine.

dim., 16/11/2008

Que choisir : une distribution en 32 ou 64 bits ?

Ce débat ressort souvent sur beaucoup de forum dont ceux de Fedora-fr. Souvent on se retrouve avec les vieux arguments qui datent de l'ère des machines à écrire et qui n'ont plus lieux d'être. Ce billet peut servir d'appoint à une discussion de ce type car bon personnellement ressortir els mêmes arguments c'est énervant.

Depuis quelques années, avec l'apparition des processeurs 64 bits, il n'en fallait pas longtemps pour que GNU/Linux suive la tendance et sorte des versions dédiées. Mais au début de ce changement, peu de logiciels existaient pour le 64 bits et il était pénible pour installer des versions 32 bits et finalement les gains étaient plus que rédhibitoires. Mais la situation a évolué, et dorénavant utiliser GNU/Linux en 64 bits est aussi bien si ce n'est mieux qu'en 32 bits, ceci est beaucoup moins vrai pour Windows par exemple...

Voici donc une petite liste d'arguments en faveur de leur utilisation, évidemment si votre processeur supporte cette architecture :

  • Si vous avez plus de 4 Go de mémoire vive, ça sera totalement reconnu par défaut et exploitable. Linux supporte le PAE permettant de dépasser cette quantité supportée en 32 bits, mais certaines configurations ne supportent pas cela puis cela demande des manipulations supplémentaires.
  • Amélioration dans les performances, surtout dans le multimédia ou la compression des données ou même la compilation. Je vous invite à lire cet excellent billet de eddy33. Et vu que l'optimisation multi-processeur/multi-thread s'améliore notamment en programmation, il est possible que els améliorations soient plus visibles un jour prochain.
  • Le 64 bits c'est l'avenir, bien que le 32 bits va tenir via l'embarqué, la plupart des machines en ventes sont en 64 bits donc autant y passer tout de suite au lieu de sous-exploiter votre machine pour rien...
  • Plus ces systèmes seront adoptés, plus les éditeurs de logiciels s'y mettront aussi (du moins probablement).
  • Ça fait geek.

Ceci dit, je vois arriver à grands pas des contre-arguments, pour certains connus que je vais rétorquer car depuis le temps c'est faux :

  • Les systèmes 64 bits ont besoin de plus de mémoire que le 32 bits. C'est vrai, mais avec les quantités de RAM vendues sur le marché vous ne sentirez rien du tout, vous verrez plus d'améliorations de performances que le contraire.
  • Grâce aux codes ouverts des Logiciels Libres, beaucoup d'applications ont une version 64 bits. Très peu de logiciels sous GNU/Linux n'existent qu'en 32 bits.
  • Les processeurs actuels supportent le 64 bits mais aussi le 32 bits en même temps. Donc votre système GNU/Linux peut installer des applications 32 bits en toute transparence pour vous (comme WINE). Fedora a d'ailleurs fait beaucoup d'efforts pour que ça se déroule sans problème, de mémoire pour d'autres distributions c'est un peu plus gênant.
  • De ce fait, beaucoup d'applications 32 bits-only propriétaires comme Flash sont utilisables sans problèmes. Il existe beaucoup de documentation pour les installer si vous avez des difficultés.

Donc finalement qu'est-ce qui vous retient ? Passez en 64 bits et vous verrez que ce n'est pas horrible et inutilisable ! Faites passer le message, il faut arrêter ces idées reçues. D'ailleurs regardez ces statistiques de l'utilisation du 64 bits au sein de Fedora (grâce aux données de Smolt), vous croyez que 20% des utilisateurs de Fedora l'utiliseraient si c'est si mal fichu ?

Le 64 bits est l'avenir, profitez-en. Sinon c'est comme si vous mettez un moteur de 2CV dans une BMW récente... Ça marche mais il y a mieux. :-)

sam., 15/11/2008

Et si Wikipédia révélait les défauts des médias traditionnels ?

Je pense qu'il est inutile de présenter Wikipédia. Cette encyclopédie libre qui nous rend constamment de nombreux services et l'un des piliers de ce qu'on appelle le web 2.0. J'ai lu plusieurs ouvrages et critiques envers Wikipédia qui révélaient la chose suivante : ce n'est pas fiable et on ne doit pas y faire confiance.

Les détracteurs de l'encyclopédie sortent souvent cet argument de poids pour ne pas l'utiliser. Mais n'est-ce pas la force de Wikipédia finalement de ne pas être fiable ? Je m'explique, une personne assez critique sous Wikipédia ne fera pas confiance au contenu et vérifiera les informations (aidés par les sources présentes sur de nombreuses pages !). Car finalement cette personne qui est devenu critique à l'égard du contenu aura tendance à vérifier chaque informations avant de l'assimiler, choses qu'on ne fait pour aucun autre média ! Et si finalement Wikipédia permettait cette prise de conscience et l'apprentissage d'un processus indispensable ?

On a tous connu l'épisode de l'histoire « vu à la télé » garantissant une vérité alors que finalement, on a pu observer bien des bêtises. Est-ce que Wikipédia est le seul média que l'on doit vérifier ? Je pense que non, chaque média doit mériter une vérification assez minutieuse pour s'assurer que l'information est vraie. Vérifier peut prendre 5-10 minutes, et pour cela on peut se baser sur le principe : plus une information est citée, plus on peut supposer qu'elle est vraie. Alors les journalistes qui critiques Wikipédia par son manque de fiabilité, il faut admettre que chaque média présente ce défaut et que vérifier une information est indispensable. Surtout que c'est amusant mais de plus en plus de journalistes ne vérifient pas leurs informations et finalement on se retrouve avec une fausse annonce et ils osent critiquer Wikipédia.

Un exemple : récemment un garçon cet été a été perdu dans la Nature et pendant plusieurs jours une équipe de recherche a été mise en place. Un soir, au JT de 20h de TF1, on apprend que l'enfant est décédé pour que le lendemain on apprend qu'il est vivant et en bonne santé ! Résultat des courses : le journaliste a été licencié mais pendant 16h les gens étaient dans un mensonge. Mais ce genre de cas est de plus en plus fréquent, et encore plus dangereux quand on prétend que la source est fiable. Par exemple plusieurs expériences scientifiques publiées par les moyens traditionnels ont été des supercheries et ont mit des années avant d'être révélées ! Ou encore Orson Wells qui dans les années 20-30 a fait croire (par la radio) à une invasion extra-terrestre créant un mouvement de panique et le lendemain 6 millions d'américains fuyaient leurs maisons. Ou pour finir sur les « soirées de l'étrange » de TF1 qui montrent un grand nombre de phénomènes qui ont été mis à mal (par exemple le mythe du triangle des Bermude qui a été contredit depuis longtemps). On passera sur le nombre de fois où les journalistes à la télé ou dans la presses écrites se plantent totalement quand ils parlent d'informatique car ils ne connaissent pas le domaine. Je suis sûr que vous en avez vu plein. ;) La liste est longue, et comme on peut le voir, tous les médias sont concernées et même des sources qu'on qualifie d'habitude de fiable.

Moralité : Quel que soit le média que vous observez, vérifiez l'information. Ne faites pas plus confiance à Larousse que Wikipédia et vérifiez constamment, encore plus quand c'est une recherche importante comme en université par exemple. Et si Wikipédia a tort, corrigez, ça ne vous fera pas de mal. ;)

jeu., 13/11/2008

Le cloud computing et le web 2.0 : vers la fin du web ?

Alors que Microsoft vient de publier Microsoft Office pour le web, je commence peu à peu à m'exaspérer de ces sites ou produits sur le web et peu de gens prennent conscience que derrière il y a des risques ou des problèmes qui concernent tout le monde !

La sécurité

Ce que je trouve étonnant, on ne parle jamais de sécurité au sujet de ces applications web. Pourtant, comme tout programme (à part ceux de Donald Knuth), tout logiciel codé par un humain est faillible et peut avoir bogues et autres failles de sécurité. Et sur Internet, plus que jamais la sécurité est un point crucial qu'il ne faut absolument pas négliger. Combien de personnes ont contracté des virus ou ont eu des attaques ou vols d'informations via des sites web ? Ou encore à partir d'une simple pièce jointe... MS Office vient d'avoir un correctif d'une faille de 2006 il y a quelques heures, qu'en sera-t-il de la version web si une grosse faille existait ? Tout est possible, vol de documents, de compte, contrôle à distance, envoie de virus ou autres... D'autant que certains navigateurs sont comment dire, des passoires ambulantes.

À contrario, les applications locales présentent moins de risques (en général), je vois mal The GIMP se connecter à Internet alors que Photoshop en ligne peut profiter de la puissance du réseaux en pour répandre son problème et les désagréments que cela peut causer. Tant qu'à faire, déjà qu'on a assez de faille en locale, je n'imagine pas sur les applis web qui sont plus risquées...

La vie privée

On va me traiter de paranoïaque, beaucoup ignorent des possibilités d'une telle violation de la vie privée. Un document disposée sur un réseaux ou un serveur d'une entreprise qui ne dévoile rien tel que Google, Microsoft ou tant d'autres, c'est leur confier des documents précieux sans en avoir le contrôle. Imaginons le cas suivant, je suis le directeur d'une PME avec beaucoup de concurrents. Étant un technophile, je m'attèle à l'usage de ces outils en ligne. Seulement je veux créer avec quelques collaborateurs un document présentant le plan marketing à réaliser et dans les mains de la concurrence ça ferait mal. Une fois le document finit, on l'imprime et on souhaite effacer toute trace numérique par précaution. Celui du disque dur est supprimable à l'aide d'outils comme ceux de GnuPGP et non retrouvable à jamais. Mais celui du serveur distant, qui me dit que c'est supprimé définitivement et qu'un vol de compte par un concurrent ne permettrait pas de les récupérer à mon insu ?

Puis comme on le sait, sur Internet on laisse beaucoup de traces que nombreuses entreprises en profite comme Google, Yahoo!, Facebook ou autres. Ces informations servent entre autre à la vente pour des publicité ciblée (oh tiens du pourriel, des appels téléphoniques indésirables, ça ne sort pas de nul part). Mais en plus ça facilite la prise d'information par un tiers. J'ai réalisé l'expérience de suivre sur Internet la petite vie de personnes totalement inconnues, en quelques minutes et à coup de wget répétitifs, j'ai pu trouver quelques 300 images, pu voir l'ensemble des informations personnelles d'une personne ou encore la liste d'amis et même la possibilité de retracer partiellement l'emploi du temps. Tout est facilité à ce niveau, qui dit que votre prochain employeur ne va pas y jeter un coup d'œil pour influencer son choix vis à vis de votre comportement par exemple ou voir des situations compromettantes... Ou encore avec un État qui au nom de la sécurité souhaite contrôler la vie de chaque individu (si on examine les lois de la France et des É-U depuis 2001, beaucoup vont dans ce sens). Les É-U sont capables de pouvoir prendre n'importe quelle information vous concernant à partir d'une entreprise détenant les informations et ce sans résistance de l'entreprise qui détient l'information. On ignore quel sera notre État dans 10-30 ans voire plus. Sous Napoléon on a fiché les origines de la population, 1 siècle et demi plus tard on s'en sert pour emmener des juifs et autres dans des camps de la mort... L'Histoire se répète, et quand on perdra la notion de vie privée on ne la retrouvera pas. Pourtant la vie privée est essentielle pour une démocratie. Lisez 1984 de George Orwnell, c'est très intéressant.

Puis comme on dit souvent : MES données, MES logiciels sur MON disque dur. Je vois mal pourquoi ça irait ailleurs après tout. Vous mettez vos fiches de payes chez votre voisin ?

L'accessibilité et le propriétaire

Inutile de dire que l'objectif premier du Web à savoir être accessible à tous est mort depuis longtemps. Avec l'essor du Flash et prochainement de Silverlight pour ce beau web 2.0 va mener à la destruction de la notion d'accessibilité qui a pourtant fait le succès de ce réseaux. Imaginez ce qu'est le Web pour un aveugle. Faire ses courses sans se déplacer, avec une correspondance active et aisée, accès à une source d'information qu'il n'aura jamais accès dehors contrairement à nous, la possibilité de travailler de chez lui, etc. Le Web sont pour eux une révolution dans leur méthode de vie, de même que d'autres handicapés visuels ou moteurs et pourtant on détruit petit à petit leurs terrains de jeux avec des sites de moins en moins accessibles...

Non seulement ces solutions ne sont pas toujours accessibles mais ils dépendent souvent d'une technologie propriétaire. Flash ou Silverlight par exemple. Alors que le web est un ensemble de protocoles et de langages bien documentés et accessibles à tous, on le sait bien que de réaliser un plug-in Flash 100% fonctionnel à partir des données d'Adobe est impossible. *BSD et Solaris n'ont que les yeux pour pleurer, GNU/Linux aussi car notre plug-in n'est pas du même niveau que celui de Windows ou Mac OS X. Cette discrimination du logiciel n'est pas bénéfique au web et au logiciel libre. Le web s'enferme petit à petit alors que pourtant il existe des solutions qui arrivent progressivement comme l'Ogg Theora dans Opera et Firefox ou encore le SVG qui évolue doucement mais manque d'intégration... Je suppose que je prêche auprès de convaincus, nous sommes tous plus ou moins sensibilisés à l'idéologie du Libre. Au lieu de succomber à Flash et de décrier que nos versions libres sont pourris (ce qui est vrai), désinstaller-le et vous verrez non seulement les dégâts du propriétaire sur le web qu'ils ont causé mais aussi vous militerez pour un vrai Web ouvert et Libre !

Conclusion

Ce message présente un point de vue totalement subjectif, je me doute bien que certains vont décrier que je suis non seulement paranoïaque mais aussi que je dis n'importe quoi. Il y a peut être du vrai mais il est temps de réfléchir sur cette nouvelle mode des applications web car ce monde n'est pas tout rose et encore moins pour les logiciels libres !

De toute façon les suites Office sur le web n'ont aucune chance, LaTeX permet une collaboration facile et c'est plus puissant, que demander de plus ?

sam., 11/10/2008

Petit rappel de la philosophie de Fedora

Fedora (anciennement Fedora Core) est une distribution qui en novembre 2003 a remplacé l'ancienne distribution Red Hat Linux car Red Hat voulait se concentrer sur une distribution orientée entreprise. Fedora est communautaire bien que Red Hat apporte un soutien important à la communauté que ça soit dans le développement, les moyens financiers ou la logistique avec par exemple l'hébergement du BugZilla de Fedora qui cohabite avec celle de Red Hat.

Fedora est une distribution ayant pour but d'être une vitrine technologique du logiciel libre en étant composé que de logiciels dits libres. Cette philosophie influe sur la situation de Fedora au sein des distributions GNU/Linux dans son ensemble. Fedora pour être à la pointe de la technologie favorise le développement en upstream. C'est à dire que les développeurs de Fedora s'impliquent dans le développement de plusieurs logiciels libres qui seront les technologies de demain de GNU/Linux (PackageKit, NetworkManager, PulseAudio, SELinux, etc.) et même dans des logiciels courants comme le noyau Linux. Fedora sert de plateforme de lancement de ces technologies, en les intégrant dans une distribution pour faire des tests grandeurs natures et éliminer la plupart des problèmes avant d'intégrer d'autres distributions. L'exemple le plus connu actuellement et récemment est sans doute PulseAudio qui a été intégré à Fedora 8 pour que 6 mois plus tard Ubuntu, Mandriva et OpenSuSE l'utilisent. Cette plate-forme de lancement permet l'accélération du processus d'adoption d'une technologie au sein de GNU/Linux dans son ensemble.

Fedora pour être à la pointe a toujours les dernières versions de logiciels à sa sortie, ou presque. Avec un gel de l'intégration de nouvelles versions relativement tard face à d'autres distributions, Fedora peut se le permettre. Mais par cet aspect technologique, Fedora n'assure qu'un bref support de sa distribution. Le support d'une version de Fedora est d'en moyenne 13 mois. En réalité c'est le temps de sortir 2 versions stables et attendre un mois après la sortie de la 2e... Par exemple Fedora 8 aura un support qui durera jusqu'à un mois après la sortie de Fedora 10. Fedora 10 sortant normalement vers le 25 novembre, Fedora 8 ne sera plus supporté après le 25 décembre 2008 ce qui fait environ 13 mois après la sortie de Fedora 8 (sortie le 8 novembre 2007). Ceci s'explique par le fait que Fedora 8 commence à avoir des logiciels « vieux » et que Fedora veut être une vitrine technologique. Un support plus long demanderait beaucoup d'énergie et de main d'œuvre alors que Fedora en manque déjà ! Avant le projet Fedora Legacy s'assurait d'une maintenance plus longue mais le projet s'est éteint en en décembre 2006 par manque de main d'œuvre. Si vous voulez, CentOS est une distribution qui est une copie quasi-conforme de Red Hat, lui même basé sur Fedora mais ayant un support de 7 ans et ce gratuitement.

Fedora ne se base que sur des logiciels libres. Par défaut, à part les fameux micro-codes qui devraient partir d'ici Fedora 11, Fedora ne fait le support d'aucun logiciel non-libre et ce pour une question éthique. Car une vitrine de logiciels libres doit être composé que de ces composants libres, sinon cela gâche le tableau. Il est possible d'installer des logiciels propriétaires via Livna (bientôt RPMFusion) mais ce dernier n'a aucun lien officiel avec le projet qui donc se débrouille tout seul. Ceci étant, Fedora et Red Hat sont basés aux États-Unis. Comme on le sait ce pays possède de nombreux brevets logiciels pouvant nuire aux 2 projets. Donc ils ont préféré exclure des logiciels libres pour cause de violation possible de brevet aux USA ce qui serait embêtant notamment en cas de poursuite. C'est pour ça notamment que Codeina qui vous propose d'acheter des codecs de formats propriétaires comme le MP3, à cause de la législation américaine, nous européens pouvons utiliser Livna en toute tranquillité pour les installer gratuitement. Les autres distributions comme Ubuntu, Mandriva ou OpenSUSE (qui ont le soutient d'entreprises) sont eux basés en Europe et n'ont donc pas ce problème épineux.

Ce petit rappel de la philosophie de Fedora permettrons à certains de découvrir cette distribution sous un autre œil ou de prendre du recul sur la question. La comparer avec Mandriva, OpenSUSE ou Ubuntu serait dénué de sens, les objectifs et idées de chacune étant différentes et s'adressent donc à des publics différents. À vous de savoir quelle philosophie et objectif vous convient le mieux.