Dans les entrailles du Libre

Aller au contenu | Aller au menu | Aller à la recherche

jeudi, février 21 2013

Venez à la Journée de l'Informatique Libre ce samedi 23 mars à Toulon !

Ce samedi 23 mars 2013, se tiendra la Journée de l'Informatique Libre pour sa troisième édition. Cette fois encore, elle sera à la Maison des Technologies à Toulon, dans le bâtiment de l'école d'ingénieurs ISEN Toulon et de La Cantine de Toulon qui nous prêteront les locaux. Cet évènement est planifié de 9h à 17h.

Programme

La journée sera l'occasion pour la communauté locale de tenir des conférences sur les sujets de l'informatique libre. Pour cela les thèmes principaux sont : la culture libre, l'OpenData, les Logiciels Libres et tous les mouvements associés. Des ateliers sont proposés à côté ; cela donnera un côté plus pratique à la libéralisation de l'informatique pour l'utilisateur, avec l'apprentissage du maniement d'un logiciel libre par exemple.

Plus précisément, le programme abordera les points suivants :

  • Introduction aux Logiciels Libres de Véronique Fritière
  • Les formats ouverts de Thierry Stœhr
  • Les licences libres comme un acte de résistance de Laurent Paoletti
  • Comment devenir éditeur de logiciel libre quand on est une entreprise ? de Hybird
  • Creative Commons de Guillaume Perocheau
  • LaTeX de Thierry Stœhr
  • OpenERP de Jean-Marc Le Goff
  • OpenPGP de Jean-Jacques Brucker
  • CaspWiki de Guy Lebègue
  • Inkscape de Véronique Fritière

Durant la journée, il y aura une install-party. Elle est destinée à apprendre aux visiteurs à installer des logiciels libres sur les ordinateurs qu'ils apportent ou de les dépanner sur des problèmes du quotidien par rapport à leurs utilisations. L'objectif est de favoriser l'adoption des logiciels libres avec l'aide de la communauté toulonnaise et de son expérience.

À côté de cela, il y aura la possibilité de réaliser des ateliers et mesures pour OpenStreetMap pour apprendre à contribuer à ce projet de cartographie. Il y a également la possibilité de venir pour signer vos clés numériques PGP !

Informations complémentaires

Si vous souhaitez obtenir plus d'information sur cette journée, son déroulement ou le plan d'accès, merci de visiter le site officiel de la JIL 2013.

Cette journée est organisée par les associations le Club de l'ISEN sur les Logiciels Libres avec la participation notable de Linux-Azur, ToulonuX et Gullivar. Cet évènement est parmi les plus importants de la région sur ces thèmes et reste l'occasion de resserrer les liens de la communauté régionale.

Nous remercions également le soutien financiers ou logistiques des entreprises suivantes : TVT, Hybird, Editions Diamons et Eyrolles.

dimanche, octobre 10 2010

Mme Michu : la nouvelle excuse pour critiquer les défauts ?

Je trouve que depuis un an ou deux, on a eu affaire a un nouveau personnage : Mme Michu. Cette dame, inconnue de tous est pourtant tellement citée qu'on pourrait presque la croire réelle. Ces dernières années elle est récurrente dès qu'il s'agit de parler de grand public ou de dysfonctionnement d'un logiciel. Seulement elle commence à m'énerver car pour moi c'est la pire des excuses et la pire des conneries possibles.

Mme Michu n'existe pas

Mme Michu en effet n'est pas réelle. Déjà dans tous les trolls, on peut voir qu'elle a plein d'exigences et de compétences. Un coup c'est une graphiste professionnelle, une autre fois c'est une incompétente de l'informatique, une autre fois ça sera une « jamais contente » ou tout simplement une ménagère qui veut parler à son fils via une webcam seulement du modèle Logitech XEUE:EEIU qui évidemment ne fonctionne pas dans les contrées libres. Le seul point commun à toutes les descriptions est la suivante : elle s'en fout de la notion de « Logiciel Libre ». Cela signifie une chose : tous ceux qui l'utilisent comme argument sont comme elle. Pourquoi ? C'est juste une excuse pour justifier ses propres problèmes ou exigences tout en se dédouanant de se foutre de la notion de Logiciel Libre. Pourtant c'est je pense l'argument le plus important pour utiliser de tels logiciels.

Donc Mme Michu représente des tas de métiers dans le monde, ce qui fait qu'elle n'existe pas. Personne ne peut avoir tellement d'exigences, et le grand public ne peut avoir ses exigences représentées par une personne type. On est tous unique, et on a tous des attentes différentes d'un ordinateur. Certains en ont besoin pour un métier, d'autres un loisir mais certains seront en même temps aveugles, gauchers, ou avec des troubles musculaires. Il n'y a pas un profil type pour décrire autant de combinaisons différentes donc Mme Michu n'existe pas, ou si elle existait, cela n'aurait aucun sens ou intérêt.

Tout le monde a des besoins différents, certains préfèrent la barre en haut, d'autres en bas, etc. Il est impossible par exemple qu'une interface graphique corresponde à tout le monde. Certains trouveront cela beau, d'autres moches, certains ont des besoins qui font qu'ils seront plus efficaces autrement, certains auront besoin de fonctionnalités pour permettre un certains conforts alors que d'autres non. La preuve de cela, KDE et GNOME par exemples, malgré les trolls, sont tous deux excellents pour ceux qui l'utilisent. Certains trouveront en KDE leur bonheur d'autres ça sera avec GNOME ou autre chose. Et les captures d'écran prouvent que malgré ces choix, tout le monde personnalise un minimum ces interfaces pour un meilleur confort d'utilisation car nos besoins et attentes sont tous différents.

Mme Michu se fout du libre

Comme je l'ai dis précédemment, Mme Michu s'en moque du libre. Et je constate que certains justifient¹ que « comme Mme Michu ne sait pas rapporter un bogue, moi non plus car il est amoral d'exiger de moi plus que Mme Michu » et ça je le constate que trop souvent sur les forums. Certains disent que c'est beau que le Logiciel soit libre mais si on doit utiliser la documentation ou rapporter un bogue majeur, alors c'est un logiciel mal fait.

Mais cela est oublier la notion de Logiciel Libre et son intérêt. Le Logiciel Libre est une chance qui a des défauts. Il faut se sentir heureux que si on a un souci il y a une communauté derrière pour nous aider, qui peut corriger les problèmes que l'on rencontre dans le code même du logiciel. Je ne suis pas sûr que Apple ou Microsoft tiennent mieux compte des intérêts de leurs utilisateurs et corrigent le maximum de problèmes qu'ils peuvent rencontrer, même les plus infimes.

Rapporter un bogue ce n'est ni long et ni difficile. Si Mme Michu ne sait pas le faire c'est son problème car elle ne profite pas de ses libertés mais consomme juste le logiciel. Seulement, vous, vous pouvez le faire, vous pouvez améliorer le logiciel que vous utilisez ou que vous aimez et ça c'est très différent et important. « La liberté ne s'use que lorsque l'on ne s'en sert pas »

Mme Michu et la perte de liberté

Certaines entreprises et des utilisateurs ou développeurs veulent que Mme Michu puisse utiliser du Logiciel Libre. Je ne critiquerais pas ce souhait car moi aussi j'aimerais bien que ça se fasse d'un côté et que ça permet d'avancer. Par contre depuis quelques années je constate des dérives dues à cette volonté qui me semble néfaste pour le concept même du « Logiciel Libre ». Pour que Mme Michu utilise un OS libre il faut que tout soit facile mais également qu'elle puisse reproduire ses anciens comportements sur GNU/Linux. Et ça c'est dangereux.

Car les anciennes habitudes de Mme Michu sont liées au logiciel privateur. Elle veut lire ses fichiers MP3, aller sur Youtube, parler via Skype ou MSN et utiliser son iPhone. C'est son droit le plus strict, si c'est son souhait elle est libre de le réaliser. Le problème c'est que beaucoup, par fainéantises et manque de conviction se laissent aller et adopte son comportement jusqu'à même imposer cela par défauts dans certaines distributions.

J'en avais déjà parlé dans mon blog avant² et je ne ressortirais pas tous les arguments. Seulement il est difficile de nos jours de citer une personne utilisant uniquement des Logiciels Libres sur sa machine. Je comprends parfaitement certaines situations, notamment professionnelles qui obligent cela, mais acheter un iPod ou iPhone quand on a GNU/Linux, ou encore préférer un lecteur Flash à télécharger la vidéo en local sans oublier de préférer le format MP3 au FLAC ou OGG c'est se foutre des valeurs du libre. Je pense qu'il est impossible de prôner la victoire du Logiciel libre auprès du grand public en ayant le comportement précédent, ou alors c'est juste la victoire de GNU/Linux qu'on veut mais pas du Logiciel Libre. Je trouve regrettable que pour quelques parts de marché en plus on sacrifie l'essence même des logiciels qu'on utilise, leur force de base qui a permis cet essor. Je ne suis pas venu ici pour Mme Michu, ni encore pour des trucs kikoolol avec des sources fermées. Je suis venu pour moi, pour la philosophie que j'adhère car elle me semble juste, sacrifier tout ça pour Mme Michu, est-ce que ça en vaut la peine ?

Je pourrais faire la comparaison suivante : est-ce qu'il faut tomber dans l'état orwellien de Big Brother et perdre toutes nos libertés juste pour garantir notre sécurité face au terrorisme ou aux pédonazis/pirates d'Internet ? Si pour vous ça ne vaut pas le coup, songez à cette situation mais dans la situation que j'ai décrite et vous aurez la réponse à la question du paragraphe précédent…

mercredi, août 18 2010

Participez aux journées de tests de Fedora : c'est libre et gratuit pour tous =)

Pour ce premier billet depuis longtemps, je tenais à présenter les journées de tests de Fedora. Particulièrement parce que l'Alpha de la Fedora 14 pointe le bout de son nez et que les journées de tests vont se multiplier.

C'est quoi une journée de tests de Fedora ?

Quand une nouvelle Fedora est en développement, celle-ci va inclure des nouveautés qui peuvent être importantes. Le problème c'est qu'il y a souvent peu de personnes qui testent ces versions, et encore moins nombreux sont les gens qui testent profondément certaines nouveautés (par incompétence dans le domaine, ignorance de la nouveauté, ignorer comment tester correctement et dans l'exactitude, etc.) et avoir des tas de rapports de bogues sur une nouveautés avec des tests faites de manière anarchique (chacun fait comme il peut) n'aide pas toujours les développeurs à savoir où sont les problèmes et quels sont-ils.

C'est pour cela que les personnes chargées de l'Assurance Qualité Fedora font chaque mardi (en général) des Journées de Tests. En gros durant un mardi, on invite tous les testeurs à suivre une procédure dictée avec des outils pour et des commentaires à côté. L'objectif est qu'un maximum de personnes, sur un nombre maximal de machines puissent réaliser tous les tests proposés avant de mettre sur un tableau final tous les résultats obtenus. Ensuite selon les résultats, on ouvre des bogues avec les informations obtenues par ces tests pour corriger ce qui ne va pas.

Pourquoi y participer ?

Pour pas mal de raisons à dire vrai, j'invite tous le monde à le faire et voici pourquoi :

  • Car chaque configuration est unique, la votre peut avoir un problème important (ceci est particulièrement important quand on réalise des tests en rapport avec le matériel utilisé)
  • Plus il y a de testeurs, plus on a d'informations sur le problème et plus c'est simple à corriger (en théorie)
  • Car grâce à vous, peut être qu'on corrigera un problème qui touche beaucoup de monde et qui vous seront indirectement très reconnaissants
  • C'est assez simple, des marches à suivre et des résultats à poster, c'est très guidé (contrairement à un rapport de bogue classique où on doit se démerder pour savoir comment obtenir certaines informations, ici c'est expliqué)
  • En testant la Fedora instable, vous contribuez à son développement ce qui est très bien pour l'égo (ou pour participer à ce bazar) puis ça vous évitera d'avoir à râler quand la version stable sort et que le problème vous saute à la gorge car vous n'avez pas testé plus tôt =)

Qui peut y participer ?

Un peu tout le monde qui a de la bonne volonté, cependant il y a deux mises en garde :

  • Connaitre l'anglais un minimum est un plus pour comprendre les instructions et ensuite assurer quand il y a un bogue à rapporter
  • Utiliser une Fedora en développement comporte toujours des risques et savoir se dépatouiller est également important, ça évite d'avoir des problèmes ou de commettre de grosses conneries

Donc comme vous pouvez le voir, ces Journées de Tests sont très importants et font partie intégrante du développement d'une Fedora. Et si ça vous botte de donner un coup de main, voici le calendrier (en élaboration) des prochaines Journées de Tests : http://fedoraproject.org/wiki/QA/Fedora_14_test_days . Pour connaître la procédure, suffit de cliquer sur la date de l'évènement et vous n'avez plus qu'à suivre les instructions.

lundi, avril 27 2009

Muffin, le magazine francophone et communautaire de Fedora a besoin de votre aide !

C'est avec un certain regret que je viens, une nouvelle fois, recourir à l'aide et au soutien de la communauté du Logiciel Libre pour produire le numéro 2 de Muffin. En effet, Muffin depuis quelques semaines, alors que la rédaction des articles commençait, l'avancement s'est assez soudainement stoppé, plus personne ne répondait à l'appel.

Le choix des articles (du sommaire en somme) tout comme des grandes lignes de la future couverture ont été fait ce qui a été long et pénible et l'enthousiasme des premiers jours n'est plus là. Pourtant l'objectif de la sortir aux environs de Fedora 11 reste envisageable (fin mai-début juin) mais il ne faudrait pas trop tarder pour cela.

Muffin reste quand même un superbe moyen de communication parallèle à une documentation souvent lourde et faisant peur peut être pour apprendre aux utilisateurs à manier Fedora correctement, connaître son organisation et son fonctionnement. Cela reste aussi une occasion unique de faire découvrir des logiciels nouveaux et importants aux utilisateurs comme ici PackageKit et Sugar qui sont grandement développés par Fedora. De même que Muffin est un moyen de montrer que la communauté francophone de Fedora est forte et unie, plus que jamais. De nombreuses communautés libres et surtout les communautés locales de Fedora nous envies un tel dynamisme et un site web si riche et complet, ça serait je pense une bonne chose de montrer de quoi notre communauté est capable en repoussant les limites que le premier numéro a marqué.

C'est pour cela que toute aide est la bienvenue, bien que des rédacteurs soient préférés. Si les articles du numéro 2 vous intéressent et si vous en avez les capacités d'en assumer la rédaction vous pouvez rejoindre la communauté de Muffin par ce biais tout en sachant qu'on sera là pour vous aider et guider et on vous encourage à nous rejoindre. Je précise qu'il n'est pas forcément nécessaire de connaître beaucoup Fedora pour nous aider, Fedora reste une distribution GNU/Linux qui a de grandes ressemblances avec les autres distributions et l'usage de nombreux logiciels ne change pas. De même que des connaissances poussées ne sont pas requis, la communauté est là pour pallier vos manques et répondre à vos questions et on sera tous ravis de le faire !

Je profite de ce message, pour remercier le soutien que le magazine Magnum (notre alter-ego chez Mandriva) a fait envers nous. Ce soutien a été précieux à nos yeux étant donné leur parcours et qui montre que le Logiciel Libre, malgré nos trolls le vendredi soir, a une communauté unie et solidaire.

mercredi, avril 1 2009

L'HADOPI est voté : application pour le 1er juillet 2009, le Logiciel Libre sous surveillance !

Ça y est, le verdict vient de tomber, HADOPI, la loi de tous nos maux depuis 1 mois au moins est votée et sera mise en application le 1er juillet 2009 le temps que tout le monde remplit la bonne paperasserie.

Ceci dit, Christine Albanel ne veut pas en rester là, elle décide d'attaquer les méchants pas beaux (qui ont voulu sauver l'humanité, il y a de quoi) qui ont attaqué frauduleusement le site jaimelesartistes.fr et d'après sa déclaration de ce matin, le Logiciel Libre est pointé de doigts avec la Quadrature du Net comme ayant été les responsables en soulevant la population contre cette loi violemment. Les grands acteurs du Logiciel Libre français et ses sites de prédilections sont donc sous surveillances et leurs communautés respectives.

Elle est en train de préparer un dossier avec l'aide de notre chère industrie du disque pour interdire l'usage du P2P et de Torrent pour condamner leurs développeurs et utilisateurs. Un logiciel pour Windows sera obligatoire pour toutes les machines pour vérifier l'usage de ces logiciels.

L'APRIL, La Quadrature du Net et Linuxfr se sont engagés pour le moment pour lutter contre ces dispositions jugées « comme profondément immorales et déplacées. C'est une menace grave pour les libertés individuelles ! » mais le gouvernement a menacé de rétorquer pour diffamation et pour avoir menacer la sécurité intérieure de l'État via une propagande organisée contre cette loi.

Affaire à suivre...

samedi, mars 21 2009

L'Acid Test : est-ce un indicateur objectif représentant l'efficacité des moteurs web pour les standards ?

Alors que IE8 vient de sortir ce 19 mars, on ressort sur la table toujours cet indicateur (hyper-célèbre dans le domaine) l'Acid Test pour représenter le respect dans standards par un navigateurs web ou plutôt son moteur de rendu. Très utilisé pour la comparaison de ces logiciels, je remarque qu'ils sont utilisés à mauvais escient et qu'ils cachent une part de vérité dans tout ceci. L'Acid Test n'est en effet pas un bon indicateur de tout ceci pour une simple et bonne raison : non exhaustivité et architecture du test trop mal faite.

En quoi ? Déjà il faut savoir que l'Acid Test n'utilise qu'un nombre restreint des standards disponibles, par exemple on n'a rien sur le SVG au niveau avancé, ni même le CSS3 à la même échelle et encore moins pour d'autres standards assez peu utilisés et connus. Donc en quoi c'est représentatif étant donné qu'une grande partie des standards sont de factos absents à ce test ?

Puis parlons plutôt de l'architecture du machin. L'acid test n'a qu'un but, mettre à genoux les moteurs de rendus en faisant des combinaisons que l'on retrouve dans aucun site web correctement fait. En faite, l'Acid Test exploite des conflits des règles des standards que les navigateurs ne prévoient pas (car on les rencontrent assez peu ou que la situation est tout bonnement improbable en condition réelle). En faite on pourrait comparer l'Acid Test à une dictée où on ajoute un contexte faisant que plein de règles de notre belle langue se rencontrent et entrent en conflit où même les plus grands intellectuels français pourraient trébucher tellement que la situation est complexe et inexpliquée (car imprévue) par nos règles grammaticales. Pourtant, ça n'empêche pas à ces intellectuels de manier notre langue presque parfaitement de bout en bout.

C'est un peu ça le problème, un score tel que 80% n'a pas pour autant moins de balises supportés qu'un moteur de rendu qui a atteint les 100 (d'ailleurs, de mémoire, Firefox supportent plus de choses que Webkit et a pourtant un score inférieur). C'est juste que le navigateur qui a 100 a spécifié à son moteur de rendu quoi faire dans de telles situations. Et le soucis que cela entraine, c'est que ce test est devenu une référence (absurde) et que ça en devient une arme marketing obligeant els développeurs à se préoccuper de ce test plutôt que d'inclure d'autres standards qui sont intéressants comme le SVG.

Existe-il un site qui représente correctement la chose ? Oui et non... La tâche est complexe, il existe beaucoup de standards et de choses à implémentées à l'intérieur de ceux-ci, donc tout représenter reste difficile. Ceci dit il y a une méthode simple, faire un grand tableau comme ce site qui permet d'être plus exhaustif, précis et instructif pour l'utilisateur et le développeur web.

Après, je pense que peu importent les tests. Ce qui faut voir, c'est déjà si on peut profiter pleinement des sites courants. Et si difficulté il y a, lesquelles ? Puis après de voir si certaines possibilités sont freinées ou pas (comme le SVG) par certains navigateurs voire tous. Après aux développeurs qui veulent en profiter de montrer la faiblesse de ces navigateurs qui empêchent de profiter de ces technologies.

Puis, de là à critiquer Firefox ou les navigateurs webkit ou Gecko d'être moins bien qu'Opera par exemple est ridicule, Opera supporte peu de choses en plus que ces navigateurs et encore, des choses assez inutilisées, de manière globale seul IE a un retard conséquent pour qu'on puisse parler d'avantage d'utiliser un autre navigateur...

jeudi, mars 5 2009

Internet explorer contre l'UE => Acharnement ou justice ?

Introduction

Vous le savez sans doute, Internet Explorer fait l'objet d'une attaque de la Commission Européenne suite à la plainte de la part de Opera. Ceci dit, pour Microsoft, c'est quand même une énième attaque du genre, d'abord pour WMP et ensuite pour abus de position dominante simple. Ceci dit j'ai pu lire sur certains forums ou sites d'actualités que c'était abusé, notamment de la part des membres des sites comme le Site du Zéro. C'est donc juste un éclaircissement sur le pourquoi de cette attaque, qui est justifiée mais je le montrerais après.

Commençons par le début, la guerre IE/Netscape en 1998

Pour certains qui ont été assez vieux ont connu cette 1ère guerre des navigateur qui opposa IE à Netscape pour atteindre le paroxysme en 1998 où Netscape s'écroule pour fonder Mozilla par la suite. Si on regarde bien cette période, on remarque qu'il y avait 2 temps. Avant la sortie de Windows 98 et après. Netscape au milieu des années 90 possédait environ 90% du marché des navigateurs, il a fallu quelques années pour que IE perce les parts de marché. L'évolution est similaire que Firefox actuellement, en 3 ans de bataille, IE ne parvient à atteindre environ que 30% du marché ce qui est mince face aux 60% de son adversaire Netscape. Mi-1998, avec la sortie de Windows 98, IE se retrouvait sur toutes les machines qui se vendait et résultat a pu se propulser en tête des navigateurs en 2000 avec 80% du marché. Du jamais vu, et pourtant cette progression et suivant un modèle économique standard demande une grande innovation de IE ou une campagne marketing digne de ce nom, et pourtant rien n'a été vraiment fait sur cette période permettant à IE de conquérir ces 50% en seulement 2 ans si ce n'est Windows 98 qui a été son pilier élévateur. Netscape avec ses soucis financiers et Microsoft qui a tout fait pour l'empêcher de réagir a eu raison du navigateur du lézard vert.

En somme, IE a finit par dominer le marché grâce à Windows et la sortie de Firefox en 2004, avec des fonctionnalités loin de la portée de IE et une campagne promotionnelle unique dans le Logiciel libre n'a permit d'obtenir que 20% dans le monde en 5 ans et 30% en Europe. Comment un navigateur de 2001 (IE6) avec des problèmes de sécurité et un manque flagrant de fonctionnalités peut avoir autant de parts de marché (20% environ) qu'un navigateur qui fait beaucoup de publicité et qui est bien supérieur ? C'est l'objet de la plainte que l'on va voir.

Les lois économiques : le monopole c'est mal

Ce que l'on sait, c'est que le capitalisme déteste les monopoles. Car à part les services publics, un monopole est un bénéfice que pour l'entreprise qui détient le monopole. Car il y a une hausse des prix, une baisse dans l'innovation, ou encore des produits mal finis et un foutage de gueule des clients qui passent pour la plupart par l'entreprise. C'est pour cela que depuis au moins 100 ans existent des règles pour réduire le monopole à néant et favoriser des marchés équilibrés que l'Union Européenne et les États-Unis soutiennent à corps et âmes. Le but de ces règles est qu'en situation de monopole, les règles économiques changent pour l'entreprise qui est à cette position. Car tout simplement une fois que le marché est dominé, si l'entreprise était aussi libre qu'avant, il pourrait racheter les concurrents pour les détruire, ou encore faire tout pour garder le monopole sans faire de publicité ou d'innovations ce qui est immorale pour les autres entreprises qui doivent lutter pour gagner quelques parts de marché. Une fois que le marché est déséquilibré en faveur d'une entreprise, les règles changent pour lui et pas les autres afin que le marché s'équilibre. C'est pour ça que Apple ou GNU/Linux ne sont pas touchés par l'attaque de la Commission Européenne.

Ces lois existent depuis longtemps, et Standard Oil est l'un des plus beaux exemples. En 1911, l'entreprise est découpée en 34 entreprises distinctes suite à des pratiques pour garder don monopole. La Justice Américaine a fait la même chose à Microsoft au grand procès de la fin des années 1990 mais finalement n'a pas eu le même sort et s'en est sortit avec un simple amende et des commissaires sur le dos pour surveiller les activités.

L'Union Européenne n'invente donc aucune loi pour attaquer Microsoft mais se base sur des règles établies il y a une centaine d'années. Et celle qui nous intéresse particulièrement est qu'il est interdit de se baser sur un monopole pour en faire un autre.

La loi économique par l'exemple : Renault et les pneumatiques

Pour mettre cette loi en évidence et montrer de son importance, on va prendre un exemple totalement imaginaire : Renault et les pneus. On va admettre que Renault a le monopole des voitures (drôle n'est-ce pas) et que donc 95% des voitures du monde sont des Renault. Seulement, Renault se sent à l'étroit en Bourse et veut plus de sous et contrôler toute la voiture, il manque une zone : le pneumatique. Ce marché est le lieu de prédilection de Michelin, Bridgestone, Goodyear et d'autres. Seulement, Renault décide que toutes ses voitures auront des pneumatiques Renault sans possibilité de choix à l'achat. Au bout de quelques années de ventes, Renault va monopoliser la plupart du marché, sans publicité et sans innover particulièrement. Car après tout tout le monde achète ses voitures, donc des pneus Renault. Et qui va changer de pneus après l'achat ? Ceux qui auront besoin de pneus spécifiques ou qui veulent une autre qualité, des bidouilleurs aussi qui pensent que Michelin fait mieux. Mais à part cette bande de revanchards qui va changer ? Personne ? Les autres manufacturiers pneumatiques vont devoir innover et faire de grandes publicités pour espérer obtenir quelques % de parts de marché. En profitant de la situation de monopole de ses voitures, Renault a pu établir un monopole sur les pneumatiques sans innover ni faire de publicité. Dans un marché normal, c'est le meilleur (en théorie) qui gagne mais à cause de ce monopole lié le marché se déséquilibre en suivant aucune règle économique standard dans un marché équilibré. En somme il y a abus de position dominante et c'est ce que la Commission condamne car Microsoft a profité de Windows pour imposer IE et tuer la concurrence. Et ça ce n'est pas bon.

Car dans le cas contraire, si Microsoft était libre de faire ce qu'il veut, il dominerait le marché des navigateurs mais il pourrait contrôler quasiment tout le secteur informatique. Informatique rimerait avec Microsoft ce qui est inconcevable, si Microsoft veut contrôler tout le secteur, il doit le faire indépendamment de ses réussites dans le secteur en gagnant sur la plus values de se produits et non par les ventes d'un seul produit.

Pourquoi Opera, Google et Mozilla attaquent Microsoft ?

La plainte vient d'Opera, et non de la Commission en elle même. Après tout c'est à la concurrence de signaler qu'il y a un abus et que ça les détruit, s'il le démontre la Commission poursuit, sinon non. Or on voit que pour attaquer Microsoft dans cette affaire, on doit montrer que ça ne profite pas au consommateur. Et c'est là que Opera peut réussir, c'est que pendant de longues années le navigateur principal était IE, les sites ont été bâtis autour de IE et non des standards. Par contre, pas de bol pour Opera, son navigateur respect trop les standards et sur certains sites ça s'affiche mal, en somme quand les consommateurs testent autre chose qu'IE, il peut y avoir des problèmes dus au monopole de IE. Opera souhaite donc booster Microsoft à supporter les standards et à s'ouvrir face à la concurrence pour que Opera puisse montrer son produit au grand jour et gagner quelques clients potentiels car Opera a besoin de popularité pour gagner des contrats sur les plateformes mobiles (comme Nintendo, les PDA) et donc gagner du revenu.

Mozilla attaque pour une raison tout autre, déjà on peut faire la relation Netscape/Mozilla, ça serait donc la revanche du vaincu et donc faire payer à Microsoft ce qu'ils ont fait à Netscape. Mais surtout Mozilla veut offrir du choix au consommateur pour que le web se porte bien et pousser à l'innovation, et cette ouverture est donc une aubaine pour réussir cet objectif.

Google également a un autre motif, tout simplement que Google a poussé Google Chrome pour forcer les autres à innover. Car Google se retrouve limité dans ses possibilités de services à cause d'un IE dominant avec un respect des standards à la traine et une vitesse d'exécution de script lente. En ouvrant la concurrence, IE devra s'améliorer sur ces points que Google pourra répercuter sur ses sites et services pour gagner ensuite de l'argent par la publicité.

Conclusion

Donc on peut voir que la Commission n'invente rien et que Microsoft paye de ses erreurs passés, mais il s'en sort bien quand on voit le nombre d'entreprises qui ont été disloquées par cette loi. Après, est-ce que le Logiciel Libre, comme Firefox, gagneront beaucoup dans l'affaire ? Peut être pas, mais au moins le géant de Redmond comprend qu'il n'est pas intouchable et que la Justice Américaine a été trop clémente...

jeudi, février 12 2009

MUFFIN, le magazine de la communauté francophone de Fedora a besoin de vous !

MUFFIN, c'est un projet qui date d'il y a un peu plus d'un an pour fournir à la communauté francophone de Fedora un nouveau support : un magazine virtuel sous forme de PDF. Après un travail long mais enrichissant, MUFFIN a sorti il y a quelques mois même pas le premier numéro et je me suis présenté comme le rédacteur en chef pour le 2e volet. Seulement l'engouement a été de courte durée, pour des raisons diverses il n'y a encore que peu de participants et c'est pour ça que je fais appel à vous, communauté du libre mais surtout de Fedora pour soutenir le projet.

Pourquoi un magazine de Fedora francophone ?

Fedora est une distribution très communautaire et très connue du monde du Logiciel Libre. Seulement, il est difficile parfois de faire les premiers pas non seulement quand on vient de Windows ou Mac OS X mais aussi quand on vient de Ubuntu, Mandriva ou autres, les repères changent comme la communauté locale. Cette adaptation nécessite ainsi de la documentation, de l'apprentissage mais on sait tous que la documentation, telle quelle est très dure à avaler pour un débutant car ce n'est pas forcément très simplifié ni très attrayant. Le magazine est donc un support particulièrement utile pour cette tâche, guider le débutant et l'habituer aux outils et à la communauté au fur et à mesure. Le but ultime, comme le souhaite le projet Fedora au maximum, que ces petits débutants un jour finissent comme contributeur au projet et participent à l'élaboration de Fedora de demain. Après tout c'est le principe du Libre de donner chacun sa petite contribution pour aider le système non ?

Un travail important à réaliser

Seulement écrire dans un magazine demande du travail. Entre les articles, la mise en page, et toute l'organisation pour avoir un tout cohérent et suffisamment dense, il faut réunir plus de 5 personnes sur plusieurs mois pour obtenir un numéro. Après tout, chacun est bénévole et donne du temps de libre qui parfois manque cruellement. Le numéro 2 pour le moment est au « cœur » si je puis dire de l'élaboration des sujets de voies à explorer pour améliorer le magazine par rapport au premier numéro. On peut ainsi dire que tout reste à faire mais on peut le faire avec de la volonté et de l'huile de coude.

Qui MUFFIN recherche ?

Des hommes grands, blonds aux yeux bleus possédant un beau cabriolet. Non sérieusement MUFFIN demande juste des coups de mains et il y en a pour tous les niveaux : rédacteurs, graphistes, relecteurs, ou d'autres... Évidemment quelques connaissances de base de Fedora sont recommandés pour un travail efficace. Il y en a donc pour tous les niveaux et tous les goûts et ce en fonction de vos disponibilités.

Comment rejoindre MUFFIN ?

Pour rejoindre MUFFIN il convient de réaliser plusieurs procédures qui sont relativement rapides (qui ne dépassent guère les quelques jours).

  1. Pour commencer, inscrivez vous à la mailing-list de fedora-fr-news qui rassemble les messages concernant l'élaboration de MUFFIN.
  2. Une fois inscrit sur la liste de diffusion, vous devez envoyez un courriel de candidature dans cette mailing-list. On demande une simple présentation de vous même avec votre nom, vos objectifs dans MUFFIN, votre expérience dans GNU/Linux et votre vie (de manière très simplifié, on ne demande pas un roman). Cela nous permet de mesurer votre motivation.
  3. Ensuite votre compte au Wiki de MUFFIN sera crée par un administrateur et on vous enverra les informations pour vous y connectez. Profitez-en pour remplir votre page personnelle (avec les mêmes informations que le courriel demandé précédemment mais aussi de quoi vous contacter).
  4. Et voilà, vous êtes un membre à part entière et vous pouvez contribuer au projet !

Que se passe-t-il actuellement ?

Pour MUFFIN, on cherche à tout remettre à plat et préparer le 2e numéro plus efficacement. Pour cela on réalise une réunion IRC (sur le canal #fedora-publish-fr de FreeNode) pour débattre ensemble de la chose. Je vous invite à y participer et à soumettre votre présence avec les horaires qui vous arrangent pour l'organiser au plus vite !

Pour plus d'informations ou vous contacter ?

Merci de votre patience et j'espère vous revoir dans l'équipe de MUFFIN. MUFFIN a besoin de vous !

dimanche, janvier 4 2009

Le Logiciel Libre existe-t-il vraiment ? Amis du Libre, changeons de discours !

Ce billet consiste à parler de l'éventuelle existence du Logiciel Libre. Car à dire vrai, j'ai la curieuse impression que les valeurs du Libre se perdent et que finalement disparaissent. Je maintiens fermement une opposition à tout ce qui est non-libre car après tout j'utilise le Libre pour ses valeurs, valeur qui apporte une efficacité technique, et non l'inverse ! Ce billet peut être considéré comme un troll pour certains, ce n'est pas le cas, c'est juste une remise en question d'une politique générale de la communauté et de certains projets que je souhaite mettre en place dans l'idée de tous car elle ne se fait pas. Après si vous prenez cela comme une attaque personnelle contre vous ou votre distribution/logiciel préféré, grand bien vous fasse mais ce n'est nullement mon objectif.

Quand le libre joue la carte du propriétaire

Le Logiciel Libre est définit par la FSF par 4 libertés essentielles qui ne sont remises en questions et donc font autorité dans la sphère du libre. Inutile d'en faire un rappel, je suis sûr que la plupart d'entre vous en possèdent des exemplaires sur votre chevet ou sur un poster de votre chambre. Quand on regarde au sein de la communauté GNU/Linux, je dirais facilement qu'une grande majorité, peut être non-absolue défend les valeurs du libre parmi les priorités notamment pour en parler au monde extérieur. C'est beau, j'admire une telle volonté. Mais quand est-il de l'application ? Là on coince, je suis de plus en plus surpris par l'usage massif de solutions propriétaires au sein de GNU/Linux par les militants intégristes ! Certains le font par obligation (comme moi, je vous jure que une résolution 860*480 sur un écran de 20" ça a de quoi vous énervez, donc nVidia proprio) mais d'autres par choix (achat d'appareils propriétaires comme ceux d'Apple, utilisation de formats MP3, usage de Flash, etc.) la plupart de ces usages sont par choix et sont de plus en plus utilisés. Mais ce qui m'agace encore plus, c'est que même dans la haute sphère cela ne vole pas haut.

Je vais prendre un exemple simple : Canonical. Je ne crache pas sur Ubuntu en particulier mais la politique de Canonical qui est à mes yeux à part. Quand on consulte le blog de son dirigeant, Mark Suttleworth, une première chose frappe l'esprit : les vidéos sont en Flash. Donc en clair, le dirigeant d'une entreprise qui veut faire du « Libre » propose des vidéos de démonstrations d'interfaces d'Ubuntu (entre autres) via des solutions propriétaires alors que 90% au moins des visiteurs possèdent un plug-in OGG dans leur navigateur. De prime, Firefox va l'utiliser par défaut dès la version 3.1 l'an prochain. N'y a-t-il donc pas une contradiction ? Et je passe sur le meilleur avec l'architecture de Launchpad qui est propriétaire pour développer une distribution « libre » cela la fou mal. Comment soutenir un mode de développement communautaire en gardant un logiciel pour le développé qui est fermé ? Non ça ne fonctionne pas comme ça. Et du même coup j'accuse SourceForge qui reprend exactement le même principe, à une autre échelle.

La contradiction de la communauté elle-même

La communauté du Libre est belle, entre promouvoir le Logiciel Libre et l'appliquer strictement, il y a apparemment un fossé infranchissable que la plupart ne franchissent pas. Déjà je me dis, comment on peut acheter un produit Apple en défendant le Logiciel Libre ? Car ce phénomène est de plus en plus courant via l'iPhone, MacBook ou encore iPod... C'est très désolant de voir cette succession de contradictions. Certes ces produits peuvent être attrayants ou mêmes intéressants, mais quand on voit (notamment) leur intérocompatibilité avec les solutions libres, il faudrait se poser les questions avant l'achat. Mais ne jetons pas la pierre que sur les Apple-fan qui ne sont finalement pas les pire... Car il y a plus menaçant encore, je condamne ouvertement Linux Mint ou encore Flash Player. Pour moi ces 2 produits sont les pires ennemis du défendeur du Logiciel Libre, si on les utilise, je suppose que ne l'on peut se considérer comme un défenseur du Libre tellement la contradiction est grande.

Pour le dernier, regardons un peu. D'après Adobe, ça serait plus de 90% d'utilisateurs à travers le monde, donc d'internautes qui l'utiliseraient. Dans le Logiciel Libre, je remarque qu'une grande partie l'utilise et subventionne des sites comme Youtube, DailyMotion, etc. Même Linus Torvalds (mais bon comme il s'en fou du libre au sens strict du terme, lui il n'est pas contradictoire avec lui même). Le Flash c'est propriétaire, ça a agacé le Logiciel Libre pendant des années mais on lui pardonne tout pour 3 vidéos pourris. Vous avez oublié le nombre de temps qu'il a fallu pour que Flash Player fonctionne en 64 bits ? Que *BSD, OpenSolaris et d'autres peuvent se brosser pour avoir leur version ? Flash Player est le logiciel privateur par excellence : j'ai le total contrôle sur le développement, je fais planter vos navigateurs sans qu'ils puissent corriger et en plus je m'en fou des standards du web et ce que leur négligence peut apporter. Et je ne parle même pas de Gnash ou SWFdec qui malgré le fait sont des Logiciels Libres, vous soutenez malgré tout un format propriétaire qui tue le web qui après tout est un succès car c'est un ensemble de standards accessibles à tous !

Pour Linux Mint, cette distribution qui comme Xandros n'a de libre que de nom et encore. Ces distributions gagnent en popularité alors que par défaut c'est un mélange complexe de libres et proprios. Certains diront que Linux Mint installe par défaut ce que 80% des ubuntuteros installeront par la suite comme les codecs pour les formats avec autant de libertés qu'une prison. Mais quand on voit l'engouement pour Linux Mint auprès de la communauté du Logiciel Libre (et le nombre de ubunuteros qui passent le cap), il y a de quoi s'inquiéter sur l'importance finalement du Logiciel Libre auprès de la communauté.

Je vais même, (et je m'excuse auprès de la communauté francophone que je chérie tant, mais il faut agir !) mais j'accuse la communauté Fedora même francophone de soutenir ce type de contradiction. Sans parler de Debian... Car ce qui est marrant, c'est de considérer que la distribution est 100% libre (bon pas aux yeux de la FSF, bien que Fedora ne va pas tarder à rejoindre les rangs) mais que vaut cette argumentation si la plus grande partie des utilisateurs derrière de Fedora ou Debian utilise du propriétaire après coup ? Avoir une distribution libre au départ et la polluer finalement n'apporte rien de plus en liberté que si c'était proprio à la base comme Ubuntu (que Fedora-fr aime bien critiquer à ce sujet, amis Ubuntuteros profitez-en, je vous défends pour une fois !). Le seul avantage que cela représente, c'est que l'on a le contrôle de ce qui est propriétaire sur notre machine car on l'a nous même installé le paquet en question. Mais moi je suis contre tout cela, prétendre utiliser une distribution libre alors que l'on est pas nous même est une hérésie profonde. Il faut revoir le discours ! C'est comme si je disais « j'ai un système GNU » avec au final un noyau *BSD et seulement des applications compilées GCC avec Vim, KDE, etc. Tout ceci n'a GNU que de nom, bah ici c'est pareil, tout n'est Libre que sur le papier et de nom. Il faut réformer tout cela les enfants et tuer ce comportement totalement hypocrite de l'ensemble de notre communauté.

Je vois une belle argumentation, tout bellement ficelée mais hautement ridicule. Dans Logiciel Libre on a le choix de nos logiciels et donc d'installer des logiciels propriétaires. Mais dans Windows on peut installer librement des Logiciels Libres comme sous GNU/Linux, pourtant Windows n'est pas un système Libre à mes yeux, ni aux vôtres je pense. Non ici le logiciel Libre n'offre pas la volonté d'installer du propriétaire si cela nous chante. Car ce n'est pas la liberté du choix que le Logiciel Libre propose en particulier, car après tout qu'il n'y ait qu'un logiciel libre pour lire un fichier .odt n'empêche en rien que c'est un logiciel libre pourtant on n'a pas le choix de l'applicatif pour cela. Pareil ici, le Logiciel Libre correspond aux 4 règles de la FSF, ni plus, ni moins, donc cette argumentation tombe à l'eau car elle n'est définit nulle part dans les 4 règles. j'ajouterais même que c'est en contradiction, car avec du logiciel propriétaire dans notre système libre, notre système global ne répond pas aux 4 règles de la FSF en général ce qui est problématique car elle supprime votre liberté générale.

Mais, si on a pas le choix ?

Dans mon discours, j'accuse tout le monde dont moi même. Avoir un système totalement libre n'est pas irréalisable mais reste bien difficile malgré tout. Une bonne partie de la population n'a pas de bol : un matériel nécessitant un pilote propriétaire pour fonctionner. Ceux là sont excusés car les choix sont souvent faits avant notre connaissance du Libre. Mais je condamne ceux qui y adhèrent puis ensuite achète du matériel qui en ont besoin comme les produits Apple. Et qu'on ne me sorte pas qu'on était pas au courant, ça se vérifie assez rapidement. Cela ne vous empêche donc pas de faire attention à vos prochains achats en connaissances de causes. On aime le Libre ou on s'en fou, il n'y a pas « oui mais... ».

Après bon, disposer d'un BIOS libre relève encore du fantasme pour la grande majorité d'entre nous, mais je l'exclue pour le moment des considérations techniques. Mais on a aussi des professions qui n'ont pas non plus le choix, c'est proprio ou rien. On aime le libre, mais je pense qu'entre le Logiciel Libre et le chômage, le choix est vite fait pour beaucoup (et je le comprends) mais pourquoi ne pas aider de faire en sorte à ce que la situation change ? Certains d'entre vous sont peut être développeurs ou même connaissent des gens qui peuvent le faire. Après tout, ça ne coûte rien d'essayer...

Après bon qu'on me sorte Youtube ou les fichiers MP3 pour votre bibliothèque musicale forte importante, je dirais que ce ne sont pas de bonnes excuses car les solutions libres existes et sont très utilisables... Comme je dis on défend le libre ou pas... Après chacun a sa propre conscience qui agit.

Que faire ?

Je pense que la situation est assez catastrophique. On prône un système entièrement libre, on revendique nos libertés et cette philosophie. Qu'obtient-on ? Une communauté qui dans sa majorité finalement transgresse et sans gène ces valeurs. Quand on voit la communauté de Debian qui nous fait un caca nerveux à propos de Firefox (soit disant pas libre, mais on en reparlera dans un autre billet) pour finalement installer des codecs MP3 par la suite, c'est assez véridique de la situation. On est capable de tout pour le Logiciel Libre, tellement qu'on est capable d'utiliser du propriétaire pour des choses qui n'ont aucune importance. Que croyez-vous ? Si nous mêmes, la plupart geek et des adorateurs de la philosophie du Logiciel Libre nous ne sommes pas capables pour la plupart de garder un système entièrement libre, qui le fera à notre place ? Ce n'est pas la mémé du coin qui va débattre sur nos valeurs et les protéger. Nous sommes ceux qui peuvent le faire car nous y croyons, mais pour cela il faut respecter cette idéologie que diable !

2 solutions s'offrent à nous : soit on arrête de dire que notre système est libre, de revendiquer nos libertés quand on les transgresse car ces paroles n'ont alors plus aucune valeur (comme Linus Torvalds). Ou alors vous abandonnez MSN pour Jabber, vos MP3 pour du Ogg Vorbis, Flash pour un web standard et libre, Skype pour Ekiga, vos baladeurs hors de prix qui sont enchainés auprès d'une multinationale, etc. Là on pourra prôner le libre, le défendre, le revendiquer aux yeux de tous et protéger ces valeurs que l'on aime tant ! Cela ne tue pas, pourtant le Libre n'avancera que comme ça...

mercredi, décembre 31 2008

La démocratisation de l'informatique, une mission du Logiciel Libre ?

Cet article est une réaction par rapport à ce que je lis régulièrement à savoir « Apple et Microsoft ont permit la démocratisation de l'informatique», bien que ceci a du vrai, je pense qu'il y a une nuance dans ce mot « démocratisation », ce qui me permet de penser que cette phrase est une non-vérité ou plutôt une ignorance d'un état de fait. J'ai constaté particulièrement dans cet article de Daniel Glazman qui est entre autre un ingénieur français membre du comité décisionnel du CSS dans le W3C et concepteur de Nvu et de son équivalent dans SeaMonkey lors de l'époque Netscape. Cet article et en particulier les commentaires m'ont fait tilter.

L'informatique est-t-elle démocratisée et comment ?

Entre 1960 et 2008, il y a un écart de seulement 48 ans et pourtant le monde a été bouleversé, entre autre, par la présence systématique d'un ordinateur partout. L'ordinateur a permit de substituer l'Homme pour certaines tâches répétitives ou impossible pour notre organisme et de réaliser un progrés scientifique et technologique incomparable. Un monde aujourd'hui sans ordinateur s'effondrerait car l'essence même de notre économie repose sur leur fonctionnement via les banques et la Bourse par exemple ou encore dans de nombreuses branches professionnelles voire toutes ! Il est vrai que dans ce sens, l'informatique a été démocratisé car présent partout et pour tout faire (sauf le café mais c'est en étude).

Seulement, est-ce que Microsoft et Apple ont été les stimulants ? Sans doute, Apple a permit la conception d'un nouveau marché : l'ordinateur personnel. Cette conception de l'ordinateur a permit de le retrouver partout, même à la maison et dans des bureaux, d'ailleurs sans Apple, IBM n'aurait peut être pas conçu le PC aussi tôt avec une architecture ouverte (pour gagner du temps) et ainsi se retrouver avec des clones compatibles permettant de baisser le coût des machines de manière substantielle et donc de se retrouver partout. Microsoft lui finalement n'a pas apporté grand chose, la plupart des logiciels qu'il proposait, ont déjà existé comme le tableur, peut être que certains d'entre eux ont été porté pour le « PC » au lieu de rester sur Mac mais le principe est le même, Microsoft n'a finalement que peu apporté là dessus. Certains diront qu'ils ont rendu l'usage de l'ordinateur plus facile, j'y répondrais dans la prochaine partie.

L'ordinateur utilisable au commun des mortels n'existe pas

On associe souvent les produits Microsoft à la simplicité, ou même ceux d'Apple. Sans eux on pourrait penser que l'informatique n'aurait jamais été dans une famille car trop complexe. Mais est-ce que l'informatique est simple ? Je pense que non... Peut-on dire que l'ordinateur est démocratisé si seulement les professionnels savent l'utiliser et encore ? Je pense que non également. Et c'est ça la nuance dans la démocratisation de l'informatique, le grand public ne sait pas se servir d'un ordinateur correctement, donc il y a une classe élitiste d'individus qui savent l'utiliser et qui ont donc « le pouvoir » et Microsoft et Apple peuvent faire et dire (tout comme leur fans) ce qu'ils veulent, le grand public ne sait pas utiliser un ordinateur.

Je m'explique. L'ordinateur est sans doute l'engin conçu par l'Homme le plus complexe qu'il existe et qui soit abordable. Pourtant on prétend que son utilisation ne nécessite aucun apprentissage. Donc en réalité une voiture qui est plus simple à réaliser (la voiture est quand même née 70 ans plus tôt au moins) nécessite quant à elle un apprentissage lourd et assez énervant que l'on a tous pou presque subis : le permis de conduire. Après tout c'est normal, la conduite n'est pas compliquée en soit, mais n'est pas une action naturelle et nécessite un apprentissage comme le code de la route. Pour l'informatique, le raisonnement est le même, utiliser un logiciel n'est pas naturel et nécessite aussi un apprentissage. Après il y a des logiciels plus simples que d'autres, c'est certains, et ce même s'ils garantissent les mêmes fonctionnalités mais le logiciel que l'on peut utiliser sans apprentissage dès la sortie de la boîte parfaitement non, cela est une utopie. Déjà la notion d'ergonomie est relative selon les individus car tout dépend de l'expérience de l'utilisateur que ça soit dans sa vie courante ou face à une machine. Par exemple Apple est considéré comme une marque qui fait des produits intuitifs, etc. Personnellement j'ai testé la plupart de leurs produits, c'était l'effet inverse, j'ai trouvé ça d'une complexité rare, je pense que le raisonnement de leurs ergonomes n'est absolument pas adapté au mien, quand on voit le dock de Mac OS X je me demande comment les gens préfèrent ça à une barre des tâches qui est à mon sens plus pratique et fonctionnel (sans oublier la puissance du machin). Et même constat avec mon père, on est bien plus à l'aise sur GNOME ou KDE avec le bon vieux terminal qu'un Mac OS X, question d'habitude et d'usage mais quand on voit les difficultés de ma mère pour apprendre le concept de n'importe quel OS (ou logiciel), on peut se demander vraiment si le logiciel facile par excellence existe vraiment.

D'ailleurs regardons le phénomène, généralement quand il y a un problème, et Dieu sait que ça arrive sur chaque logiciel qui existe, bah souvent les gens vont se rabattre vers des gens qui « s'y connaissent » ou des professionnels. Entre l'incapacité mentale de lire une notice et documentation et l'incompétence technique de la personne face à une situation, c'est sûr qu'il est aisé de comprendre que le commun des mortels au moindre problème paf ne sait rien faire. Si personne ne sait s'en sortir sans ces gens, comment peut-on dire que l'informatique est démocratisé si les gens sont dépendants de personnes compétentes même pour l'usage de tous les jours, pour certains on doit tout expliquer de A à Z en image et doucement pour qu'ils comprennent la manipulation, et malheur si une mise à jour modifie un menu, il sera totalement perdu alors que fondamentalement parlant, 2 minutes de recherches supplémentaires montre que le menu est à un autre endroit... Mais le commun des mortels ne sait pas faire ça...

Si on réfléchie 2 minutes, on peut se demander comment sans formation on peut substituer le rôle d'une personne qui a des certifications et autres études qu'il a mené pendant parfois 5 ans pour en faire son métier. Je pense que l'on ne peut pas le faire. Après tout les règles de précaution en informatique ne sont pas évidentes ni même intuitives. Comment une personne sans expérience sait qu'il ne faut pas aller sur certains sites ? Que certains logiciels sont des passoires de sécurités et que les mises à jour c'est essentiel ? Que d'ouvrir les courriels ou pièces jointes d'inconnus peuvent entraîner pourriel, arnaque ou virus en tout genre ? Ou encore que le pare-feu désactivé est une aberration et qu'un anti-virus sous Windows c'est le minimum de la précaution ? Qu'il faut défragmenter le système de fichier Windows à savoir NTFS de temps à autres pour améliorer les performances ? Que d'être en compte administrateurs ou root est également quelque chose à prohiber pour la vie quotidienne ? Qu'on installe pas des logiciels provenant de sites non-officiels ou réputés pour leur sécurité ? Etc. La liste est très longues et pourtant, ces règles sont sans doute le BA-BA de l'entretien et du bon fonctionnement d'un système, ces règles ne vous viennent pas à l'esprit en ouvrant votre boîte contenant votre première machine, non, elle nécessite un apprentissage, une expérience qui ne se forme pas d'un coup. Et pour ces règles, aucun logiciel ne pourra les éliminer et se substituer du comportement de l'utilisateur. L'utilisateur est maître de la machine et à lui seul peut faire n'importe quoi et ce quel que soit le logiciel, simple ou non n'est pas la question. La prévention est meilleur que la répression, un utilisateur ayant un comportement adapté pourra rendre son système plus efficace, propre et éviter moult problèmes que rencontre la population générale à la fin. La simplicité ne fait pas tout, dans un environnement simple, l'utilisateur reste quand même un danger que l'ordinateur ne pourra jamais contrecarrer...

Puis on n'oublie pas que Microsoft ou Apple cherchent le profit à tout prix malgré les volontés humanitaires de leurs fondateurs. Quand on voit le prix de leurs produits et les conditions d'utilisations et d'utilisabilité, certaines régions du monde sont pour le moment à l'écart du monde numérique et possèdent un retard important dans le domaine sur les pays développés.

L'ordinateur est un outil mal exploité par la population

L'ordinateur est un outil merveilleux pour les geeks, entre sa puissance et flexibilité, on peut comprendre que l'ordinateur soit un outil indispensable pour certains dans leur travail. Mais ce que l'on sait encore plus, dans un environnement adapté, on travaille plus efficacement, on répond mieux à nos besoins. Et on constate quoi ? L'utilisateur ne personnalise pas son environnement selon ses besoins et son comportement. On le remarque déjà rien qu'en regardant les captures d'écrans, sous Windows ou Mac OS X, à 3 détails près, en général l'utilisateur n'a pas poussé la personnalisation de son système très loin que ça soit en apparence que les options utilisés pour améliorer le confort de travail. Quand on regarde les systèmes libres, en général tenus par des geeks qui tiennent à un travail efficace et adaptés aux besoins, on remarque d'énormes différences dans la personnalisation et le goût de l'ensemble.

Car en réalité nous sommes tous différents avec des besoins différents. Imaginez un gaucher avec un trackball pour droitier, en général il sera moins efficace et il perdra en confort donc baisse de productivité. Pour les logiciels c'est pareil, utiliser The GIMP pour redimensionner une image c'est une perte de temps et de ressources pour la machine car il est adapté pour d'autres choses The GIMP, pour redimensionner la taille d'une photo on a vu plus léger et rapide au lancement... Mais c'est pareil pour tout. Surtout que certains et mêmes beaucoup de logiciels sont extensibles ou avec des options et possibilités poussées. Bah si on regarde bien, par exemple Firefox, la majorité des gens ne modifient pas grand chose et n'utilisent pas les extensions. Extensions qui peuvent apporter un grand plus au quotidien, par exemple d'avoir un lecteur de fluxs RSS plus performants, très utile pour suivre l'actualité, ou encore Thunderbird sans Lightning, certains pourraient améliorer leur productivité avec ce calendrier proposé en extension. Sans oublier l'ajout de logiciel qui pourrait améliorer le quotidien que ça soit pour le travail ou le loisir. Mais les gens ne savent pas non plus chercher des applications pour subvenir à un besoin ou encore répondre à un comportement, quand on voit que des gens se content d'un double clique pour naviguer dans les fichier alors que le mono-clique est plus indiqué pour eux car ils ont du mal à double-cliquer, on est en droit à se poser des questions sur la personnalisation de l'environnement selon les besoins. Sans oublier le fait qu'ils ignorent l'existence des raccourcis clavier qui peuvent pour certains faire gagner un temps considérable au final ou encore que les gens font un Sommaire ou un index à la main alors que OpenOffice.Org ou MS Office proposent des modules tous indiqués pour ces tâches. L'utilisateur se contente d'un environnement lambda sans personnaliser en pensant que tout le monde a les mêmes besoins ou envies. Tout ceci par flemme, manque d'informations ou simple ignorance et ça, sans formation ni aide des entreprises comme Microsoft ou Apple. Donc l'informatique n'est pas maitrisé par les gens qui en ont besoin.

Pour démocratiser, il faut éduquer

Nous sommes en 2008, et on retiendra le slogan de Sarkozy et de Darcos « lire, écrire, compter » sont les 3 axes majeurs de l'école indispensables pour chaque élève et citoyen. Pourtant je pense que le numérique mérite d'être à côté de ces 3 principes, après tout sans maitrise de l'outil informatique, on enlève la possibilité de beaucoup de métiers ou encore de leur efficacité dans l'avenir. Entre 2 personnes à compétences égales mais l'une maitrisant l'ordinateur et l'autre pas, il fera la différence car après tout l'informatique n'est pas instruit dans toutes les voies qui en ont pourtant grandement besoin comme les professions libérales pour la plupart. Ou même si cela n'est pas réellement utile dans le travail, c'est un apport important de savoir et d'efficacité dans la vie de tous les jours, beaucoup de choses passent par Internet et l'informatique pour notre quotidien ne serait-ce la consultation du compte bancaire ou le suivi de la Bourse, tout ceci nécessite une maitrise et des connaissances pour mener à bien ces besoins. Donc je pense que l'informatique est une matière longuement ignorée par l'éducation et qui se fait essentiel. Le B2i n'est pas suffisant, l'examen étant d'un ridicule rare puis les cours de technologie au collège ne nous aident pas plus à maitriser cet outil. Pour notre avenir et ceux de nos enfants, il est bon que l'informatique devienne un cours à part et obligatoire dans l'éducation et ce dès le plus jeune âge, entre le primaire et collège.

Pourquoi le Logiciel Libre ?

Je pense que c'est le Logiciels Libres qui va permettre la démocratisation de l'informatique et non nos amis du logiciel privateur. Déjà le constat est simple, le Logiciel Libre a une philosophie similaire à l'école. Entre la neutralité de l'école (et ne sponsorise pas des solutions américaines qui ont soif de clients, surtout les jeunes), le faible coût à long terme face aux autres solutions permettant des économies sur l'argent de nos impôts et les réutiliser dans des choses plus importantes dans l'école, mais aussi l'égalité car le Logiciel Libre permet à chacun d'avoir le Logiciel en question et de pouvoir lire les fichiers produits en classe avec, car jusqu'à présent avec MS office pour faire un bon travail on doit avoir MS Office et la même version à la maison car même avec OOo, la compatibilité n'est pas parfaite, les familles plus modestes ont donc les mêmes chances que les autres familles mais aussi favorise le déclin du piratage des logiciels propriétaires et donc l'illégalité. On permet dans tout cela un travail collaboratif plus facile et efficace, de quoi permettre aux utilisateurs de pouvoir mieux maîtriser l'outil informatique.

Mais aussi l'autre avantage du Logiciel Libre c'est d'utiliser les standards ou formats ouverts, permettant donc l'interopérabilité et donc de pouvoir facilement échanger les documents ou leur conservation. C'est donc une aubaine pour le Logiciel Libre qu'est l'éducation pour permettre la démocratisation de l'informatique.

Comment s'y prendre

Il y a plusieurs moyens de s'y prendre pour que le Logiciel Libre soit le moyen de démocratisé l'informatique dans le monde. De part son faible coût des licences et la consommation en ressource qui peut être faible, on peut envisager son utilisation dans de vieilles configurations que ça soit à l'école, au travail ou dans les pays du tiers monde. Si l'éducation adopte le Logiciel Libre en général, les élèves devraient avoir des cours obligatoires sur l'informatique pour assimiler des bases importantes. Et la diversité du Logiciel Libre permettra aux élèves de manipuler une gamme de logiciels et non un logiciel spécifique, au lieu de connaître que Word, l'élève sera capable de s'adapter à n'importe quel logiciel de traitement de texte avec une adaptation réduite et sans formation supplémentaire. L'utilisateur deviendra maître de sa machine et pourra l'exploiter au mieux et non plus subir l'informatique comme on a l'habitude de voir.

Pour finir, le développement d'une documentation simple et concise pourrait aider ce processus d'apprentissage, le libre permettant une documentation universelle (pour quasiment toutes les langues, gratuite et accessible à tous) ou encore des livres ou vidéos permettant d'étendre la maitrise de cet outil.

Conclusion

À travers cet article, je pense avoir montré mes grands doutes sur la démocratisation de l'informatique en 2008. Mais les avenirs à venir promettent peut être une éducation obligatoire du numérique qui est de plus en plus présent encore. Le logiciel privateur a pour le moment su saisir l'occasion de se démocratiser et de profiter d'un vide du marché. Mais, si le Logiciel Libre devenait l'arme ultime de l'Éducation ? Ne serait-ce pas un sérieux revers pour le Logiciel privateur qui en plus de perdre de grandes parts de marchés, aura en face des utilisateurs expérimentés qui utiliseront probablement un système libre, laissant les personnes moins compétentes sur leurs systèmes et donc souffrir d'une comparaison hors norme... L'avenir nous le dira, je pense que le Logiciel Libre a une opportunité sur cette voie, une voie libre et ouvert qu'il faudra tracer. Tel est la mission du libre, démocratisée l'informatique au monde entier en partageant des valeurs communes et idéales pour tous !

mardi, décembre 23 2008

J'ai testé la Fedora Rawhide, future Fedora 11

Avant de commencer je rappelle que Fedora Rawhide est une version instable de Fedora qui est en développement pour le moment continu. Il est déconseillé de l'utiliser dans le cadre d'une utilisation en poste de production ou même d'être testé par des non connaisseurs. En effet son usage requiert un nombre de bidouilles très élevé.

Cette version se situe entre la Fedora 10 et la version Alpha de Fedora 11 prévue pour le 20 janvier. En somme ce sont les premières briques qui sont posées et seulement les logiciels ont changé de evrsions, pas encore de nouveautés spécialement conçu pour Fedora 11 pour le moment.

Au début cela commence bien, SELinux bloque (en partie ?) dbus donc adieu Nautilus, le montage automatique des partitions et tout le tralala. Ce problème était connu pour la F9 donc je suppose qu'il sera corrigé rapidement. Entre temps une désactivation de SELinux corrige le problème. Puis X.org consommant trop de CPU à mes yeux (40%) je décide d'installer le pilote nVidia propriétaire (la 180 qui est en béta) mais sans succès, X.org refuse de se lancer ou alors akmod demande un paquet (glibc en 32 bits) inexistants dans les dépôts ou du moins le serveur auquel je pioche mes paquets. Bref je ne pourras pas profiter pleinement de la carte graphique et la bête en devient lente...

Sinon côté nouveautés, on a un bel KDE 4.2 béta 2 qui apporte beaucoup d'améliorations, notamment des plasmoïdes mettant conky au placard, un thème Oxygène retravaillé plus agréable et le menu kickoff plus rapide et agréable à utiliser. Les options commencent à germer et la configuration du bureau redevient un plaisir avec presque autant d'options que la 3.5. Mais aucune nouvelle de Koffice 2.0, ni de Basket 2.0 qui sont assez attendus, du moins je n'ai pas pu les installer (soucis de dépendances) pour pouvoir observer.

On a aussi un Firefox 3.1 en béta, mais pas de Thunderbird 3.0 pour l'instant (il y a une semaine c'était Firefox 3.0.5, donc peut être que Thunderbird 3.0 sera là plus tard). Je constate aussi une amélioration de la rapidité de Yum (ou alors c'est l'effet placebo) mais pas de Presto pour le moment. Pour le rappel, Presto utilisera les deltaRPM, c'est-à-dire qu'au lieu de télécharger tous les paquets pour les mises à jour en entier, il ne téléchargera que les modifications. Donc pour certaines mises à jour de quelques centaines de Mo, peut être que le téléchargement avec les deltaRPM ne dépassera pas les 10Mo... Le CPU sera un poil plus utilisé c'est certains, mais le gain en bande passante pour les serveurs et les foyers seront bénéfiques tant qu'au coût qu'au confort de navigation. Mais cette nouveauté est prévue pour la F11 et semble presque terminée...

Suite à un soucis de dépendances je n'ai pas pu toucher au nouveau GNOME, donc pas de retour pour lui. Le noyau Linux 2.6.28rc9 tourne bien et devrait apporter un mieux dans les systèmes de fichiers comme ext4 tant attendu. Pour le moment Fedora n'offre pas la possibilité d'utiliser ext4 en natif (sans option au boot du CD), peut être dans la Alpha... Car pour le moment pour passer en Fedora Rawhide il faut installer une Fedora 10 et faire la mise à jour en utilisant les dépôts de la Rawhide (ce qui peut expliquer certains problèmes que j'ai rencontré notamment dans les dépendances).

En tout cas cette version est très prometteuse malgré l'instabilité ambiante, je la garde sous le coude en faisant de temps en temps des mises à jours qui corrigeront peut être certains problèmes et apporteront sans doute des nouveautés encore insoupçonnées. Dans la semaine je m'occuperais de rapporter les bogues qui vont bien...

Je posterais probablement un billet pour la version Alpha, à savoir le 20 janvier. Fedora 11 quant à elle est prévue pour le 26 mai, on a donc du temps.

dimanche, décembre 21 2008

Comment GNU/Linux pourra s'imposer dans l'informatique grand public...

Introduction

Nombreux sont ceux qui veulent que GNU/Linux soit sur toutes les machines du monde entier, ou du moins avec un système libre. Et l'existence de OpenSUSE, Mandriva ou encore Ubuntu confortent dans cette volonté d'y parvenir un jour. Et malgré tous les efforts actuels, force est de constater qu'on est encore loin de représenter une part du marché suffisamment importante pour faire peur à Apple ou Microsoft. Je sais que certains s'en moquent de cet objectif, pour des raisons qui leurs sont propres et je le respecte mais je pense qu'en tant que défendeurs des Logiciels Libres, nous devons partager cette liberté aux autres et non la conserver pour nous mêmes et enfin rétablir un équilibre dans un marché hautement dominé par 2 entreprises qui dictent leurs lois. Le but de ce billet est de déterminer comment et quand on pourra envisager une bonne implémentation de GNU/Linux au sein de la population mondiale. Ceci dit je ne suis ni expert en markéting, ni en économie d'ailleurs donc cela est à prendre avec des pincettes (comme tout ce que je peux dire de toute façon). Pour étudier tout cela, j'ai trouvé qu'une comparaison avec le succès de Mozilla qui est sans doute le Logiciel Libre grand public le plus répandu comme une bonne base pour faire autant avec GNU/Linux.

Il était une fois, un panda roux...

Il y a quelques années, disons avant fin 2004, on avait un navigateur gouvernant tous les autres : Internet explorer. 4 ans plus tard, un concurrent arrive à lui prendre quelques 20 à 30% des parts du marché. Un succès incroyable mais qui n'est pas du au hasard, on va tenter de voir les clés de cette réussite. Tout d'abord, Internet Explorer était technologiquement hors norme. Plus de mise à jour importante depuis 2002 soit pendant 2 ans (et encore, 2001 pour des évolutions vraiment importantes) avec des restes de la 1ère guerre des navigateurs : l'absence d'onglets, de flux RSS, d'anti-pop-up et tant de choses. Firefox a apporté ces fonctions qui sont utiles à la navigation de manière quotidienne. Il est clair qu'une fois qu'on surf avec ce genre de navigateurs, Internet Explorer laisse un gout amer.

Mais cela ne suffit pas, car après tout Opera, Netscape ou Mozilla (le papa de Firefox) disposaient déjà de ces fonctionnalités ou presque. Pourquoi n'ont-ils pas progressé en part de marché ? Car en réalité le succès de Firefox tient surtout d'un coup marketing incroyable pour le Logiciel Libre actuellement. Opera a toujours été discret autour de la sortie de ses produits, et le fait qu'ils soient payant (ou avec un bandeau de publicité) n'a pas aidé les choses, Mozilla et Netscape sont les perdants de la 1ère guerre des navigateurs et héritent d'un héritage trop lourd d'autant que Mozilla a mit du temps avant d'être considéré comme stable. Firefox lui rien, développement rapide, léger, et surtout on a entendu parler de lui. Entre l'article paru dans le New-York Times, un nombre incalculable de sites ou de journaux informatiques qui en font la promotion et le soutient de Google, si on aimait l'informatique fin-2004 on voyait du Firefox partout avec les louanges de tous ceux qui l'ont testé dont beaucoup de webmasters qui ont pu répandre leur enthousiasme.

Outre cette campagne médiatique réalisée d'un coup de maitre, le cadre temporel fut parfait. Le marché n'avait aucune concurrence, IE n'évoluait plus et les gens commençaient à se lasser de cette stagnation. Il est clair que si on retente la même chose avec un autre navigateur aujourd'hui, le succès sera plus mitigé que jamais à cause de la forte concurrence qui « tue » des projets trop petits que sont les Logiciels Libres à la base.

Pour mettre cela en application avec GNU/Linux, on va retenir 3 idées : les « fonctionnalités-killer », la campagne publicitaire et le cadre temporel vis à vis du marché. Sans ces 3 éléments réunies cela peut être une catastrophe, comme nous allons le voir...

Puis arriva le manchot !

Aujourd'hui nous arrivons à un carrefour important pour GNU/Linux qui peut se répandre partout. Depuis quelques années on commence à voir ce rêve ancien d'un professeur barbu du MIT (Richard Matthew Stallman) comme enfin réalisable (enfin pas complètement). Mais la moindre erreur pourrait tout détruire à jamais ou presque... En effet imaginez une campagne publicitaire menée d'une main de fer lancé actuellement ? Soit ça sera un coup d'épée dans l'eau, soit GNU/Linux sortira avec une image populaire mauvaise pouvant empêcher un nouvel essai. De même qu'il faut le faire avant que la concurrence ne tue le marché par les mines qui se posent petit à petit... On va voir quand est-ce que sera ce bon moment approximativement.

Le développement du système libre

Le développement de GNU/Linux est très rapide, si on regarde quelques années en arrière, GNU/Linux ne tenait pas longtemps la comparaison face aux OS propriétaires pour un non-libriste à moins d'avoir une grande volonté. Mais GNU/Linux a rattrapé beaucoup de son retard face à ces OS, si on regarde bien de Fedora Core 3 à Fedora 10 j'ai senti une progression plus importante qu'entre XP et Vista qui a eu pourtant plus de temps. Ceci a pu se passer grâce à la remise en cause de beaucoup de points de GNU/Linux ce qui a entrainé des dégâts (comme PulseAudio ou SELinux) mais cela est nécessaire pour avancer plus vite et se libérer des contraintes de l'héritage du passé. Car il est vrai, ces dernières versions de GNU/Linux ont connu quelques instabilités, mais cela a permit peut être de compenser l'écart qu'on avait avec les autres OS qui eux trainent du code datant d'il y a 20 ans et qui est obsolète au possible.

Des applications-killers en vue ? Une opportunité marketing ?

Ceci dit à cause de ce climat, il est sans doute trop tôt pour tenter une action marketing à grande échelle. Après tout dans certains domaines GNU/Linux a de gros points faibles comme les jeux vidéo. Mais les Logiciels Libres avancent vite et KDE 4.2, The GIMP 3.0, Firefox 3.1, etc. promettent énormément et pourrait devenir des applications incontournables, suffisamment pour attirer la population. Il est donc intéressant d'attendre l'évolution de ces logiciels, comme de l'intégration des pilotes libres de ATI par exemples. Mais un danger guette : Windows Seven. On ignore beaucoup de ce dernier, il y a certaines choses que l'on sait comme l'interface tactile mais est-ce que Windows Seven va révolutionner l'informatique comme cela était annoncé pour Vista ? On l'ignore, et si Seven est un succès populaire (après l'échec de Vista, cela est fort possible), GNU/Linux aura du mal à percer car les gens n'auront d'yeux que pour lui sauf si c'est un fiasco. Les gens profitent en ce moment d'un Vista peu populaire, rejeté de toutes parts. On peut supposer qu'il faudra le faire avant la sortie de Seven.

Comment faire la promotion de GNU/Linux ?

Pour faire ce type de publicité, il faudra sortir plus gros que les magazines de Diamond Edition et votre cousin Robert. Toute l'industrie informatique devra s'y mettre corps et âmes dans un assaut ultime. Tout d'abord il faut une unification dans le développement marketing pour éviter de se disperser. Les alliances comme entre Canonical, Red Hat et IBM sont une bonne chose vers ce sens, mais il faudrait également le soutiens d'autres poids lourds comme Sony, ASUS, Acer, Intel, nVidia, ATI/AMD, Dell et d'autres. Avec eux la campagne sera plus crédible et son impact ne sera que plus fort car ce sont des valeurs sures pour le grand public et même l'entreprise.

Cette campagne devra en somme faire un gros buzz, un peu comme l'iPhone ou Firefox à leurs sorties. Tout le monde doit en parler, de la presse informatique à la presse généraliste et évidemment dans le bon sens. La vente de machines et de matériels spécialement conçues pour GNU/Linux (comme l'EeePC avec la Xandros) est également essentielle. Bien que cela paraisse utopique, on se souvient de la publicité d'IBM diffusée de manière confidentielle ou encore le fait que GNU/Linux prend de la place dans l'embarqué et les netbooks. Le bouche à oreille devrait conclure cette campagne si bien menée permmettant peut être à GNU/Linux de grignotter quelques parts de marché et d'y faire son trou.

Ou alors la méthode douce

L'intrusion de GNU/Linux peut être plus progressive et moins brutale. La migration d'entreprises ou d'administrations est un exemple possible qui permet par la suite la migration des personnes qui y travaillent convenablement et sans accroche. Elle coutera moins chère mais sera plus lente. Dans ce cas, c'est vous utilisateurs de système libre qui avez la plus lourde tâche : faites migrer votre lieu de travail et votre famille sous GNU/Linux si évidemment cela ne pose pas de soucis dans l'efficacité. Aidez et aidez-vous des GULLs ou autres associations comme l'APRIL qui font en sorte que l'État français défendent et soutiennent le Logiciel Libre chaque jour. Et qui sait, si le gouvernement fait des actions et de la publicité pour notre système préféré, cela pourrait aider la conversion massive des utilisateurs non ?

Conclusion

Je pense et je montre à travers ce billet qu'il est trop tôt pour espérer une migration à grande échelle, pour l'instant on est à une migration douce et progressive. Mais cela ne suffira probablement pas si on veut que notre système se popularise au monde entier. Mais dans ce cas cela ne dépend pas que de nous mais aussi de l'industrie et comme on peut le voir, il y a des contraintes pour que la campagne soit un succès. De même que je pense que les systèmes comme Fedora ou Ubuntu sont assez peu stables notamment ces dernières versions car on est dans un cycle de renouveau pour doper l'évolution de GNU/Linux, si cela vous déplait, changez de versions ou de distributions (d'un autre côté prendre Fedora sans vouloir de la nouveauté, c'est un peu étrange non ? ;) ).

Et vous, vous envisagez comment la diffusion de GNU/Linux au sein du grand public ? Vous y croyez ? Vous en voulez ? Que faut-il faire selon-vous pour y parvenir ? Donnez vos idées aux développeurs, et participez aux projets que vous tenez le plus à cœur et ça aidera vous verrez.

Et si la théorie de l'évolution s'appliquait au Logiciel Libre

Introduction

J'ai souvent entendu, ici et là, en naviguant sur le Web, des personnes qui critiquaient la trop grande diversité du Logiciel Libre menant à la réinvention de la roue, des incompatibilités et autres problèmes nuisant finalement au Libre plus qu'elle n'apporte. Personnellement, je pense au contraire que c'est -dans une certaine limite- sa plus grande force et pour le montrer je pense qu'une petite analogie à la théorie de Charles Darwin est évidente, simple et efficace. Rien de scientifique là dedans ni de forcément exacte mais je pense que certains visualiseront mieux les avantages et la régulation naturelle conduisant à un avantage évident de cette diversité.

Au commencement...

On sait depuis un moment que toute espèce vivante est apparentée aux autres avec un ancêtre commun hypothétique unicellulaire. Malgré les différences entre ces espèces, on parvient à les classer en groupe comme les mammifères, les oiseaux, etc. Puis chaque individu est codé par un code génétique unique sous forme d'ADN. Quand on regarde les logiciels, on peut se dire (avec la disparition des cartes perforées) les logiciels libres initiaux sont le compilateur et l'éditeur de texte qui donneront naissances à d'autres logiciels par la suite. Et ces logiciels libres se sont diversifiées et malgré les différences on peut les regrouper en catégories comme le graphisme, les éditeurs de texte, les jeux, etc. Pour finir, un logiciel libre comme tout logiciel est composé d'un code unique lui étant propre : le code source.

Une évolution progressive

L'évolution des espèces se produit grâce à de multiples mutations génétiques qui ensembles forment de nouveaux caractères et donc de nouvelles espèces. Chez les logiciels on pourrait dire que les logiciels utilisent la bibliothèque C libre comme base et les imbrications, améliorations successives de cette dernière participe à l'élaboration de programmes de plus en plus divers et varié. Mais il existe dans la théorie de l'évolution des branches qui se coupent violemment et discontinues comme celle de la lignée humaine. On pourrait traduire ça par la naissance de nouveaux logiciels de bases comme les bibliothèques ou langages qui se basent (de manière hypothétique) sur la Lib C qui serait commune.

Et Dieu créa le fork !

Ces fameuses mutations pour les animaux peuvent être vues comme une copie du code source original puis après modifications donne un logiciel pouvant être totalement nouveau. Le fork peut être due à plusieurs facteurs : un désaccord sur les développeurs, de la communauté, sur la philosophies, les options, etc.
Le but du fork est de diversifier et d'étendre le public du logiciel et ainsi satisfaire un nombre d'utilisateurs plus élevé. Prenons l'exemple de Debian et Ubuntu, cette première est clairement destinée à des utilisateurs expérimentés ou dans des situations précises comme les serveurs. Debian n'a jamais revendiqué ni rien fait pour que le débutant s'y sente à son aise, d'où Ubuntu, qui a comblé le problème de Debian, et ainsi, a pu s'imposer dans la catégorie du « grand public » mais contrairement à Debian, Ubuntu n'est pas des plus réputés pour un utilisateur expert ou pour les serveurs. C'est une question de choix. Tout comme les animaux qui mutent pour s'adapter à l'environnement, le Logiciel Libre s'adapte à un public déterminé pour le satisfaire et le rejoindre. Le fait que Ubuntu ne soit pas des plus aptes par exemple à être sur un serveur n'est pas une insulte au contraire, ce n'est juste pas son objectif.

Regardez les papillons, les noirs généralement vivent dans les zones plus polluées car le bois est plus sombre et donc se camouflent mieux et inversement pour les blancs. Comme les papillons, les Logiciels Libres ne peuvent pas être tous multi-usages parfaitement et sont bien plus efficaces dans un domaine précis.

Vers une convergence évolutive ?

La convergence évolutive c'est le fait que les Logiciels Libres ou animaux évoluent séparément mais développent des fonctions similaires pour un milieu donné. Par exemple on sait que le dauphin et le requin sont de groupes opposés (poisson et mammifère), pourtant le dauphin a développé des nageoires car dans l'eau c'est la morphologie la plus avantageuse. Il n'a pas regardé des requins en se disant « ouaaa trop cool, j'en veux ! », d'ailleurs leurs codes génétiques diffèrent même pour cela.

Chez les Logiciels, même topo, regardez des navigateurs comme Firefox/Konqueror/Epiphany/Seamonkey, leurs apparences sont très semblables à la première impression. Je suis sûr que si vous utilisez Firefox et que vous testez Konqueror une seule fois, vous vous y retrouverez rapidement. Car l'interface graphique des navigateurs convergent vers une interface assez similaire car c'est sans doute la plus efficace pour cette tâche. Ou encore KDE et GNOME avec les 2 autres OS propriétaires, il y a des similitudes car bon il n'y a pas 10 façons de faire une interface graphique intuitive et la notion de barres et de barre des tâches était sans doute la meilleure, d'ailleurs d'autres environnements reprennent ce principe...

La destruction des espèces

La sélection naturelle est une loi inéluctable, l'espèce la plus forte s'impose et les autres meurent progressivement. C'est ainsi que l'Homme de Néandertal est mort il y a plusieurs milliers d'années suite à un réchauffement naturel du climat alors qu'il avait une corpulence pour supporter le froid. Contrairement à l'Homo Sapiens qui était moins trapu a pu tenir ce changement de conditions.

Le Logiciel Libre suit cette logique, plus un projet aura un public large, plus il s'imposera et les petits projets quant à eux perdront du public et des développeurs jusqu'à ce que le développement du logiciel meurt car le logiciel évolue trop lentement. Regardez -encore une fois- le cas Ubuntu. Avant Ubuntu il n'y avait en somme qu'une distribution grand public : Mandrake (la vieille époque hein ? ;)), ce marché était en berne et Mandrake avait des imperfections qui faisaient que le grand public avait plus de mal à venir. L'arrivée de Ubuntu en quelques mois a changé la donne pour se mettre en avant et reléguer Mandrake au second plan qui n'a pas réussit à tenir à la comparaison et à la force médiatique et marketing de Ubuntu. Ce changement d'environnement a bouleversé l'écosystème du Logiciel Libre tout comme l'Homme dans la Nature. Mais il est possible qu'un changement puisse inverser la tendance et supprime Ubuntu à tout jamais... Wait&see.

Le risque d'une imposition/monopole

Mais le problème que Ubuntu a embarqué comme l'Homme dans la Nature, c'est que l'ensemble modifie l'écosystème et risque de détruire un certain équilibre. L'Homme est ce qu'on appelle un super-prédateur, comme quelques rares animaux (comme l'ours), l'Homme n'a aucun prédateur naturel réel, il est donc au sommet. Et son action peut détruire à lui seul la survie de plusieurs centaines d'espèces diverses même parfois sans grandes importances. Le problème que Ubuntu pourrait créer, c'est de s'imposer au sein de la communauté et avec la force des médias la confusion GNU/Linux et Ubuntu se créent ce qui fait que le gens abandonneront leurs projets et distributions au profit de cette dernière qui prendra en importance. Et si l'industrie de l'informatique et la communauté tournent le dos aux plus petits projets suite à ça, ça sera leur mort assuré ou presque et seuls les plus grands survivront. Ce phénomène nuit à la diversité qui comme la théorie de l'évolution le montre, est la plus profitable au final.

Une diversité incontrôlable ?

Est-ce que cette diversité est réellement nuisible ? En réalité non, la Nature étant bien faite, le monde s'auto-régule naturellement via la théorie de l'évolution qui permet aux seules espèces les plus adaptées à l'environnement de survivre. Seulement certaines espèces peuvent avoir une plus grande influence sur l'environnement et accentuer le processus. Ceci dit il y a peu de risque que cette diversité soit incontrôlable. Par exemple on dit souvent qu'il y a plein de petits projets, il est vrai que quand on voit certaines distributions qui n'ont que un menu qui change par rapport à la première, on se demande qu'elle est l'utilité.

Mais il faut laisser faire, ces distributions tiendront tant que cela répond à un besoin, car après tout si elle ne répond à aucun besoin, à la fin sa communauté va disparaitre et de par la même occasion, les développeurs et donc le projet. D'ailleurs si on regarde bien, il n'existe qu'une vingtaine de distributions très connues sur plusieurs centaines qui sombrent dans l'oubli, ces 20 distributions (voire même 10) répondent quasiment à l'ensemble des besoins les plus généralistes, c'est sûr que de la distribution spéciale musique cela intéresse moins de monde qu'une Ubuntu mais cela n'enlève pas l'utilité de la première. Et si on regarde mieux encore, dans ces distributions, certains sont parmi les plus anciennes distributions comme SuSE, Debian, Red Hat, Slackware ou autres et leurs communautés ne désemplissent pas, les autres naissent et meurent en vain de trouver du succès à part quelques exceptions comme Mandrake ou Ubuntu...

Certains décrieront une dispersion de l'énergie, c'est vrai qu'il y en a. Mais qui sait leurs projets a peut être une utilité ou pourrait révolutionner l'écosystème de GNU/Linux. Puis d'un autre côté, changer la position d'un menu ne demande pas les mêmes compétences que pour créer un noyau révolutionnaire. Il y a donc un certains équilibre et la perte d'énergie est rapidement compensé. Le tout est que les Logiciels Libres ne se créent pas des incompatibilités entre eux de manière trop violente.

Conclusion

J'espère que cet article suite à des analogies assez connues je pense vous aideront à comprendre les biens faits de la diversité du Logiciel Libre et en quoi elle n'est pas destructive.
Ce message n'est pas un troll ni envers Ubuntu ni aucun autre projet et l'ensemble de ce message est applicable à l'ensemble des Logiciels Libres. Pour conclure mon exemple pour montrer les bien faits de la diversité : The GIMP est le plus puissant Logiciel Libre d'édition de l'image mais pour redimensionner la taille d'une photo c'est utiliser un tank pour tuer une mouche, trop lourd, c'est là que KolourPaint prend son sens car plus léger et simple puis ImageMagick qui est encore plus efficace mais un poil moins sexy à l'usage sans doute. Chacun a donc son public et son usage pourtant dans un même domaine.

dimanche, décembre 7 2008

J'ai voté

J'ai voté
Fedora est en période de vote, notamment ce qui déterminera les objectifs de Fedora sur les prochains mois à venir.
Pour cela il faut être membre et avoir signé le CLA de Fedora Project (et pour l'une des 3 élections il faut être ambassadeur). Si ce n'est pas le cas, devenez contributeur de Fedora. :)

Les élections s'arrêtent le 20 décembre à 23h59 et 59 secondes. Votez si ce n'est déjà fait.
Pour voter c'est ici.

samedi, novembre 29 2008

Yumex au placard, place à PackageKit

Ceux qui ont testé Fedora 9 ou 10 ont du avoir une petite surprise à l'arrivée. En effet le gestionnaire de paquet est PackageKit qui remplace le couple Pup et Pirut qui étaient bogués et relativement peu puissants face à la concurrence. Ceci dit, tous les Fedoristas vous le diront, Yumex était le gestionnaire de paquet graphique qui exploitait le mieux Yum sans doute depuis un bon paquet d'années. Ce tout en 1 de Yum commence peu à peu à se faire battre par PackageKit qui ne cesse de nous surprendre à chaque version.

PackageKit c'est quoi ?

PackageKit est un projet de Freedesktop.org, et qui ne cesse de trouver des projets pour unifier GNU/Linux et empêcher que la diversité devienne nuisible au Logiciel Libre dans son ensemble en améliorant la compatibilité et une certaine unicité à bas niveau. Par exemple on peut citer Gstreamer pour le multimédia, HAL et D-bus pour le matériel, Nouveau pour le pilote libre de nVidia, Telepathy pour la messagerie instantanée, X.Org ou encore SWFdec pour le Flash libre. Car on est parti d'un constat simple, il y a multiplication de gestionnaires graphiques des paquets ce qui nuit à l'utilisateur car d'une distribution à une autre la gestion des paquets diffère. Et on sait ce cette partie du système est une base importante qu'on utilise quasiment tous les jours ne serait-ce pour les mises à jour et l'intérêt d'interfaces différentes laisse à désirer (mais à bas niveau c'est une autre histoire). Donc PackageKit doit offrir à tous les gestionnaires de paquets les mêmes options et la même interface comme Yum, APT/APTitude, Smart, etc. et ce pour n'importe quelle distribution.

Une progression constante et une adoption progressive

PackageKit est un projet qui sort des versions depuis près d'un an seulement, et les progrés sont exemplaires. On atteint la version 0.3.10 au rythme d'une version toutes les 1 à 2 semaines. Et son succès commence à se répandre. En effet en mai Fedora 9 l'intègre par défaut et le mois suivant OpenSUSE suit la danse. En septembre Mandriva l'intègre peu à peu dans sa version 2008.1. Cette adoption progressive permet d'intensifier le développement et le support des gestionnaires des paquets de chaque distribution, et ça commence à porter ses fruits. En mai, la 1ère version de Fedora 9 (la 0.1.13 de souvenir) était inutilisable au quotidien sauf pour les mises à jour : il ne gère qu'un paquet à la fois, lent, peu puissant... Aujourd'hui il commence à rivaliser parmi les plus grands en seulement quelques mois et devient à vrai régal au quotidien.

Des fonctionnalités nouvelles et intéressantes

PackageKit commence à révolutionner la gestion des paquets d'une distribution. Commençons par les mises à jour.

  • La possibilité de savoir quelle est le type de mise à jour via une icône et une séparation des paquets par type : mise à jour de sécurité, corrections de bogues, de nouvelles fonctionnalités ou mise à jour classique, etc. Ainsi on sait déjà ce qu'apporte la mise à jour et ce qu'on peut attendre de chaque paquet.
  • La vérification des mises à jour personnalisables (par heure, jour, semaines ou mois) avec possibilité d'installer le tout automatiquement ou seulement les mises à jour de sécurité. Et évidemment selon l'état de la batterie de votre portable il effectuera ou non la mise à jour (car une mise à jour coupé pendant la phase d'installation n'est pas recommandée).

Mais maintenant la gestion des paquets à installer ou supprimer :

  • La possibilité de filtrer les paquets selon la licence (libre ou pas), selon la présence ou non d'interface graphique ou encore de paquets de développements ou pour les utilisateurs normaux. Sans oublier la possibilité de n'afficher que les derniers paquets ajoutés dans la liste.
  • Pouvoir virer l'ensemble des paquets qu'on a ajouté dans la liste des choses à ajouter ou enlever.
  • À la fin de l'installation on vous propose de sélectionner des paquets de pouvoir les lancer directement à la fin. Plus besoin de chercher dans les menus le nouveau logiciel installé que vous désirez.
  • Affichage des icônes de l'application à côté du paquet ce qui permet de vérifier si c'est la bonne application ou de savoir ce qu'il fait sans lire la description...
  • La présence d'un historique des mises à jour ou installation/suppression des paquets ce qui est pratique pour savoir la date de la dernière mise à jour ou de vérifier les paquets responsables de votre dernier bogue.
  • Support de PolicyKit, plus besoin de taper le mot de passe root pour une simple mise à jour...

Quelques manques assez gênants

Malgré toutes ces améliorations ou possibilités que l'on voit rarement dans une interface graphique, il y a des manques mais sans doute imputable à la jeunesse du projet.

  • Impossibilité de savoir si cette mise à jour nécessite un redémarrage pour l'appliquer correctement (comme celui du noyau Linux) et ne propose pas de redémarrage même s'il y a besoin à la fin.
  • On ne peut pas tout ajouter ou tout enlever dans la liste des paquets visibles (pour les mises à jour ou l'installation après une recherche de paquets).
  • Pas d'ajout ou suppression de dépôts possible, juste l'activation ou désactivation des dépôts le sont.
  • Encore un peu lent pour actualiser la liste des paquets.
  • L'intégration de KDE bien qu'à son balbutiement reste peu aboutie pour le moment, l'écart avec la version GTK est assez conséquente.

Conclusion

Même si on peut regretter certaines choses, le support de Yum est bon, le progrès du projet est rapide et suffisamment abouti pour remplacer sans problème un Yumex en perte de vitesse. On peut regretter que Ubuntu et Debian n'annoncent rien en ce qui concerne une possible adoption dans l'année 2009 ce qui serait un pas important en avant pour le projet. Vous pouvez voir l'évolution des fonctionnalités que PackageKit supporte pour chaque gestionnaire ici et vous pouvez dégoter quelques captures d'écran ici. En ce qui me concerne Yumex ne va servir qu'en cas de problèmes majeurs dorénavant, PackageKit a beaucoup murit. Pour ceux qui ont quelques réticences depuis leur dernier essai : essayez la 0.3.10 et vous serez probablement convaincus de son évolution.

Le P2P est le mal, sauf pour télécharger Fedora !

Ah le P2P, ce doux mot tant décrié par les médias et certaines personnes du public accusant à tort et à travers ses méfaits. Il est vrai que de télécharger des contenus sous droits d'auteur avec n'est pas ce qu'on pourrait qualifier de légal, mais ces logiciels sont utiles surtout pour les gros projets du Logiciel Libre comme Fedora ou même la plupart des distributions GNU/Linux ou les autres OS Libre.

À chaque nouvelle version d'une distribution comme mardi dernier pour Fedora, on a le droit à la vague qui pendant 2-3 jours téléchargent à fond la nouvelle version mais souvent directement via les serveurs. Ceci dit Fedora comme les autres proposent une astuce sympathique : Bittorrent. Pourquoi l'utiliser après tout ? Un principe simple : la communauté unie est plus forte, et le Logiciel Libre le prouve constamment et c'est l'occasion ou jamais d'y participer. Les gains d'utiliser Bittorrent sont réels, on va faire une analogie assez débile mais bon. Imaginez que nous sommes un centre d'une hotline de 20 récepteurs téléphoniques, ces 20 récepteurs sont des serveurs officiels du projet. Durant l'année, quand on a quelques clients qui appels pendant plusieurs heures, c'est gérable, on a même souvent de la place de disponible constamment. Mais si cela se passe dans l'intervalle d'une nouvelle version de Fedora, tous vos téléchargements directs sur le serveur (via votre navigateur) c'est comme si tout le monde utilisait la ligne pendant plusieurs heures à son compte. Au bout d'un moment ça sature, le téléchargement ralenti, etc. Bref personne n'est content car ça met du temps. De l'autre côté vous avez un central avec 1 seul employé, mais quand quelqu'un appel, cette personne peut recevoir l'appel d'un autre, ainsi de suite. Quand on est 1 ou 2 c'est nul, mais quand on est 20-30 ou plus, bah on surpasse les capacités de l'autre centrale car nous on est jamais surchargé ! Cette analogie pourrie doit vous faire retenir plusieurs choses :

  • Télécharger directement les fichiers ISO sur le serveur (ce qui prend 30 min à plusieurs heures) avec l'effet de masse ralenti les serveurs qui servent notamment à installer les logiciels ou mettre à jour le système après l'installation. Ce ralentissement est énervant pour tout le monde car on ne profite pas directement de la distribution fraichement installée.
  • Mais en plus, plus on télécharge directement, plus on utilise la bande passante. Il faut savoir qu'elle est très chère et que Fedora ne vous demande rien comme argent de même que les personnes qui prêtent leurs serveurs pour faire des miroirs. Vous êtes un surcout important pour eux que vous ne remboursez pas.
  • Torrent fonctionne avec l'effet de masse. Comme on l'a montré avec l'analogie, plus il y a des gens qui rejoignent le groupe, plus les possibilités augmentent. Au final vous pouvez télécharger à des plafonds records qu'on obtient rarement avec le téléchargement direct sur les serveurs. Autant en profiter et faire profiter le monde. Car Torrent c'est le partage, après l'avoir télécharger, n'oubliez aps de continuer le « téléchargement » pour envoyez vos données aux autres et faire profiter votre connexion à ceux qui n'ont pas encore finis.
  • Sans compter que dans Torrent il y a des « contrôleurs » pour que le fichier à l'arrivée soit tout beau, tout propre. En effet en téléchargement classique (surtout pour les gros fichiers) il y a un risque important que certaines données se téléchargent mal voire pas du tout, résultat votre fichier ne fonctionnera pas bien. Torrent vérifie progressivement le téléchargement et corrige ces problèmes comme un grand. Résultat vous économisez du temps, des CDs/DVDs et en plus vous n'avez pas besoin de faire la vérification de l'état du CD avant l'installation.

Le seul problème de Torrent, c'est que certains FAI ou réseaux (université ou de boulot) les brident ce qui gène son utilisation. Mais si vous en avez la possibilité, aidez Fedora, aidez le Libre en utilisez les Torrent au lieu des serveurs directement ! Ceci est applicable à tout projet libre qui propose des Torrent comme alternative, pensez-y la prochaine fois et le Libre vous remerciera. ;-)

dimanche, novembre 16 2008

Que choisir : une distribution en 32 ou 64 bits ?

Ce débat ressort souvent sur beaucoup de forum dont ceux de Fedora-fr. Souvent on se retrouve avec les vieux arguments qui datent de l'ère des machines à écrire et qui n'ont plus lieux d'être. Ce billet peut servir d'appoint à une discussion de ce type car bon personnellement ressortir els mêmes arguments c'est énervant.

Depuis quelques années, avec l'apparition des processeurs 64 bits, il n'en fallait pas longtemps pour que GNU/Linux suive la tendance et sorte des versions dédiées. Mais au début de ce changement, peu de logiciels existaient pour le 64 bits et il était pénible pour installer des versions 32 bits et finalement les gains étaient plus que rédhibitoires. Mais la situation a évolué, et dorénavant utiliser GNU/Linux en 64 bits est aussi bien si ce n'est mieux qu'en 32 bits, ceci est beaucoup moins vrai pour Windows par exemple...

Voici donc une petite liste d'arguments en faveur de leur utilisation, évidemment si votre processeur supporte cette architecture :

  • Si vous avez plus de 4 Go de mémoire vive, ça sera totalement reconnu par défaut et exploitable. Linux supporte le PAE permettant de dépasser cette quantité supportée en 32 bits, mais certaines configurations ne supportent pas cela puis cela demande des manipulations supplémentaires.
  • Amélioration dans les performances, surtout dans le multimédia ou la compression des données ou même la compilation. Je vous invite à lire cet excellent billet de eddy33. Et vu que l'optimisation multi-processeur/multi-thread s'améliore notamment en programmation, il est possible que els améliorations soient plus visibles un jour prochain.
  • Le 64 bits c'est l'avenir, bien que le 32 bits va tenir via l'embarqué, la plupart des machines en ventes sont en 64 bits donc autant y passer tout de suite au lieu de sous-exploiter votre machine pour rien...
  • Plus ces systèmes seront adoptés, plus les éditeurs de logiciels s'y mettront aussi (du moins probablement).
  • Ça fait geek.

Ceci dit, je vois arriver à grands pas des contre-arguments, pour certains connus que je vais rétorquer car depuis le temps c'est faux :

  • Les systèmes 64 bits ont besoin de plus de mémoire que le 32 bits. C'est vrai, mais avec les quantités de RAM vendues sur le marché vous ne sentirez rien du tout, vous verrez plus d'améliorations de performances que le contraire.
  • Grâce aux codes ouverts des Logiciels Libres, beaucoup d'applications ont une version 64 bits. Très peu de logiciels sous GNU/Linux n'existent qu'en 32 bits.
  • Les processeurs actuels supportent le 64 bits mais aussi le 32 bits en même temps. Donc votre système GNU/Linux peut installer des applications 32 bits en toute transparence pour vous (comme WINE). Fedora a d'ailleurs fait beaucoup d'efforts pour que ça se déroule sans problème, de mémoire pour d'autres distributions c'est un peu plus gênant.
  • De ce fait, beaucoup d'applications 32 bits-only propriétaires comme Flash sont utilisables sans problèmes. Il existe beaucoup de documentation pour les installer si vous avez des difficultés.

Donc finalement qu'est-ce qui vous retient ? Passez en 64 bits et vous verrez que ce n'est pas horrible et inutilisable ! Faites passer le message, il faut arrêter ces idées reçues. D'ailleurs regardez ces statistiques de l'utilisation du 64 bits au sein de Fedora (grâce aux données de Smolt), vous croyez que 20% des utilisateurs de Fedora l'utiliseraient si c'est si mal fichu ?

Le 64 bits est l'avenir, profitez-en. Sinon c'est comme si vous mettez un moteur de 2CV dans une BMW récente... Ça marche mais il y a mieux. :-)

samedi, novembre 15 2008

Et si Wikipédia révélait les défauts des médias traditionnels ?

Je pense qu'il est inutile de présenter Wikipédia. Cette encyclopédie libre qui nous rend constamment de nombreux services et l'un des piliers de ce qu'on appelle le web 2.0. J'ai lu plusieurs ouvrages et critiques envers Wikipédia qui révélaient la chose suivante : ce n'est pas fiable et on ne doit pas y faire confiance.

Les détracteurs de l'encyclopédie sortent souvent cet argument de poids pour ne pas l'utiliser. Mais n'est-ce pas la force de Wikipédia finalement de ne pas être fiable ? Je m'explique, une personne assez critique sous Wikipédia ne fera pas confiance au contenu et vérifiera les informations (aidés par les sources présentes sur de nombreuses pages !). Car finalement cette personne qui est devenu critique à l'égard du contenu aura tendance à vérifier chaque informations avant de l'assimiler, choses qu'on ne fait pour aucun autre média ! Et si finalement Wikipédia permettait cette prise de conscience et l'apprentissage d'un processus indispensable ?

On a tous connu l'épisode de l'histoire « vu à la télé » garantissant une vérité alors que finalement, on a pu observer bien des bêtises. Est-ce que Wikipédia est le seul média que l'on doit vérifier ? Je pense que non, chaque média doit mériter une vérification assez minutieuse pour s'assurer que l'information est vraie. Vérifier peut prendre 5-10 minutes, et pour cela on peut se baser sur le principe : plus une information est citée, plus on peut supposer qu'elle est vraie. Alors les journalistes qui critiques Wikipédia par son manque de fiabilité, il faut admettre que chaque média présente ce défaut et que vérifier une information est indispensable. Surtout que c'est amusant mais de plus en plus de journalistes ne vérifient pas leurs informations et finalement on se retrouve avec une fausse annonce et ils osent critiquer Wikipédia.

Un exemple : récemment un garçon cet été a été perdu dans la Nature et pendant plusieurs jours une équipe de recherche a été mise en place. Un soir, au JT de 20h de TF1, on apprend que l'enfant est décédé pour que le lendemain on apprend qu'il est vivant et en bonne santé ! Résultat des courses : le journaliste a été licencié mais pendant 16h les gens étaient dans un mensonge. Mais ce genre de cas est de plus en plus fréquent, et encore plus dangereux quand on prétend que la source est fiable. Par exemple plusieurs expériences scientifiques publiées par les moyens traditionnels ont été des supercheries et ont mit des années avant d'être révélées ! Ou encore Orson Wells qui dans les années 20-30 a fait croire (par la radio) à une invasion extra-terrestre créant un mouvement de panique et le lendemain 6 millions d'américains fuyaient leurs maisons. Ou pour finir sur les « soirées de l'étrange » de TF1 qui montrent un grand nombre de phénomènes qui ont été mis à mal (par exemple le mythe du triangle des Bermude qui a été contredit depuis longtemps). On passera sur le nombre de fois où les journalistes à la télé ou dans la presses écrites se plantent totalement quand ils parlent d'informatique car ils ne connaissent pas le domaine. Je suis sûr que vous en avez vu plein. ;) La liste est longue, et comme on peut le voir, tous les médias sont concernées et même des sources qu'on qualifie d'habitude de fiable.

Moralité : Quel que soit le média que vous observez, vérifiez l'information. Ne faites pas plus confiance à Larousse que Wikipédia et vérifiez constamment, encore plus quand c'est une recherche importante comme en université par exemple. Et si Wikipédia a tort, corrigez, ça ne vous fera pas de mal. ;)

Varunix : la naissance d'une communauté varoise

Et voilà c'est officiel, Varunix vient d'obtenir il y a peu la possibilité de s'héberger auprès de Tuxfamily. Ce qui va suivre est plus une mise à plat des plans prévues pour l'avenir, pour avoir des avis et retours pour que Varunix soit meilleur.

Varunix est le nom qu'on donnera à la communauté varoise du Logiciel Libre. Le Var, ce petit département de PACA est encerclé par la rayonnement de Marseille et Nice qui bordent le département, et la communauté du Libre s'en fait ressentir. Les GULs ou communautés du type ne sont plus actives dans ce département depuis 2006 ! Avec la réussite célèbre de Linux-Azur (Alpes-Maritime) qui a donné naissance à Kaella, il est difficile d'y imposer une petite communauté.

Pourquoi une énième communauté ?

  • Pas tout le monde n'a les moyens logistiques ou temporels de faire des déplacements aussi longs pour faire des rencontres ou participer à un projet. La proximité est une force pour la communauté du Logiciel Libre. Il serait dommage que le Var s'en prive.
  • Car plusieurs communautés peuvent faire une union plus importante. L'alliance de cette communauté avec celles qui entourent le Var permettront de réaliser des actions à une échelle plus grande avec des moyens plus élevés et de mains d'œuvre. Par exemple de recréer Fedora-Paris et leurs célèbres soirées à l'échelle de la Côte d'Azur et peut être plus qui sait.
  • Cette communauté peut être une entité pour développer des projets au nom du Logiciel Libre. Un peu comme le modèle de Linux-Azur au sujet de Kaella qui a fait ses preuves.
  • Pour représenter de manière plus efficace le Logiciel Libre dans ce département et de réaliser des évènements autour pour créer et renforcer la communauté d'utilisateurs. Toulon qui est la 10e ville de France en terme de population n'a accueillie aucun évènement liée au Libre comme des install-partys à ma connaissance. Pour une si grande ville (avec un potentiel d'utilisateurs déjà convertis élevés) ce n'est pas normale qu'il ne se passe rien.

Cette communauté ne sera pas dès le début une association loi 1901 contrairement aux autres GULs. Le but pour le moment est de rassembler une communauté dispersée, si ça fonctionne bien on pourra envisager les procédures pour créer une association et permettre d'étendre les buts de ce groupe. Comme je suis l'initiateur de cette communauté, j'ai prit soin de donner quelques objectifs à remplir et projets à réaliser pour que le groupe remplisse sa fonction et ce avant 2010 si possible :

  • Organiser des install-partys dans les grandes villes du Var, quelle que soit la distribution ou le système pour peu qu'il soit libre.
  • Organiser une Fedora-Paris à une autre échelle, du Var voire de la Côte-d'Azur.
  • Elle aura la charge du projet de la sauvegarde de l'aspect graphique des distributions majeures. J'en ai parlé précédemment.

Ces objectifs sont sur le court terme pour rassembler la communauté avant de viser plus haut. Si tout cela fonctionne bien, on pourra facilement envisager les objectifs suivants :

  • Devenir une association loi 1901
  • Prendre des relations avec les GULs voisins pour augmenter l'importance de la communauté PACA en réalisant des évènements plus grands par exemple.
  • Amener les RMLL dans le Sud, car pour le moment la côte Atlantique, le Nord et l'Est en ont profité mais pas le pourtour méditerranéen ou même PACA ! Nous aussi on veut en profiter mais avant de déposer un dossier, on va réunir la communauté et la collaboration entre les GULs environnants sera primordial pour la réussite d'une telle opération !

Cette ligne de conduite est assez sommaire, mais les objectifs sont assez réalisables pour peu que la communauté naisse correctement. Le temps aidera pour le reste. Un site sera mis à disposition chez Tuxfamily qui nous hébergera gracieusement, le site de cette communauté devrait être disponible courant décembre (à cause de révisions du bac blanc qui me bouffera la joie de voir Fedora 10 sortir de terre).

Comme tout GULs qui se respecte, ce qu'on veut ce sont des utilisateurs de systèmes libres ou au moins ayant conscience de la nécessité du Libre et qui veulent militer ou se convertir à cette philosophie et communauté. Après que vous soyez de Ubuntu, Fedora, Mandriva, Gentoo, FreeBSD, OpenSolaris, etc. nous importera peu, la diversité apportera du bon pour la communauté. :)

Si l'idée vous enchante et que vous êtes proches du Var ou même résidents dedans, signalez-le car on aura besoin de beaucoup d'aides pour que cela réussisse et ça sera l'occasion de voir la capacité minimale de ce groupe que l'on peut espérer avoir à disposition. Si vous avez des idées, points à ajouter ou à améliorer/corriger, signalez-le aussi. Démarrer du bon pied c'est mieux que de devoir réparer les dégâts ou erreurs après. :)

jeudi, novembre 13 2008

Le cloud computing et le web 2.0 : vers la fin du web ?

Alors que Microsoft vient de publier Microsoft Office pour le web, je commence peu à peu à m'exaspérer de ces sites ou produits sur le web et peu de gens prennent conscience que derrière il y a des risques ou des problèmes qui concernent tout le monde !

La sécurité

Ce que je trouve étonnant, on ne parle jamais de sécurité au sujet de ces applications web. Pourtant, comme tout programme (à part ceux de Donald Knuth), tout logiciel codé par un humain est faillible et peut avoir bogues et autres failles de sécurité. Et sur Internet, plus que jamais la sécurité est un point crucial qu'il ne faut absolument pas négliger. Combien de personnes ont contracté des virus ou ont eu des attaques ou vols d'informations via des sites web ? Ou encore à partir d'une simple pièce jointe... MS Office vient d'avoir un correctif d'une faille de 2006 il y a quelques heures, qu'en sera-t-il de la version web si une grosse faille existait ? Tout est possible, vol de documents, de compte, contrôle à distance, envoie de virus ou autres... D'autant que certains navigateurs sont comment dire, des passoires ambulantes.

À contrario, les applications locales présentent moins de risques (en général), je vois mal The GIMP se connecter à Internet alors que Photoshop en ligne peut profiter de la puissance du réseaux en pour répandre son problème et les désagréments que cela peut causer. Tant qu'à faire, déjà qu'on a assez de faille en locale, je n'imagine pas sur les applis web qui sont plus risquées...

La vie privée

On va me traiter de paranoïaque, beaucoup ignorent des possibilités d'une telle violation de la vie privée. Un document disposée sur un réseaux ou un serveur d'une entreprise qui ne dévoile rien tel que Google, Microsoft ou tant d'autres, c'est leur confier des documents précieux sans en avoir le contrôle. Imaginons le cas suivant, je suis le directeur d'une PME avec beaucoup de concurrents. Étant un technophile, je m'attèle à l'usage de ces outils en ligne. Seulement je veux créer avec quelques collaborateurs un document présentant le plan marketing à réaliser et dans les mains de la concurrence ça ferait mal. Une fois le document finit, on l'imprime et on souhaite effacer toute trace numérique par précaution. Celui du disque dur est supprimable à l'aide d'outils comme ceux de GnuPGP et non retrouvable à jamais. Mais celui du serveur distant, qui me dit que c'est supprimé définitivement et qu'un vol de compte par un concurrent ne permettrait pas de les récupérer à mon insu ?

Puis comme on le sait, sur Internet on laisse beaucoup de traces que nombreuses entreprises en profite comme Google, Yahoo!, Facebook ou autres. Ces informations servent entre autre à la vente pour des publicité ciblée (oh tiens du pourriel, des appels téléphoniques indésirables, ça ne sort pas de nul part). Mais en plus ça facilite la prise d'information par un tiers. J'ai réalisé l'expérience de suivre sur Internet la petite vie de personnes totalement inconnues, en quelques minutes et à coup de wget répétitifs, j'ai pu trouver quelques 300 images, pu voir l'ensemble des informations personnelles d'une personne ou encore la liste d'amis et même la possibilité de retracer partiellement l'emploi du temps. Tout est facilité à ce niveau, qui dit que votre prochain employeur ne va pas y jeter un coup d'œil pour influencer son choix vis à vis de votre comportement par exemple ou voir des situations compromettantes... Ou encore avec un État qui au nom de la sécurité souhaite contrôler la vie de chaque individu (si on examine les lois de la France et des É-U depuis 2001, beaucoup vont dans ce sens). Les É-U sont capables de pouvoir prendre n'importe quelle information vous concernant à partir d'une entreprise détenant les informations et ce sans résistance de l'entreprise qui détient l'information. On ignore quel sera notre État dans 10-30 ans voire plus. Sous Napoléon on a fiché les origines de la population, 1 siècle et demi plus tard on s'en sert pour emmener des juifs et autres dans des camps de la mort... L'Histoire se répète, et quand on perdra la notion de vie privée on ne la retrouvera pas. Pourtant la vie privée est essentielle pour une démocratie. Lisez 1984 de George Orwnell, c'est très intéressant.

Puis comme on dit souvent : MES données, MES logiciels sur MON disque dur. Je vois mal pourquoi ça irait ailleurs après tout. Vous mettez vos fiches de payes chez votre voisin ?

L'accessibilité et le propriétaire

Inutile de dire que l'objectif premier du Web à savoir être accessible à tous est mort depuis longtemps. Avec l'essor du Flash et prochainement de Silverlight pour ce beau web 2.0 va mener à la destruction de la notion d'accessibilité qui a pourtant fait le succès de ce réseaux. Imaginez ce qu'est le Web pour un aveugle. Faire ses courses sans se déplacer, avec une correspondance active et aisée, accès à une source d'information qu'il n'aura jamais accès dehors contrairement à nous, la possibilité de travailler de chez lui, etc. Le Web sont pour eux une révolution dans leur méthode de vie, de même que d'autres handicapés visuels ou moteurs et pourtant on détruit petit à petit leurs terrains de jeux avec des sites de moins en moins accessibles...

Non seulement ces solutions ne sont pas toujours accessibles mais ils dépendent souvent d'une technologie propriétaire. Flash ou Silverlight par exemple. Alors que le web est un ensemble de protocoles et de langages bien documentés et accessibles à tous, on le sait bien que de réaliser un plug-in Flash 100% fonctionnel à partir des données d'Adobe est impossible. *BSD et Solaris n'ont que les yeux pour pleurer, GNU/Linux aussi car notre plug-in n'est pas du même niveau que celui de Windows ou Mac OS X. Cette discrimination du logiciel n'est pas bénéfique au web et au logiciel libre. Le web s'enferme petit à petit alors que pourtant il existe des solutions qui arrivent progressivement comme l'Ogg Theora dans Opera et Firefox ou encore le SVG qui évolue doucement mais manque d'intégration... Je suppose que je prêche auprès de convaincus, nous sommes tous plus ou moins sensibilisés à l'idéologie du Libre. Au lieu de succomber à Flash et de décrier que nos versions libres sont pourris (ce qui est vrai), désinstaller-le et vous verrez non seulement les dégâts du propriétaire sur le web qu'ils ont causé mais aussi vous militerez pour un vrai Web ouvert et Libre !

Conclusion

Ce message présente un point de vue totalement subjectif, je me doute bien que certains vont décrier que je suis non seulement paranoïaque mais aussi que je dis n'importe quoi. Il y a peut être du vrai mais il est temps de réfléchir sur cette nouvelle mode des applications web car ce monde n'est pas tout rose et encore moins pour les logiciels libres !

De toute façon les suites Office sur le web n'ont aucune chance, LaTeX permet une collaboration facile et c'est plus puissant, que demander de plus ?

- page 1 de 2

Callback not found for widget JabberStatus

Callback not found for widget weather