Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Humeur !

Nucleardelinquent teen 150x200BioHockey%20Stick%20Jacket3 HandsOff-copie-1 

Recherche

Articles Récents

Autres Liens

16 juillet 2007 1 16 /07 /juillet /2007 09:25

Oui, c'est bien sympathique, mais...

Tout d'abord (et ça c'est bien connu), ils sont généralement aussi conviviaux que la statue du Commandeur ; conçus le plus souvent par des informaticiens pour des informaticiens, ils se distinguent par une interface graphique d'une très grande austérité - janséniste ou carrément franciscaine. Ne parlons pas des messages d'erreur, Microsoft et d'autres n'ayant à ce point de vue pas grand'chose à leur apporter !
Comme ils se sont pensés en-dehors du système, ils ont adopté des standards certes non-propriétaires, mais parfois obscurs, et l'interopérabilité ne semble pas leur fort. On a parfois l'impression que leur étendard portait "Kill Bill !" pour tout slogan, ce qui est parfois un peu mince.

Pour ce qui est de la maintenance, là, vraiment, bonne chance. L'open source est une excellente idée sur le papier, et même parfois dans la vie courante, disons à l'université ou dans les labos de recherche. Pour ce qui est des administrations publiques, wait and see, mais je ne me plains pas, il faudra engager des informaticiens nombreux et pointus, ou alors recourir à nouveau à l'outsourcing dont on revient pourtant depuis maintenant pas mal d'années.

Et puis... corollaire du point précédent : une nouvelle profession a pris naissance, celle des débogueurs de logiciels libres ; ils recherchent les erreurs qui se nichent dans les recoins, mais, au lieu de publier le patch urbi et orbi, ils se font payer, excipant du fait que leurs recherches méritent salaire. Et, bien sûr, ils se font payer par les gros comptes ; on parle de patches valant entre 10.000 et 25.000 US$ pour des bugs critiques.  Ce qui revient à fossoyer toute l'idée des LL&OS.

Attention bien sûr à ne pas jeter le bébé etc., c'est ce mouvement et ses RFC qui a créé le Net, c'est lui aussi qui a forcé (paradoxalement) les majors à adopter de plus en plus de standards internationaux. Mais je tenais à signaler certaines réserves à certains idéologues enthousiastes ; en tant que responsable informatique, je me moque bien de savoir que j'enrichis Bill si mes PC tournent. Et les plus jeunes d'entre nous s'imaginent que c'est ledit Bill qui a inventé le PC...

Partager cet article

Repost 0
Published by cdc - dans amusé
commenter cet article

commentaires

bob 21/06/2012 22:49


Je suis (encore) de votre avis. Le 2.0 et le Cloud ne sont pas nouveau. Comme vous j'ai vu le patron d'Oracle en parler dans un documentaire de 1994. Il disait à quel point aller acheter des
cd-roms en magasin dans une boîte en carton était rétrograde par rapport aux facilités qu'apportait le net. Il avait raison, Linux propose des excellents dépôts logiciels depuis des décennies,
Apple le fait depuis quelques années. D'ailleurs à quoi bon acheter un support physique puisque les portables n'ont plus de lecteur DVD. Concernant le Cloud et les logiciels en ligne (type
traitement de texte, agenda...), je pense que ça pourrait faciliter la maintenance informatique tout améliorant la sécurité. Un tel système sur mini pc type ARM (http://www.raspberrypi.org/)
pourrait être très économique pour une PME. 

cdc 22/06/2012 17:06



"Faciliter la maintenance informatique" - sans doute, mais en la délégant. "Améliorer la sécurité", là je suis beaucoup plus sceptique. Si j'ai mes données critiques sur mon PC (avec un bon plan
de backups, ça va sans dire), je sais où elles résident et qui y a accès ; dans les nuages... c'est moins sûr !



bob 19/06/2012 02:53


Je vais réagir un peu tard à votre billet. Je fus passionné par l'univers du LL et de Linux dès mon adolescence. Les libertés décrites dans la licence GNU me faisaient rêver, tout comme la
modularité de Linux. Plus de 12 ans  après (dont 5 ans passés exclusivement sur Linux) j'en tire les mêmes conclusions que vous. Le libre a les défauts de ses qualités. Les développeurs sont
des passionnés, mais ne sont pas forcément plus efficaces qu'un département d'ingénieurs logiciels. La multiplicité des environnements et des lib associées rendent l'ensemble peu cohérent et
surtout difficile à maintenir sur le long terme. Le simple utilisateur devient tributaire du travail des bénévoles. Hormis les projets phares (Libre Office, Firefox, le noyau Linux, VLC...) ça a
tendance à finir dans les méandres des dépôts de logiciels (ce billet l'illustre bien: http://www.cyrille-borne.com/index.php?post/2012/06/18/Jeunes-%C3%A0-la-retraite). Par ailleurs l'offre
logicielle est fortement concurrencée par le web 2.0 qui met à disposition par exemple un WordPresse gratuit et un Gmail qui fera bientôt le café. Dès lors il devient difficile de faire valoir
les avantages de Linux face à m'importe quel Minitel moderne (à voir, la conférence de  B. Bayart sur le sujet http://www.youtube.com/watch?v=AoRGoQ76PK8 , je devrai en faire un billet).
Pire la multiplicité du hardware (typiquement les chipsets WiFi et les cartes 3d) rend le travail des créateurs de pilotes libres infernal. Malgré leurs efforts en rétro-ingénierie, ils arrivent
péniblement à faire marcher la 3d sur les cartes Nvidia. On voit donc les vrais barbus se replier vers des solutions qu'eux seuls peuvent maîtriser: Emacs, LaTeX, Procmail et autres tilling
manager... Bref, rien ne change. Concernant l'interopérabilité c'est la cata, car l'informatique grand public est minée par les formats propriétaires. Qui de nos jours peut se passer d'un Skype
ou un MS Office pour travailler? Quel développeur me fera un Antidote en open-source pour corriger mes fautes: aucun. Bref, tout ça pour dire que le libre et son aspect communautaire peut être
très résiliant (Debian par exemple) et efficace mais il devra souvent être transformé par des entreprises pour devenir réellement grand public. Facebook en est un bel exemple, une IPO de presque
100 G$ pour un service construit sur de l'open-source (https://developers.facebook.com/opensource/).

cdc 19/06/2012 18:36



Merci pour les liens, très intéressants. A vrai dire, je n'ai plus trop l'âge de la "passion informatique" et je me contente sagement d'utiliser les produits mainstream... J'ai un peu travaillé
en LISP 1.5 dans ma jeunesse, c'était amusant, j'ai aussi travaillé dans une équipe développant un compilateur Algol 68 - un langage mort-né, mais quelle joie !


Nostalgie, nostalgie...


Cela dit, la conférence passionnante de Bayart (qui me rappelle de beaux moments de ma jeunesse - non, de ma maturité...) met en lumière l'évolution du Net (Internet, aka Arpanet, aka
Darpanet, qui était une mise en réseau indestructible de réseaux universitaires par suite à une guerre nucléaire) reliant des sites universitaires ou autres, largement centralisés (en étoile)
vers le www (dont on ne connaît en général que Tim Berners Lee, alors que mon cher compatriote Robert Caillau est au moins aussi impliqué que lui.


Le début du Net était sans doute une évolution très intéressante, mais les capacités des PC connectés au début de l'http étaient telles qu'il fallait des serveurs. Ce qui a évolué. D'où
JavaScript, puis retour avec php ou .net. Je ne veux pas faire l'historique ici, mais il est évident qu'on balance entre la puissance des serveurs et celle des PC (j'inclus les Mac's,
évidemment). Le Cloud et le 2.0 n'ont rien de neuf, c'était déjà inscrit chez Oracle il y a pas loin d'une dizaine d'années. Pour autant... Time will tell, mais même si Google fait du café (et
Gaston la gaffe en moulait et pressait des oranges), je suis un peu sceptique.


Mais je me suis tellement trompé dans ma vie que je suis sûr d'avoir raison cette fois-ci !