Les tendances de l’emploi informatique en France en 2008-2010

Par       15 décembre 2011  - Catégorie(s): Emploi  Emploi

Pôle emploi, le plus grand employeur d'informaticiens ?De 2008 à 2010, le nombre de salariés dans le secteur informatique serait passé, selon la DARES, de 514000 à 534000 emplois. Dans notre secteur, le nombre de demandeurs d’emploi est aujourd’hui de 25000 personnes.


Tags: , , , , , , , ,

Rétrospective 2010 en informatique

Par       28 décembre 2010  - Catégorie(s): Rétrospective  Rétrospective

Pour ceux qui auraient été distraits par leurs "geekeries", iPhone ou iPad,  je tenais à vous offrir une séance de rattrapage. L'année 2010 - une année de consolidation  selon Forrester - aura été très riche.

Internet : moteurs, réseaux sociaux, cloud computing, ipv6 et les navigateurs

Cette année, deux moteurs de recherche sont morts et enterrés : Cuil a mis la clé sous la porte et Ask arrête son développement. L'année 2011 sera marquée par la fusion de Yahoo! et de Bing. Au final, il ne restera plus que trois technologies de moteurs : Google, Exalead racheté cette année par Dassault Systèmes et Yahoo! - Bing. En progression dans l'ensemble des pays du monde, Google devient le moteur de recherche dominant. De nombreuses voix se font entendre sur le fait que Google serait, sans doute, le nouveau diable du fait de sa situation dominante en matière de recherche Internet ! A lui seul, Google représente 6.4% du trafic mondial. [caption id="" align="aligncenter" width="525" caption="Google représenterait 6.4% du trafic mondial !"]Google représenterait 6.4% du trafic mondial ![/caption] L'année 2010 aura été dominée par deux phénomènes en terme d'usages : Avec plus de 500 millions d'utilisateurs, Facebook est devenu un véritable phénomène. Le Time ne s'y sera d'ailleurs pas trompé en élisant Mark Zuckerberg l'homme de l'année. Twitter, avec 200 millions d'utilisateurs, n'est pas en reste. Il est devenu le 2e moteur de recherche... derrière Google qui a d'ailleurs cherché à racheter Twitter pour 4 milliards de dollars. Après l'échouage en eaux profondes d'Orkut, Google devrait proposer, au cours de l'année 2011, un nouveau réseau social : Google Me. De son côté, Facebook devrait intégrer dans les prochaines semaines la messagerie à ses services avec Facebook Messages. La bataille fait rage entre les deux géants de l'informatique sur le terrain de la messagerie unifiée  ! Google est même suspecté de scanner le contenu des mails hébergés sur Gmail. Malgré son succès rencontré en matière de messagerie instantanée, Microsoft semble sur le reculoir. Le développement des réseaux sociaux a amené d'ailleurs Microsoft à les intégrer à la nouvelle version de son logiciel de messagerie, Outlook 2010. De son côté, MySpace a renoncé à ses ambitions généralistes pour devenir la plate-forme n°1 en matière de réseau social musical. Quant à Diaspora, on allait voir ce qu'on allait voir et on a toujours rien vu !!! En matière d'Internet, c'est aussi l'explosion du cloud computing. En réponse à Google Apps, Microsoft propose Office 365. Oracle n'est pas en reste. Après le rachat de Sun, l'éditeur propose la licence de Oracle OpenOffice Enterprise Edition en mode perpétuel à 71 euros la licence !!! En fait, l'élan des éditeurs vers le cloud computing est dû essentiellement à l'explosion des débits. L'IEEE vient de ratifier l'Ethernet 100 Gbits. L'ADSL avec SuperMIMO atteint désormais les 700 Mbits. L'augmentation des débits amène une véritable démocratisation des prix. OVH propose désormais le SDSL 5 Mbits à 25 euros HT par mois. L'augmentation des débits n'est pas sans poser de problèmes. Le durcissement des lois - avec la création en France de la Hadopi - n'aura pas mis un coup d'arrêt à la frénésie des Internautes à pirater. En 2010, le streaming vidéo et les plates-formes de téléchargement de fichiers auront pris le pas, en terme d'usage, sur le P2P ! Dès lors, pour faire face à l'explosion de ces nouveaux usages, les FAI apportent des réponses qui mettent à mal la neutralité du Net ! C'est ainsi que Free est  suspecté de procéder au bridage des lignes. L'opérateur reste d'ailleurs bien silencieux sur cette question. Alors que les usages Internet se multiplient, la pénurie d'adresses Ip devrait intervenir au 1er trimestre 2011 selon Hurricane Electric. En France, le seul opérateur à proposer l'Ipv6, c'est Free. Le fournisseur d'accès Internet propose à chaque particulier 264 adresses Ipv6. Dans les entreprises, rien n'est prêt en termes de compétences, d'applications et aussi de matériels. Pour les opérateurs de téléphonie, quelles seront les conséquences de la migration vers l'Ipv6 ? Le développement de l'Internet, l'alourdissement des pages amènent les éditeurs  à accélérer l'interprétation des pages et tout principalement du Javascript dans les navigateurs. De ce point de vue, Firefox se fait aujourd'hui dangereusement concurrencé par des navigateurs bien plus véloces que lui : Opera, Internet Explorer 9 ou encore Chrome/Chromium de l'américain Google. L'année 2011 devrait être marquer par l'arrivée du HTML5 et du CSS3. Dès aujourd'hui, se posent alors les éternels problèmes de la compatibilité ! L'intégration de fonctionnalités multimédia au HTML5 devrait reposer la question du choix des technologies de développement web. Après avoir annoncé la mort du Flash, Steve Jobs et Apple ont fait un virage à 180° quant à l'utilisation de la technologie d'Adobe sur les iPhone et les iPad. De son côté, Microsoft continue de pousser Silverlight alors que Flash semble avoir définitivement gagné la partie.

Infrastructure : GreenIT, virtualisation, supervision, sécurité et stockage

Le développement du Cloud Computing et l'augmentation des débits, des usages posent également la question de l'efficacité énergétique. Malgré la pénurie relative de transformateurs (notamment en région parisienne), l'année 2010 aura été marquée par la multiplication un peu partout en France des datacenters et des salles blanches. Sensibilisés par plusieurs pannes qui se sont produites au cours des années précédentes, les pouvoirs publics ont publié un décret le vendredi 2 avril 2010 au Journal Officiel qui oblige désormais à un audit du système de climatisation. Le souci de la "GreenIT" amène de plus en plus les constructeurs à communiquer aux limites d'un GreenWashing de mauvais goût. Et c'est ainsi que Hewlett Packard a proposé d'alimenter ses salles informatiques avec... de la bouse de vache !!! Afin d'augmenter l'efficacité énergétique de micro-ordinateurs qui peuvent prétendre à 64 cœurs par processeur, la virtualisation s'est consolidée dans les entreprises au cours de l'année 2010. Vmware, le leader des solutions de virtualisation, a fait évolué ESX Server vers Vsphere Esx. Rappelons que Vsphere Esxi reste totalement gratuit ! De son côté, Microsoft tente de combler son retard avec Hyper-V en proposant des licences Windows 2008 Server gratuites. S'il fallait un indicateur de l'explosion du nombre des serveurs, l'émergence de nouvelles solutions de supervision en ferait partie à coup sûr. Concurrencé par Zabbix, Nagios continue d'évoluer autour notamment de FAN et de EON. Il vient d'ailleurs d'être réécrit en Python. Le basculement vers une informatique des nuages avec un poste de travail en environnement ouvert posent aussi la question de la sécurité. Les failles n'ont jamais été aussi nombreuses. De 2005 à 2010, les avis et alertes du CERTA sont passées de 523 à 654, soit une hausse de 25%. Il faudrait évidemment relativiser ce chiffre en le rapportant au nombre d'applications utilisées qui n'a jamais cessé d'augmenter. De nombreux outils nous permettent de tester les vulnérabilités de nos réseaux. Citons pêle-mêle des LiveCD tels que BackTrack, NodeZero ou encore Fedora Security des pare-feux tels que NuFW et des solutions de sécurité telles que PacketFence qui inclut l'IDS Snort et le scanner de vulnérabilités Nessus. Dans ce domaine les solutions Open Source sont devenues la règle. Pour les entreprises qui continuent de gérer l'ensemble de leurs serveurs et notamment le stockage, l'année 2010 aura été celle de l'émergence de la déduplication de données et de l'iSCSI face à un Fiber Channel trop coûteux. A noter que la solution Open Source FreeNAS prend en charge le iSCSI !

Linux et l'Open Source, la station de travail

Malgré son développement dans le monde de serveurs, Linux ne parvient toujours pas à percer sur le poste de travail. Il représente 1.4% des accès Internet. Avec 2.4%, le Mac qui s'appuie désormais sur un noyau BSD ne semble toujours pas décoller . La Gendarmerie Nationale va déployer Ubuntu sur plus de 8500 machines. Ubuntu est en passe de devenir le standard Linux de la station de travail, là où Red Hat, Suse, OpenSuse et CentOS sont en train de marquer de leur empreinte indélébile l'environnement de serveurs d'entreprise. Red Hat vient d'ailleurs de passer en version 6 en cette fin d'année. Les Russes, de leur côté, s'apprêtent à développer un nouveau système d'exploitation basé Sur Linux. La Chine prépare son propre Windows. Comprenne qui pourra ! Le rachat de Sun par Oracle a marqué l'actualité de l'Open Source. De ce rachat, sont nés deux "forks" : MariaDB et LibreOffice. Zimbra a été racheté par Vmware. IBM poursuit le projet Symphony. Mandriva a failli sombrer. Le logiciel libre progresse en entreprise. Pour autant, Windows reste bien là. Malgré la sortie de Windows 7, les entreprises n'ont toujours pas réellement entrepris leur transhumance. Du coup, Microsoft a été amené à maintenir le support de Windows XP jusqu'en 2014. Aucune société n'est autorisée à commercialiser Windows XP sur de nouveaux ordinateurs. Windows 7 possède à l'évidence de grandes qualités. Mais il lui reste le défaut d'être un système d'exploitation excessivement gourmand et, de ce fait, peu adapté au parc existant. La crise économique de 2008 aura retardé les décisions d'investissement des entreprises dans bien des domaines. 2011 pourrait être l'année du début de la grande migration. En 2011, la station de travail à base de processeur x86_x64 pourrait connaître une évolution majeur avec la disparition du BIOS qu'on nous annonce depuis plusieurs années maintenant.

Développement : base de données, méthodes, langages

Si le rachat de MySQL par Sun avait fait des vagues, celui de MySQL par Oracle aura été un véritable Tsunami.  Et pourtant, Oracle continue de faire évoluer MySQL. Malgré des fonctionnalités remarquables en matière de réplication, MySQL manque de fonctionnalités essentielles : toujours pas de check constraint en vue sur les tables MyISAM et InnoDB !!! Dans ce domaine, l'année aura été marquée par les bases de données NoSQL : MongoDB, Cassandra qui a été choisi par Twitter et Digg. Contrairement aux bases de données relationnelles, le stockage dans les moteurs NoSQL est orienté "colonne". Ils permettent notamment d'utiliser des mécanismes de compression dans le cas où les données dans la colonne sont redondantes. Pour autant, le monde de la base de données relationnelles continue d'évoluer autour d'Oracle, d'Ingres, de 4D, de SQL Server, de PostgreSQL , de MariaDB ou de Firebird. A noter la naissance d'un petit dernier : Cubrid ! Les bases de données relationnelles ne sont pas prêtes de disparaître. Sans doute devront-elles faire évoluer leur moteur de stockage dans les années à venir pour s'adapter aux nouveaux usages  !!! Pour mettre en œuvre les applications qui manipulent et stockent les données dans les bases SQL ou NoSQL, les langages continuent de progresser et de se multiplier. Les EDI (Environnement de Développement Intégré) évoluent. Microsoft a sorti, cette année, Visual Studio 2010. MonoDevelop est désormais disponible sur Windows. L'offre Open Source n'est pas en reste. C#, Java, C, C++, Php, Python ou encore Vala - le dernier né de l'année 2010 - rivalisent de fonctionnalités pour la prise en charge d'une complexité non feinte demandée par l'utilisateur à l'insu de son plein gré ! La gabegie applicative coûte d'ailleurs 6% du budget informatique des entreprises. Selon Tiobe, les langages les plus utilisés seraient dans l'ordre :
  1. Java (18%)
  2. C (16%)
  3. C++ (9%)
  4. PHP (7.5%)
  5. C# (6.7%)
  6. Python (6.5%)

[caption id="" align="aligncenter" width="518" caption="Le classement des langages les plus utilisés selon TIOBE"]Le classement des langages les plus utilisés selon TIOBE[/caption] Le paradoxe de la complexité est qu'elle exige de plus en plus de simplicité quant aux méthodes à utiliser pour concevoir les applications. Avec eXtreme Programming, Scrum ou encore RACHE, Les méthodes agiles sont en train de s'imposer au cœur de  la gestion de projets informatiques. 70% des développements se terminent en retard ou ne se terminent pas du tout !!! Les méthodes agiles permettent d'établir un autre type de relation client-fournisseur plus équilibrée et  plus coopérative : le fournisseur peut être payé sur la base de recettages intermédiaires ; le client a la garantie, par les livraisons partielles, de la concordance de la production réalisée avec le cahier des charges de l'application. Le Php continue sa percée dans le domaine des CMS Open Source. Drupal a été choisi par la Maison Blanche. Microsoft a confié à WordPress la gestion des blogs de sa plate-forme Windows Live. Du fait qu'il est interprété et face à des exigences de performance de plus en plus grandes, Facebook a mis à disposition un environnement Php, HipHop,  permettant d'exécuter les scripts en mode compilé. L'objectif est de proposer une solution à la lenteur du Php. Rien en vue sur l'évolution à venir de Php : Php 6 est au point mort ! Côté Java, la déchirure est consommée entre Oracle et Apache. La fondation Apache vient de démissionner du Java Community Process. Dans le même temps, Apple, IBM et Oracle viennent de s'allier dans OpenJDK. Pour contrer ses adversaires, Oracle, en gage de son souci de développement et d'ouverture autour de Java, vient de proposer un accès gratuit à JavaOne pour les étudiants.

Tendances et emploi

L'année 2010 aura été marquée par le développement d'un fonctionnement informatique multimodal dans les entreprises : client léger, client lourd, serveurs hébergés, cloud computing, applications SaaS, externalisation de la messagerie et parfois du stockage. 2011 devrait produire une rupture plus franche encore avec l'arrivée d'IpV6 et l'augmentation attendue des débits, permettant le renforcement de l'Internet dans l'informatique des entreprises. Malgré les effets d'annonce et le grand emprunt, la France reste à la traîne en matière de haut-débit. Par rapport à des pays tels que la Corée et le Japon qui ont fait le choix de la fibre, notre pays subit un véritable désavantage (ou désastre ?) compétitif ! En France, en 2009, le secteur informatique a détruit entre 7000 et 10000 emplois. Avec 35000 créations d'emplois prévues entre 2010 et 2015, le secteur de l'IT en France est très loin derrière le secteur de la construction avec 149000 créations d'emplois. Pour autant, les Français consacrent, en moyenne, un mois de salaire par an pour leurs achats multimédias et autres geekeries. Nous ne produisons plus rien ou presque : nous consommons ce que nous importons  ! Fleuron de notre économie, l'industrie du logiciel est aujourd'hui sur le déclin vis à vis de nos voisins européens. La France est aujourd'hui 3e en Europe avec 3.07 milliards d'euros générés là où nos voisins britanniques et allemands font respectivement 6 et 13.839 milliards d'euros. "L'optimisme est une fausse espérance à l'usage des lâches et des imbéciles" – Georges Bernanos [caption id="" align="aligncenter" width="504" caption="La France, 3e pays européen en matière d'industrie du logiciel !"]La France, 3e pays européen en matière d'industrie du logiciel ![/caption] Sources : le blog de l'école informatique Exia.Cesi, le Twitter de l'école informatique Exia.cesi Crédit photos : Le Monde Informatique, Arbor Networks, TIOBE

 Dsfc


Tags: , ,

Les nouveaux métiers de l’Internet

Par       16 juillet 2010  - Catégorie(s): Internet  Internet

Le secrétariat d'état chargé de la prospective et du développement de l'économie numérique rattaché au 1er ministre a mis en place en juillet 2009 un site consacré aux métiers de l'Internet. En dehors des métiers traditionnels de l'informatique (gestion de projet, développement, ergonomie des Interfaces Homme-Machine), la présence des entreprises sur Internet requiert des compétences dans différents domaines :

La production de contenus

L'indexation par les moteurs de recherche se fait avant tout par les mots. La présence d'une entreprise requiert tout d'abord de fortes capacités dans le domaine rédactionnel, une parfaite maîtrise d'une ou plusieurs langues tant sur la plan de l'orthographe que de la grammaire ou encore de l'expression. Les textes doivent être concis, fluides et clairs permettant de dégager rapidement l'axe fort du message véhiculé. La production de contenus, c'est aussi la mise en ligne d'animations, de vidéos et de documents qui répondent à des logiques de présentation très différentes. Là où l'animation fait appel à de fortes compétences en matière de web-design, la présentation relève davantage des métiers de la PAO et du pré-presse. Quant aux vidéos, elle exige des savoir-faire en matière de scénario, de cadrage, d'éclairage et de montage. Les moyens numériques ne nous affranchissent pas encore des contraintes liées au traitement de l'image.

La veille

Les métiers de la veille s'appuient tout d'abord sur des compétences fortes en matière d'utilisation des moteurs de recherche, d'outils d'agrégation et de gestion documentaire. Mais pas seulement ! Dans les hôpitaux, par exemple, les veilleurs sont aussi des personnels médicaux ! Le veilleur doit posséder une double compétence technique et professionnelle.

L'animation de sites, blogs et réseaux sociaux

Ils sont désignés par le terme anglo-saxon de "community managers". Leur rôle ? Pousser du contenu, veiller, commenter et, à l'occasion, produire du contenu. Ils doivent disposer de compétences solides en matière de production de contenus et de veille. Une bonne connaissance de l'organisation dans laquelle il travaille est également nécessaire.

Le référencement

La multiplication de contenus dans les index des moteurs amène les entreprises à investir de plus en plus lourdement dans ces compétences. Aujourd'hui, cette activité est encore très largement externalisée. L'objectif est d'assurer le plus de visibilité à une entreprise sur son cœur de métier au niveau des moteurs. Elle se construit sur deux types d'action. En premier lieu, il y a le référencement naturel qui s'appuie sur l'indexation, l'affiliation et l'inscription des sites dans des annuaires et des moteurs. Comme le primo-référencement d'un contenu marque de son empreinte l'entreprise dans les index des moteurs, le référenceur devrait pouvoir le contrôler avant qu'il soit publié. C'est très rarement le cas ! En second lieu, il y a les campagnes de buzz ou de marketing viral qui relèvent du référencement événementiel. Il s'appuie sur des contenus multimédias à pousser dans les réseaux sociaux, dans les blogs, dans les forums notamment. L'impact de ce type de référencement est extrêmement court et influence peu le référencement naturel qui s'inscrit quant à lui dans une logique de long terme. Par une présence solide dans les index des moteurs et, au besoin, en saturant les index d'informations relatives à l'entreprise, vous pourrez, en vous appuyant sur les techniques de SEO faire face aux problèmes de e-réputation !

 Dsfc


Tags: , , , , , , , , , , , ,

Google : dis-moi tes investissements et je te dirai où tu vas !

Par       8 octobre 2009  - Catégorie(s): Perspective  Perspective

Un site vient de mettre en ligne tous les investissements effectués par Google.

Les investissements réalisés par Google

Les 3 premiers investissements réalisés par l'éditeur du moteur le plus utilisé au monde sont : A noter l'investissement dans Baidu, le moteur chinois, pour 10 petits millions de dollars. Même si la liste des acquisitions semble quantitativement importante, elle ne l'est pas quant à leurs montants : Google a toujours cherché à privilégier la croissance interne.

 Dsfc


Tags: , , , , ,

Informatique : la fin du mythe prométhéen

Par       28 août 2009  - Catégorie(s): Perspective  Perspective

La logique du toujours plus qui a envahi tous les étages de notre société a très largement contaminé le monde informatique, le logiciel et les systèmes d’exploitation en particulier.


Tags: , , , , , ,

Quel impact du rachat de Sun par IBM ?

Par       27 mars 2009  - Catégorie(s): Perspective  Perspective

Sun MicroSystems

Avec Java, NetBeans, GlassFish, MySql, Solaris et VirtualBox, Sun est un des acteurs majeurs de la high tech mondiale. Il faudrait aussi évoquer l’offre en matière de serveurs PowerPc, Sparc, de stockage et de cloud computing.


Tags: , , , , , , ,

Patchs de sécurité : nous touchons à nos limites !

Par       16 février 2009  - Catégorie(s): Sécurité  Sécurité

La faille MS 08-067 a amené de nombreuses organisations à subir une attaque virale de grande ampleur. En cause... la "lenteur" à appliquer les patchs de sécurité selon Laurence Ifrah, consultante en criminalité numérique auprès de la DRMCC. Pas si simple !

Les patchs et leurs conséquences inattendues

Les patchs sont à l'informatique ce que le vaccin peut être, de temps à autre, à la médecine. La complexité de l'environnement du patient peut engendrer des réactions imprévisibles. Régulièrement, l'installation de ces patchs - je pense aux patchs Microsoft - engendre des dysfonctionnements au niveau des logiciels qu'ils sont censés "réparer", mais aussi et surtout, du fait de la complexité des environnements utilisateurs, au niveau des logiciels périphériques. L'autre effet collatéral est l'encombrement significatif des réseaux des organisations lorsque de grosses mises à jour interviennent. La sécurité a le coût de la lenteur. Dans les environnements de stations de travail Windows, pour pallier cet inconvénient notoire, la solution passe par la mise en œuvre d'un serveur Windows Server Update Services. La complexité de la solution exige de disposer d'informaticiens chevronnés.

Patcher or not patcher : that is the question ?

Pour les serveurs, les entreprises ne peuvent pas prendre le risque d'un arrêt prolongé au niveau de leur infrastructure ou d'un simple reboot pour que les patchs soient activés. Un patch qui bloquerait l'ensemble des stations de travail aurait des conséquences tout aussi désastreuses, bien évidemment. Que ce soit pour les serveurs ou les stations de travail, il faut pouvoir disposer de machines de test ou de pré-prod pour pouvoir valider l'application du patch en environnement de production. La virtualisation, de ce point de vue, a amené beaucoup de souplesse pour réaliser ce genre de tests.

Nous touchons nos limites

Avec les outils de fuzzing, les concepteurs de virus disposent de bases de connaissances en terme de vulnérabilités dont on peut dire qu'elles sont aujourd'hui sans limite. Autrement dit, face à la multiplication des failles et à la vitesse de diffusion des infections virales, nous ne pouvons opposer qu'une réaction contrôlée et maîtrisée qui demande du temps que nous n'avons plus. Il nous faut de toute urgence penser la vitesse et notamment exiger des éditeurs de logiciels que le risque associé à la qualité de leur code soit géré en amont.

 Dsfc


Tags: , ,

Symbole : Microsoft et Intel licencient !

Par       8 février 2009  - Catégorie(s): Licenciements  Licenciements

Microsoft et Intel incarnent mieux que quiconque l’énergie créatrice de l’ère Reagan où l’ancien acteur devenu Président martelait que l’Amérique était de retour. L’économiste Kondratieff a fondé sa théorie des cycles sur l’émergence des technologies. Nul doute que la micro-informatique, avec Intel et Microsoft, est à l’origine d’une des plus grandes révolutions technologiques de l’histoire de l’humanité et aussi, peut-être, à l’origine d’un futur accident global cher à Paul Virilio.


Tags: , , ,

Economiser l’énergie en informatique… aussi !

Par       8 février 2009  - Catégorie(s): Energie  Energie

Le choix des entreprises vers une informatique moins énergivore ne relève pas du hasard pur. Malgré une relative stabilité du prix du KwH français par rapport aux autres pays européens, l’augmentation du nombre des périphériques actifs (stations de travail, serveurs, électronique active, téléphonie ip, smartphones, ordinateurs portables, imprimantes réseaux, copieurs, …) engendre une hausse en volume du courant consommé par le système informatique.


Tags: ,

Bilan 2008 et prospectives 2009 en informatique

Par       8 février 2009  - Catégorie(s): Perspective  Perspective

L'année 2008 a été riche en événements dans le monde de l'informatique.

Google

La cannibalisation du web par Google se poursuit. Mais le modèle économique du géant du Web s'essouffle dangereusement : Mais le géant de l'Internet a des atouts non négligeables et notamment celui de savoir exploiter au mieux le mode collaboratif de l'Open Source. Attendons-nous à voir arriver en cette année 2009 la nouvelle suite Google Apps en mode box ! Mieux que quiconque, Google a compris le subtil équilibre à maintenir entre client léger, client lourd et client riche.

Histoire d'Os

Après l'échec cuisant de Windows Vista, Microsoft semble vouloir précipiter la sortie de Windows 7. Windows 2008 Server peine à entrer dans les entreprises. Le choix du tout 64 bits au niveau de ses plates-formes serveur est-il en mesure de donner un nouveau coup d'élan à la firme de Redmond ? C'est, sans doute, sur l'offre en matière de virtualisation que Microsoft n'a toujours pas réussi à percer. Ses concurrents - Sun, Vmware, Red Hat - semblent très largement exploiter la faiblesse du géant de l'édition de logiciels et de systèmes d'exploitation. Or, à la cadence à laquelle les entreprises virtualisent leurs infrastructures, Microsoft ne peut plus se permettre de jouer les seconds rôles. Comment l'éditeur va construire sa réponse en 2009 ? En 2008, Hewlett Packard a exprimé son intention de sortir un système d'exploitation basé sur Linux. Pour Google, avec gOS, c'est déjà fait. Intel ne devrait pas tarder à suivre. Dell en fera-t-il de même ? 2009 devrait, dans le contexte de crise économique mondiale majeure, consacrer Linux et l'Open Source.

My client is rich. My computer becomes poor.

Avec JavaFx, Silverlight, Adobe Air et Flex, le logiciel change de container pour s'enkyster au sein des navigateurs. Firefox avec XUL avait ouvert une brèche. L'augmentation de la part de marché du navigateur Open Source n'est pas sans poser de lourdes interrogations quant à l'évolution du développement logiciel. Quelles sont les technologies gagnantes en 2009 qui se chargeront de la prise en charge des interfaces homme-machine ? Personne ne croit plus au produit universel.

Le PC, le Mac...

Apple connaît un regain de notoriété auprès des jeunes notamment qui en ont assez, disent-ils, des plantages de leurs systèmes Windows et des infections virales. Il reste que, malgré l'envol des ventes d'Apple, le PC, par son attractivité au niveau prix, a ses aficionados. La convergence informatique-téléphonie mobile s'accélère. Avec Google Androïd et l'iPhone, les éditeurs de logiciels deviennent fabricants et les fabricants deviennent éditeurs. Le comportement des geeks, ces hyper-consommateurs de technos, se heurte toutefois à quelques principes de réalité et notamment au fait que nous sommes dans un monde "fini". Les ressources nécessaires à la fabrication de ces "gadgets" devenus indispensables sont de plus en plus coûteuses du fait de leur rareté. La cadence de renouvellement de ses vraies-fausses innovations est-elle compatible avec le contexte du XXIième siècle ?

 Dsfc


Tags: , , ,