Zoom Technique

Native Client : Google veut s’affranchir du système d’exploitation ?

Par       14 décembre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

Google Native Client : des applications natives dans votre navigateur web !Présenté à tort comme un autre Flash, Silverlight ou autre JavaFX, Native Client - un projet signé Google - est bien plus que cela.

Les limites du Javascript

Malgré les améliorations des moteurs Javascript rattachés aux navigateurs, ceux-ci n'exploitent que très partiellement la puissance des processeurs. Or, pour pouvoir pousser sa solution professionnelle d'une bureautique en mode 3/3, Google ne peut pas se satisfaire de la lenteur relative des navigateurs. L'adjonction d'un plugin à Firefox permettant le mode offline ne résout pas la difficulté.

My Web is rich. My Browser is poor.

Les clients riches tels que Flash peuvent, en partie  seulement, pallier ce déficit de puissance sans recourir à des lignes de code supplémentaires. Par ailleurs, sous l'effet de l'augmentation des débits, les pages chargent de plus en plus d'éléments visuels. Le temps de traitement en est alors considérablement alourdi, nous faisant parfois regretter le temps des modems RTC à 56 Kbits. Avec Native Client, l'objectif de Google est bel et bien de permettre l'exécution de code natif écrit en C/C++ à l'intérieur du navigateur. A mi-chemin entre compilation, framework et virtualisation d'applications, l'exécution du code s'affranchit de la plate-forme matérielle ainsi que du système d'exploitation au travers du plugin Native Client. Il est parfaitement envisageable que, dans un 2ième temps, la compilation du code source se fasse à la volée, même si l'opération risque, selon l'amplitude du projet, de prendre un temps considérable. Le choix du fonctionnement en mode plugin - très proche d'un ActiveX - permet toutefois le téléchargement du code compilé. C'est évidemment cette solution qui devrait être retenue.

Et la sécurité !

Le reproche qui est fait à la technologie ActiveX de Microsoft est d'être un vecteur de propagation des malware du fait qu'elle n'est pas isolée du système d'exploitation. Sous Internet Explorer, en mode administrateur, la protection par antivirus est bien souvent illusoire. Avec Native Client, nous sommes en train d'assister à un véritable renversement de l'histoire. Passé en mode Open Source, l'éditeur compte sur la communauté des développeurs pour résoudre ces menus problèmes.

Le syndrome du Titanic ?

Il faut que Google soit aujourd'hui bien sûr de lui-même pour tenter de défier les règles en matière de sécurité. Avec plus de 90% de parts de marché en terme de recherche sur Internet, Google cherche à pousser son avantage loin, très loin, trop loin peut-être. Pour l'heure, Native Client est incompatible avec Internet Explorer. Tout un symbole à l'image de ce projet pharaonique ! Crédit photo : Silicon.fr
Sources

 Dsfc


Tags: , , , ,

Microsoft Store : la mort des revendeurs ?

Par       7 décembre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

Le contexte de crise économique mondiale peut-il avoir provoqué l'accélération de l'ouverture des boutiques virtuelles des éditeurs de logiciel  ? En l'espace d'un peu plus d'un mois, Microsoft vient d'ouvrir ces magasins virtuels, Microsoft Store, dans les plus grands pays du monde. Il s'agit d'un tournant à plus d'un titre. Depuis sa création, la firme de Redmond s'est toujours appuyée sur un réseau de partenaires qui ont fait toute sa "réputation". L'éditeur est un des premiers à avoir donné un corpus à la stratégie du gagnant-gagnant... sur le plan commercial.

Quelle politique de prix ?

L'image de la marque est suffisamment enracinée aujourd'hui pour que Microsoft ait décidé de prendre le risque de court-circuiter son réseau de revendeurs. Dans un contexte tendu en terme de demande, la captation de la marge par des réseaux d'intermédiaires contribue à freiner la baisse des prix. Le choix de l'éditeur est sans appel. Là où il propose Windows Vista Edition Familiale Basique à 185 euros, Ldlc - l'une des plates-formes de eCommerce les plus compétitives - propose le produit à 199 euros, soit 7% de moins tout de même ! La version OEM proposée sur Ldlc à 110 euros reste attractive. Ce type de licence pose toutefois le problème d'être attaché à un matériel : ordinateur ou disque dur. La croissance du commerce électronique dans une période de crise économique avérée fait des envieux. Les éditeurs prennent toutefois un risque de pousser les revendeurs vers d'autres solutions. Mac n'a pas fait le même choix que Microsoft puisque les prix constatés sur AppleStore sont exactement identiques à ceux de la Fnac sur les mêmes types de produits.

Une opportunité pour les concurrents !

A force de cannibaliser les marchés, le risque n'est-il pas  pour les éditeurs que leurs partenaires traditionnels ne fassent à terme le choix de l'open source ?  Mandriva, Suse, Ubuntu, Red Hat notamment ont, en s'appuyant sur un réseau de partenaires commerciaux, une belle carte à jouer. Sauront-ils en profiter compte tenu aujourd'hui de la maturité des systèmes Linux ? Source : 01Net

 Dsfc


Tags: , ,

Vers de nouvelles architectures informatiques ?

Par       1 décembre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

L'émergence des serveurs d'application, de la virtualisation, des technologies Web, l'échouage commercial de Windows Vista semblent considérablement changer la donne dans le périmètre de l'informatique d'entreprise.

Un TCO maîtrisé

Perçue comme un centre de coût, l'informatique a vu, dans la période récente, ses coûts exploser sous la conjonction de l'augmentation des prix des logiciels et des comportements de l'utilisateur confondant parfois informatique personnelle et professionnelle. Avec les technologies de déploiement PXE (RIS devenu WDS chez Microsoft), avec la diffusion de paquets, avec les technologies de clonage, le Total Cost of Owning a été contenu dans la période récente. L'avènement des clients légers tels que ceux proposés par la société Axel ou encore Hewlett Packard permet désormais de centraliser le déploiement sur les serveurs d'application. La main d'oeuvre utilisée dans les services informatique se déplace de la station de travail vers les serveurs exigeant des personnels mieux formés. Face à une réduction de la charge liée à la maintenance, certains informaticiens ont été priés de rejoindre le fonctionnel ou d'animer le help desk lié aux applications métiers. Quant à la problématique de l'augmentation des coûts liés aux logiciels (qui dépassent très largement le montant lié à l'acquisition du matériel), le logiciel libre de plus en plus utilisé dans les entreprises permet très largement de la contenir. L'inflation fonctionnelle proposée par les éditeurs ne correspond pas toujours à la demande de simplicité et de modularité souhaitée par les utilisateurs. Elle s'accompagne en revanche d'une hausse considérable du prix des logiciels.

L'exigence sécuritaire

En parallèle, de nouvelles préoccupations ont émergé du fait de postes de travail de plus en plus perméables aux failles de sécurité à la fois liées au comportement de l'utilisateur et aussi à l'inflation logicielle qui rend les machines plus vulnérables au chevauchement incontrôlé des applications utilisées. Dans les grandes entreprises où les serveurs sont regroupés dans des salles blanches, les accès se font désormais par VPN après avoir validé les contrôles d'identification à plusieurs niveaux. Pour l'utilisateur, c'est extrêmement fastidieux. Pour l'entreprise, l'adjonction de points de contrôle ralentit l'assaillant potentiel. Les dispositifs techniques, aussi efficaces soient-ils, ont aussi cette vertu de contribuer à rassurer ! La centralisation n'a toutefois pas que des avantages. Elle fragilise les organisations en les exposant à des pannes d'électricité, de télécommunications ou de matériels réseau. Gageons que la théorie du chaos si chère à Paul Virilio ne s'applique pas un jour au domaine de l'informatique d'entreprise. Au bout de 4 heures, une panne générale du système d'informations peut être considérée désormais comme critique.

Les enseignements de la période récente en terme d'architecture

Le développement des serveurs d'application semble avoir remis les applications 2/3 au goût du jour.  Compte tenu du parc installé, cela ne doit en effet rien au hasard pur. La difficulté réelle à industrialiser les processus en développement Web n'y est pas non plus étrangère. Seul le recours à l'offshore, sans se poser toutefois la question de la rationalisation des processus de fabrication des logiciels, permet au développement Web de progresser. Lorsque les pays émergents auront rattrapé leur retard social, nous serons alors confrontés à des choix stratégiques et économiques d'un genre nouveau.

 Dsfc


Tags: , , , , , ,

Isoler les applications avec Thinstall

Par       24 novembre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

La société Vmware, leader en virtualisation, avait racheté la technologie Thinstall au mois de janvier. La guerre que se livrent les éditeurs dans le domaine de la virtualisation n'emprunte rien au hasard.

Dll Hell : l'enfer des Dll

Apparu en 2002, l'une des raisons de l'émergence du Framework .Net était la difficulté à faire cohabiter plusieurs versions de Dll (Dynamic Link Library) utilisées par les logiciels présents sur un ordinateur disposant d'un système Windows. Pour faire face au Dll Hell, l'éditeur - en l'occurrence Microsoft - avait d'ailleurs proposé l'adjonction d'un outil de vérification de fichiers système, SFC. A signaler par ailleurs que l'utilisation de la clé de registre AlwaysUnloadDll contribue à stabiliser considérablement Windows en évitant les chevauchements de versions de Dll aux effets plus que désastreux ! Malgré toutes ces "bidouilles", du fait de la multiplication des applications sur le poste client, malgré la bonne volonté évidente de l'éditeur, les systèmes d'exploitation Windows continuent de "planter" régulièrement. On ne peut d'ailleurs pas dire que Microsoft en soit véritablement responsable.

Gestion de paquets

Les GPO (Group Policy Objects) attachés à Active Directory furent une innovation majeure en terme de déploiement des applications. Dès Windows 2000 Server, nous pouvions "packager" les applications du poste client afin de les diffuser automatiquement sur un ensemble de machines.  Des éditeurs tels que Insight avec Wininstall et Avocent avec Landesk continuent de proposer d'excellents produits pour pouvoir créer ces paquets. La version gratuite de Wininstall est présente sur le CD de Windows 2000 Server.

Thinstall : isolation des applications

La technologie Thinstall proposée par Vmware propose de créer des paquets qui embarquent l'ensemble des Dll nécessaires à leur exécution. Ainsi, lors de l'exécution du programme principal incorporé au paquet, les Dll sont attachées à l'environnement d'exécution de l'application. Le logiciel est, en quelque sorte, virtualisé. Aucun danger de contamination, en principe, des autres applications ! Les concurrents du leader de la virtualisation se sont aussi engagés dans la brêche : Citrix propose XenApp alors que Microsoft vient de commercialiser MDOP (Microsoft Desktop Optimization Pack). Le fait que les éditeurs leaders dans le marché des serveurs d'application et de la virtualisation se jettent sur cette "nouvelle" problématique tient à la multiplication des applications sur les serveurs d'applications qu'ils soient virtualisés ou non. Petit regret : les paquets créés par Thinstall ne permettent toujours pas que les applications se lancent correctement en mode Wine, émulateur Windows sous Linux. L'isolation ne semble pas se faire aussi totalement que nous aurions pu le croire.

 Dsfc


Tags: ,

Cloud computing et principe de réalité

Par       17 novembre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

Le Cloud Computing en images Tout le monde en parle sans toujours savoir la réalité qu'il recouvre. Le cloud computing serait le passage de l'informatique vers Internet. L'entreprise, dans ce cadre, n'aurait besoin ni de salles blanches, ni de serveurs, ni d'informaticiens. Toutes les applications seraient alors louées, s'exécutant au travers des navigateurs ou de serveurs d'applications.

L'offre et la demande

Avec ses  2 millions de serveurs, Google est, sans conteste, l'un des tout premiers acteurs du concept. Google Apps vous permet de créer vos documents sans disposer de logiciels installés sur votre propre machine. Face à la cannibalisation du Web par l'éditeur du célèbre moteur de recherche, Microsoft, avec Office Live, se devait de réagir afin de préserver son leadership dans le domaine des suites bureautique. Dans ce domaine comme dans bien d'autres, le concurrent direct de Microsoft s'appelle bel et bien Google. A signaler que la démarche de Gaël Duval, avec Ulteo, s'inscrit dans la même démarche : il propose OpenOffice accessible en mode Web. Pour autant, nous ne disposons d'aucune donnée pour connaître la réalité de l'engouement des entreprises pour ces applications d'un nouveau genre. Pour l'heure, il semblerait que les éditeurs pensent surtout à leur avenir.

Des applications louées

C'est surtout dans le domaine des applications métiers et des petites entreprises que l'évolution est toutefois la plus spectaculaire. Les éditeurs de logiciels de comptabilité proposent, avec un réel succès, leurs applications accessibles par Internet en mode RDP (Remote Desktop Protocol). L'utilisateur se connecte à des serveurs d'applications hébergés par l'éditeur en mode accès distant. Il peut imprimer localement les documents issus de l'utilisation du logiciel.

Frilosité ?

Le problème que pose ce modèle d'informatique loué et déporté est de deux ordres. Il pose clairement le problème de la sécurité de l'accès aux données. En cas de faille de sécurité, de malveillance sur les ordinateurs distants, c'est toute l'intelligence d'une entreprise qui s'en va en fumée : fichiers clients, fournisseurs, salariés, documents stratégiques, etc. En interne, l'entreprise est d'ailleurs exposée au même risque. On peut d'ailleurs supposer qu'une petite structure est moins armée face aux menaces qu'un éditeur d'applications en mode cloud computing ou en mode SAS (Software As Service). Très économe sur le plan du TCO (Total Cost of Owning), la location de serveurs et d'applications pose aussi le problème de la tolérance de pannes. Que ce soit du côté client ou fournisseur, qui peut garantir qu'un coup de pelle mécanique n'en vienne à sectionner la fibre optique de l'accès haut débit ? Se prémunir de ce type de risque est excessivement coûteux. Faut-il l'accepter pour autant ? Au delà de 4 heures d'interruption de services, le coût d'une panne informatique revient à mettre au chômage technique les salariés d'une entreprise.

Lourdeur des applications

Au travers de la sortie de Vista et de Office 2007 ou de OpenOffice 3.0, les utilisateurs ont pu mesurer que la puissance de leurs micro-ordinateurs était absorbée par une inflation fonctionnelle bien souvent aux portes de l'inutile. Le mode hébergé transfert la responsabilité à l'hébergeur de garantir un fonctionnement fluide des applications. Quant aux applications Web, disons-le simplement : elles n'offrent pas encore le niveau de fluidité qu'on est en droit d'attendre du fonctionnement de logiciels dans un cadre professionnel. De sérieux progrès devront être envisagés du côté des technologies embarquées dans les navigateurs. D'ores et déjà, dans cet esprit, l'ayant compris avant les autres, Google propose un mode déconnecté dans le cadre de l'utilisation de ses applications. Ajoutons qu'avec Chrome et son rôle de 1er contributeur dans le projet Mozilla, l'éditeur du célèbre moteur de recherche se donne les moyens de trouver une solution à ces problèmes de performance. Plus que jamais l'avenir est incertain. Les solutions retenues seront forcément hétérogènes. Crédit photo : adsensetrick.com

 Dsfc


Tags: , , ,

Windows Server 2008 R2 uniquement en 64 bits !

Par       10 novembre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

Si l'annonce n'a pas secoué le landerneau du monde informatique, les spécialistes peuvent y voir une rupture majeure dans la mesure où de nombreuses machines seront dans l'incapacité d'accepter le mode 64 bits.

Le mode EM64T

Tous les processeurs de type Pentium 4 des séries 8xx/6xx/5x6/5x1/3x6/3x1 ainsi que les Core 2 Duo, Core 2 Extreme, Core 2 Quad et autres Xéon sont compatibles avec le 64 bits du fait qu'ils embarquent un mode spécifique dédié aux applications 64 bits : le mode EM64T. Tous les processeurs de la gamme AMD64 sont, quant à eux, parfaitement compatibles avec les systèmes d'exploitation 64 bits de Microsoft.

Pour quelles applications ?

Contrairement à ce qui avait été annoncé, le pack Office n'est toujours pas disponible en édition 64 bits. La liste des applications, proposée par l'éditeur, est encore très restreinte et dédiée aux environnements des serveurs :

Une démarche liée au marché de la virtualisation

Microsoft fait le choix du 64 bits pour des raisons assez peu lisibles en vérité. Dans le domaine de la virtualisation, ni Vmware ni XenServer ne semblent supporter de machines à base de Windows Server 2008 en mode 64 bits. Sans doute, s'agit-il d'une question de temps. L'avantage de l'Hyper-V de Microsoft est d'utiliser le mécanisme de para-virtualisation - à l'image de ce que propose Xen - et d'embarquer les drivers du système invité dans le système hôte. Les performances en sont bien meilleures que celles de Vmware même si le choix d'embarquer l'hyperviseur dans un système Windows Server 2008 doit relativiser quelque peu le propos. En combinant l'accélération de la sortie d'Hyper-V à celle de Windows 2008, Microsoft entend peser sur le marché de la virtualisation. A suivre. Source : Clubic

 Dsfc


Tags: , ,

Le prix d’un PC !

Par       2 novembre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

LDLC PC Debut La baisse du dollar aura été bénéfique à l'Europe et à la France. Malgré les tensions sur les matières premières, les prix des composants électroniques ont continué leur baisse sous l'effet d'une obsolescence technique dont on ne mesure pas toujours très bien la réalité.

Un PC à 160 euros !

Un ordinateur de base sur le site LDLC - non monté et sans OS - est aujourd'hui vendu 159.95 euros TTC. Autant le dire : il ne s'agit pas d'un foudre de guerre ! Avec 1 Go de Ram, un disque dur de 40 Go, un graveur Dvd et un processeur à 2Ghz, la machine de base est très largement suffisante pour couvrir l'essentiel des besoins d'un ordinateur de bureau dans le cadre d'une activité professionnelle. Si vous ajoutez les frais de montage, l'ordinateur revient à 207.90 euros TTC. Il faut y ajouter l'écran.

Le prix du logiciel

En l'état, l'équipement acheté n'est toutefois pas complètement fonctionnel. Si vous ajoutez le système d'exploitation Windows Vista et une suite Microsoft Office, il faut que vous ajoutiez 209 euros TTC, au minimum. Malgré une diminution significative, le prix des logiciels propriétaires dépasse désormais le prix du matériel. C'est un fait sans précédent qui doit être pris en compte par les décideurs.

Le client léger ou le PC avec Linux ?

Cette baisse des prix des composants touche également les clients légers, des ordinateurs sans disque dur qui se connectent aux serveurs d'application sous Windows Server via le protocole RDP. Ainsi, vous pouvez trouver un client léger HP Compaq Thin Client T5135 prêt à se connecter pour 137.66 euros TTC, à l'heure où ce billet est publié. Il faut, là encore, y ajouter l'écran. Si vous équipez votre PC bas de gamme d'un Linux, vous devrez incorporer au minimum 0 h 30 au titre du déploiement réduit ici à l'installation d'un système Linux. Ce surcoût est à comparer aux 209 euros payés (ramenés à leur montant HT) à l'éditeur du système Windows et de la suite Office. Par rapport à une platine, un PC offre l'avantage d'une meilleure tolérance de pannes liée à son autonomie. Il possède l'inconvénient de procéder à des opérations de maintenance régulières venant gonfler le TCO (Total Cost of Owning). En tout cas, une chose est sûre : l'approche traditionnelle semble quelque peu obsolète. C'est pourtant celle qui est choisie dans la grande majorité des cas.

 Dsfc


Tags: , , , ,

Seven pour corriger le flop Vista !

Par       27 octobre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

Windows News Vista ne marche pas. A la date d'aujourd'hui, à peine, 10% des entreprises ont effectué ou effectueront leur migration vers le nouvel OS. La majorité des entreprises continuent de rester accrocher à Windows XP dont la fin de commercialisation était fixée, dans un premier temps, par Microsoft, au 30/6/2008. Sous la pression, Microsoft a concédé aux partenaires OEM la fourniture du média de restauration de Windows XP à leurs clients jusqu'au 31/7/2009. Du coup, de grosses entreprises, secouées par la crise financière font le choix de migrer sur Linux. Citons notamment la Société Générale au travers de sa branche BHFM.

Windows 7

D'après les informations délivrées par l'éditeur, Seven ressemblera à Vista. Prévu fin 2009, la commercialisation de Seven pourrait être avancée de quelques mois. La version attendue de pied ferme par les entreprises du monde entier disposerait d'une prise en charge - réelle - des processeurs multi-coeurs. Par ailleurs, la gestion de l'UAC (User Access Control) - et son florilège de fenêtre d'avertissements - , si elle ne devrait pas être abandonnée, devrait être allégée, évitant aux utilisateurs d'avoir à confirmer le moindre de leurs faits et gestes. Reste une grande inconnue : le nouveau système d'exploitation de la firme de Redmond sera-t-il aussi lourd que Vista ? Microsoft n'aura sans doute pas le droit à une deuxième erreur, d'autant que Novell avec Suse, Mandriva et Ubuntu proposent des Linux "for human beings" qui n'ont plus rien à envier à Windows. Depuis la sortie de Vista, les livraisons de Mac OS se sont, de leur côté, considérablement accélérées. Source : GénérationNT, LeMagIT

 Dsfc


Tags: , ,

Sécurité : la nécessité d’une architecture multi niveaux

Par       18 octobre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

Le Château de Peyrepertuse Pour ceux qui ont eu l'occasion d'aller dans la magnifique région de Perpignan, vous aurez sans doute visité le château de Peyrepertuse. De tous les châteaux cathares, c'est celui qui laisse la plus forte impression quant à la structure de défense mise en oeuvre. Enkysté sur un piton rocheux, le château est entouré d'un fossé sur sa partie "accessible" et dispose de 3 enceintes.

Le syndrome Maginot !

L'architecture multi niveaux est, hélas, peu pratiquée dans les enceintes des entreprises. Le 1er niveau, dans le domaine informatique, consiste en la mise en place d'un pare-feu. Mais se contenter de ce pare-feu, comme le font la majorité des responsables, est une erreur, pire une faute. Le montant investi dans le matériel actif ne peut pas à lui seul justifier la faiblesse du raisonnement qui nous renvoie à l'échec de la ligne Maginot. Le deuxième niveau, mis en place, consiste à installer des antivirus sur les postes de travail. C'est très insuffisant.

Les chiffres de l'insécurité

Disposer d'un pare-feu central est nécessaire. Il n'est toutefois pas suffisant. 80% des problèmes de sécurité sont véhiculés volontairement ou involontairement par les personnes présentes dans l'enceinte de l'entreprise : salariés, consultants, intérimaires, informaticiens. Le contrôle de l'accès physique aux bâtiments et de l'accès au réseau interne est un des facteurs clés de l'organisation de la sécurité. Pour contrôler les accès au réseau de l'entreprise, il existe aujourd'hui des switchs de niveau 3 faisant office de VPN adossés à un serveur Radius assurant l'accès aux serveurs de l'entreprise, le plus souvent en mode Terminal Server. La vitesse à laquelle il est aujourd'hui possible de casser les clés Wep et Wpa au niveau du wifi continue d'interroger les décideurs sur la pertinence de la mise en oeuvre de cette technologie au niveau des entreprises.

L'ingénierie sociale

Quels que soient les outils déployés, les investissements techniques, les attaques se construisent par ingénierie sociale. Les assaillants vont choisir leurs cibles en fonction de leur niveau de vulnérabilité. Or, le maillon le plus vulnérable dans une entreprise reste, avant tout, l'utilisateur. Par simple coup de fil, usurpant l'identité de prestataires ou d'informaticiens, les "crackers" vont construire leur attaque très simplement en faisant faire les manipulations nécessaires à la construction d'une attaque de grande ampleur. Quand l'attaque est lancée le vendredi après-midi vers 15 h 30, cela laisse beaucoup de champ aux assaillants pour effectuer leur sale besogne. Ce type d'attaques nous pose la question de la maîtrise des flux sortants et de la nécessité d'associer les applications de la station de travail aux applications tcp/ip autorisées à sortir. C'est le seul "endroit" où nous pouvons techniquement l'organiser. La réponse la plus adaptée aux risques que fait peser la menace d'une attaque informatique reste avant tout l'information et la formation des personnels. Elle évite la peur qui est de très loin, par son caractère paralysant, la plus mauvaise des conseillères pour aborder ce genre de problématique.

 Dsfc


Tags: ,

Les métiers liés à l’intégration informatique

Par       11 octobre 2008  - Catégorie(s): Zoom Technique  Zoom Technique

Du fait d'environnements informatiques de plus en plus complexes, les entreprises utilisatrices créent, au sein de leur DSI, des services liés à l'intégration. A la jonction des utilisateurs des applications et des services informatiques liés à l'infrastructure et à l'exploitation, l'intégration dépend "hiérarchiquement" de la DSI. Son rôle principal - comme son nom l'indique - est d'intégrer les applications à l'environnement existant. Pas simple !

Une mission assortie d'une vaste panoplie de compétences !

La première complication de la mise en place de l'intégration au sein de la DSI est d'en définir le périmètre. Tantôt conseil, support "utilisateurs", tantôt en charge du déploiement des mises à jour, des correctifs, de la conformité fonctionnelle des applications achetées vis à vis des cahiers des charges, des procédures de sauvegarde et restauration liées aux données des applications... les postes liés à l'intégration requièrent de solides compétences et une très bonne connaissance du fonctionnement des organisations. Dans ce cadre, L'intégrateur doit posséder des compétences pointues en matière de systèmes d'exploitation : Windows et Linux quand ce n'est pas AIX, Mac Os ou Solaris. Il doit aussi comprendre et maîtriser le SQL et les principaux gestionnaires de bases de données : Oracle, MySQL, SQL Server, PostGRESQL. Il est encore en première ligne dans l'informatique décisionnelle : Business Objects ou Cognos. Il doit enfin avoir de sérieuses bases en programmation : Php, Java, C# sont les langages aujourd'hui les plus utilisés sur les plates-formes applicatives Web telles que Apache, Tomcat et IIS.

La technique comme pour mieux en sortir !

Alors qu'à la fin des années 1990, les entreprises demandaient des spécialistes, l'intégrateur se présente avant tout comme un généraliste aux compétences horizontales certaines. C'est à lui qu'incombe notamment la mise en place des bases de connaissances et de la gestion des incidents liées aux applications utilisées. Dans ce cadre, il devra, dans la plupart des cas, se former lui-même à ITIL pour pouvoir exiger un guide de bonnes pratiques de ses fournisseurs. Réduite à un rôle de responsable financier qui gère les budgets, la fonction du directeur des services informatiques s'appauvrit encore davantage au point où la question se pose de savoir si la gestion de l'informatique de l'entreprise ne va pas rapidement échoir aux directeurs administratifs et financiers. Dans certaines entreprises, c'est déjà fait ! Le livre du biologiste Jacques Monod, le Hasard et la nécessité, n'aura, sans doute, jamais été pour nous, informaticiens, autant d'actualité.

 Dsfc


Tags: , , ,