Business

Pour un décryptage de la stratégie technique de Microsoft

Pour un décryptage de la stratégie technique de Microsoft

Le marché informatique connaît en ce moment de grands bouleversements : émergence des services en ligne contre le vieux modèle du logiciel installé sur le poste de travail, transformation des architectures des processeurs... Autant de défis que Microsoft entend bien relever. Bernard Ourghanlian, Directeur technique et sécurité de Microsoft France, décrypte pour nous la vision de l'éditeur.

PublicitéQuelles tendances techniques connaîtront les produits Microsoft dans les prochaines années ? En lien avec l'émergence des processeurs multicoeurs, la tendance forte sera à la parallèlisation, à l'industrialisation des solutions, à la modélisation... et à la complexité. Regarder la réponse complète de Bernard Ourghanlian Quelle est l'actualité des solutions professionnelles de Microsoft ? Le point fort sera l'annonce conjointe de Windows Server 2008, SQL Server 2008 et Visual Studio 2008, l'ensemble constituant un tout cohérent. L'idée est de favoriser l'émergence des méta-langages de modélisation comme de faciliter la virtualisation au delà des seuls serveurs, jusqu'au poste de travail. Regarder la réponse complète de Bernard Ourghanlian Comment Microsoft accompagne-t-il son écosystème pour faciliter l'émergence de ces nouvelles technologies ? D'ici 2012, on aura sans doute 32 ou 64 coeurs dans un même processeur et, par conséquent, le parallèlisme sera une obligation pour les développeurs. Microsoft, en tant que fournisseur de briques technologiques de base, a l'obligation d'une part de fournir un système d'exploitation gérant au mieux ces technologies, d'autre part de fournir les outils de développement appropriés alors même que les processus cognitifs humains ne sont pas adaptés à l'écriture de procédures parallèles. Regarder la réponse complète de Bernard Ourghanlian Au moment où Microsoft bascule du mode logiciel au mode S+S (software+service), comment l'éditeur va-t-il déployer sa stratégie ? De l'arrivée des Mainframes jusqu'à nos jours, nous avons toujours oscillé entre un environnement centralisé et l'autonomie des postes de travail. Depuis 40 ans, l'informatique n'a pas trouvé l'équilibre entre le tout-centralisé et le tout-décentralisé. Finalement, l'approche S+S, c'est une approche de synthèse où l'on évite d'exclure l'une ou l'autre hypothèse. Le but est de pouvoir opter aussi bien pour du distribué, du centralisé ou du mixte, c'est à dire le meilleur des deux mondes. Regarder la réponse complète de Bernard Ourghanlian Dans cette logique d'équilibre entre centralisé et distribué, il y a les deux approches classiques : Mainframe contre PC, avec sa déclinaison dans la bureautique Microsoft Office contre GoogleApps. Or Microsoft a racheté il y a quelques années un chaînon manquant : Groove, qui permet de collaborer sans être centralisé. Que devient cette offre pair-à-pair dont on entend assez peu parler ? Groove est une offre extrêmement innovante qui a montré la voie sur une série de sujets sur laquelle nous réfléchissons aujourd'hui, autour d'une infrastructure sans centre. Groove a aujourd'hui énormément de succès auprès des ONG intervenant en urgence sur des terrains difficiles, donc sans infrastructure fiable. Mais les concepts de base de Groove posent des soucis en entreprises, notamment le sulfureux pair-à-pair, associé au téléchargement illégal... et aux problèmes de pouvoir. Décentraliser l'information, c'est une sensation de décentralisation du pouvoir alors même que Groove dispose d'une gestion centrale fine de la sécurité. Tout cela est très perturbant pour les DSI. Regarder la réponse complète de Bernard Ourghanlian Avec l'émergence de la stratégie S+S, quelle évolution va connaître le modèle économique de Microsoft, de ses partenaires et de son écosystème ? Chacun a envie d'être dans un monde simple : blanc/noir, centralisé/décentralisé, avant/après... mais la réalité est plus compliquée ! Les potentialités économiques liées au S+S doivent être considérées comme un continuum entre des offres totalement gratuites subventionnées par la publicité, en passant par des services loués au temps, jusqu'à la vente traditionnelle de licences de logiciels. Il ne faut pas opposer chaque face du modèle. Regarder la réponse complète de Bernard Ourghanlian Quand on parle de faire fonctionner ensemble des logiciels provenant d'offres différentes (locations, ventes, mises à disposition gratuites...) et de fournisseurs différents, cela suppose que les fichiers puissent passer aisément d'un logiciel à l'autre grâce à l'emploi de normes communes. Après la guerre inachevée ODF/OOXML, pourquoi ne pas définir des normes simples communes à tous ? La raison de l'existence de deux standards, ODF et OOXML, provient d'une conception avec deux objectifs différents. Ne faut-il pas plutôt permettre à chaque utilisateur de choisir le format adapté à ses besoins et de pouvoir convertir sans difficulté, comme cela se fait déjà avec les images ? Regarder la réponse complète de Bernard Ourghanlian Pour accéder au SI composé de multiples applications obéissant à différents modèles, il y a deux approches classiques : le client léger web et le client lourd, genre « Office partout » au travers d'outils comme Duet (avec SAP). Quels sont aujourd'hui les enjeux autour de ces différents types d'approches ? Comme pour le reste, il n'y a aucune raison d'opposer les deux. Le web et l'interface Office ont des avantages et des inconvénients, simplicité d'un côté contre richesse et stabilité de l'autre. Une option intermédiaire est la virtualisation applicative Regarder la réponse complète de Bernard Ourghanlian Où en est l'interopérabilité des logiciels de Microsoft avec les contacts de l'éditeur avec les communautés ? L'interopérabilité est un élément sur lequel nous nous sommes fait interpeller par nos clients, notamment publics, qui doivent concilier des réseaux, des matériels et des logiciels provenant de multiples fournisseurs. Plusieurs approches simultanées sont possibles : la conception d'origine pour l'interopérabilité, l'interopérabilité via la virtualisation, l'interopérabilité via des normes ouvertes... Regarder la réponse complète de Bernard Ourghanlian

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis