Voix sur IP : Comparaison H.323, SIP et MGCP

La voix sur IP (VoIP) semble se résumer aujourd’hui au choix entre 3 standards :
– H.323
– SIP
– MGCP

H.323 est le protocole le plus utilisé par les applications de téléphonie sur IP et de visio-conférence (95 % du trafic), les réseaux d’opérateurs et les systèmes de téléphonie IP d’entreprise. Il permet la transmission en temps réel de la voix, des données et des images sur des réseaux à commutation de paquets (TCP/IP, PX/SPX, ATM…). Issu des protocoles traditionnels (ISUP, ISDN) qui au cours des décennies n’ont cessé de se développer et de s’améliorer et conçu pour être robuste et inter opérable, il est parfaitement adapté à la téléphonie et à sa transition sur l’IP. Cependant, à la différence du SIP, il intègre moins d’informations et ne permet pas d’exploiter totalement la richesse de l’IP au travers de la convergence applicative.

SIP (Session Initiation Protocol) a été conçu au départ pour être un protocole de transmission simple et performant. Sa philosophie est bien celle de l’Internet. Il s’appuie sur les protocoles de l’Internet comme http ou SSL pour l’authentification, SSL, PGP, S/MIME pour le cryptage ou DNS SRV pour le partage de charge. Les messages sont au format texte.  Le SIP peut être assez déroutant lorsque l’on vient du monde de la téléphonie, car il se veut ouvert, simple et dépasse largement le cadre de la téléphonie.  Son but est d’établir une session entre deux équipements (cette session pouvant transporter de la voix, de la vidéo, de la messagerie instantanée, de la réalité virtuelle…).

MGCP (Media Gateway Control Protocol) est un protocole de contrôle et de transmission utilisé dans les installations de type VoIP. De plus bas niveau que H.323 ou SIP, il se limite à la commande de terminaux à partir de commandes élémentaires.  Il est particulièrement bien adapté à une architecture de type IP centrex ou PBX hébergés, où le serveur de communication gère et contrôle l’ensemble des terminaux du réseau. Il permet, en outre, de développer des services supplémentaires de téléphonie plus aisément que la recommandation H.450, incluse dans H.323, trop complexe et trop coûteuse à implémenter.

La VoIP correspond à une véritable transformation des télécommunications. On ne parle plus de ligne téléphonique mais de compte lié à un identifiant (comme une adresse mail) auquel on ajoute des services comme la téléphonie, la visioconférence, la messagerie… et tout cela indépendamment du réseau d’accès (IP), de la localisation ou du type de terminal. Les plates-formes de services peuvent être localisées n’importe où (réparties ou centralisées), le transport et le routage étant de la responsabilité exclusive du réseau (TCP/IP), à la différence d’un réseau de téléphonie classique transportant la voix d’autocommutateur en autocommutateur, ces derniers devant chacun d’eux disposer d’informations de routage (tranches de numéros) et de service.

Face à ce bouleversement, le SIP de part sa philosophie et ses origines issues du monde IP tire naturellement le meilleur parti de ce changement de paradigme. En d’autres termes, les qualificatifs du H.323, robustesse, exhaustivité, ne paraissent pas, sur le long terme, de nature à rivaliser avec ceux du SIP, simplicité, ouverture, évolutivité, modularité ! Microsoft en incorporant sa propre vision de SIP dans sa messagerie instantanée Messenger va peut-être créer un standard de fait sur PC (dans NetMeeting, il incluait le client H.323).

Gestion de projet: les 14 erreurs les plus communes

Près de 70% des projets informatiques sont concernés par des dépassements de coût ou ne sont pas terminés à la date prévue en raison d’une mauvaise planification, manque de communication ou une mauvaise allocation des ressources.

La liste suivante des 14 erreurs les plus communes dans la gestion de projet devrait vous aider à identifier si votre projet risque de mal se passer et les mesures que vous pouvez prendre pour améliorer la situation :
– Un manque de ressources et de compétences adaptées,
– Un manque d’expérience des chefs de projets,
– La non utilisation de standards et de méthodologies permettant de réutiliser ce qui a déjà été fait,
– L’action de la DSI est ralentie par des processus trop lourds et trop contraignants,
– Les changements ne sont pas suffisamment pris en compte, ce qui accroît les coûts,
– La gestion du changement est déficiente,
– Les outils de pilotage de projet sont déficients,
– Les équipes ignorent les problèmes et pensent qu’ils vont se résoudre naturellement,
– La phase de définition des objectifs du projet est sacrifiée,
– La connaissance des délais à respecter est incomplète,
– L’interdépendance entre plusieurs projets n’est pas prise en compte,
– La loi de Murphy (si quelque chose doit rater, cela arrivera) n’est pas assimilée,
– Les délais considérés comme déraisonnables ne sont pas présentés comme tels aux directions métiers,
– La communication externe et interne est insuffisante.

Les causes d’échec ont la fâcheuse manie de se répéter et de se reproduire au fil des projets. Connaître les pièges les plus courants afin de les prévenir ou, en tout cas, d’être mieux préparé à les affronter, est une précaution d’usage qui tombe sous le sens.

Les jours de XP sont comptés !

Il est impossible de se procurer une licence Windows XP dans le commerce depuis le 30 juin dernier.

Les fabricants de PC ont une prolongation jusqu’au 31 janvier 2009. Quant aux constructeurs de mini-portables, type EeePC, ils pourront se procurer la version ULCPC jusqu’au 30 juin 2010.

Le support technique de XP sera assuré jusqu’au 14 mars 2009 pour les particuliers. Quant à la version ULCPC, le support sera assuré par l’intégrateur fabriquant le PC.

Téléphonie sur IP : quelle solution choisir ?

Dans de nombreuses entreprises, le standard téléphonique traditionnel cède la place à la téléphonie sur IP.

Changer son PABX vers des équipements IP offre une opportunité pour faire converger informatique et télécom sur le protocole IP, procurant ainsi de meilleurs services intégrés, une meilleure qualité que l’analogique, une plus grande évolutivité et une réduction des coûts à moyen terme.

Plusieurs solutions sont possibles pour évoluer vers la téléphonie IP : de la simple carte de téléphonie IP à insérer dans son PABX-TDM, à la solution IPBX, jusqu’à l’IP Centrex.

Pour ceux qui pensent que la phrase précédente est en chinois, voici quelques définitions sans doute bonnes à rappeler :
PABX (Private Automatic Branch Exchange) ou central téléphonique privé : commutateur téléphonique d’entreprise gérant les communications entre plusieurs postes, établissant les communications sur le réseau téléphonique public et utilisant la technologie TDM.

TDM (Time Division Multiplexing) : méthode de téléphonie traditionnelle permettant de mélanger plusieurs signaux avec une émission segmentée selon le rythme d’une horloge.

IPBX (Internet Protocol Branch Exchange) : combinaison d’IP et de PABX, l’IPBX assure les liaisons entre les technologies TDM et IP. L’IBPX permet une intégration simple avec les applications et avec l’infrastructure existante.

Centrex IP (Central Exchange IP) : le service Centrex IP repose sur IPBX hébergé et mutualisé chez un opérateur de VoIP (Voice over IP). Les utilisateurs accèdent au Centrex via Internet.

Quelles solutions choisir ?

La carte IP sur un PABX est la solution la plus simple mais montre assez rapidement ses limites. Avec ce type d’architecture hybride, on retrouve les mêmes contraintes en évolutivité qu’avec un PABX mais avec une ouverture à l’IP qui permet notamment une connectivité intersites IP « gratuite » entre immeubles géographiquement éloignés. Néanmoins, la carte IP apparaît vite comme le goulet d’étranglement de ce type d’architecture.

La migration du PABX vers l’IPBX ouvre les portes de l’interopérabilité. Outre la simplicité de câblage unique informatique/téléphonie et de gestion des différentes fonctions devenues applications, cette architecture permet une étroite collaboration avec les applications de l’entreprise (CRM, catalogues produit,…). Cependant, l’autonomie qu’offre l’IPBX a un coût : outre le matériel, l’entreprise devra acquérir les logiciels serveur et les licences correspondantes.

La solution IP Centrex libère l’entreprise de l’acquisition et de l’entretien d’un autocommutateur. Le prestataire extérieur à l’entreprise veille sur le bon fonctionnement du matériel moyennant un abonnement mensuel par poste. Cette offre présente l’avantage d’une dépense maîtrisée et d’un paiement selon les fonctions réellement utilisées par chaque utilisateur. Cette solution convient parfaitement à des sites type réseau d’agences d’une dizaine de collaborateurs.

Entre l’infrastructure externalisée et mutualisée d’un Centrex et l’IPBX restant dans les murs de l’entreprise, on voit se développer une solution intermédiaire qui permet de cumuler la plupart des avantages des deux formules : l’achat ou la location d’un IPBX dédié mais hébergé par un opérateur (IPBX infogéré).

Avant de choisir, posez-vous les bonnes questions :
– Ai-je un investissement récent de type PABX-TDM à rentabiliser, auquel cas, la carte IP peut être une solution de transition ?
– Si j’investis dans un IPBX, suis-je prêt (et capable) de gérer un équipement de plus ?
– Si j’opte pour un IP Centrex, suis-je psychologiquement prêt à confier l’intégralité de ma téléphonie (base de contact, contenu numérisée des conversations,…) à un tiers opérateur ?

On peut voir la difficulté de donner une réponse unique. La plupart du temps, il convient de réaliser un audit pour répondre au mieux à toutes ces questions.

La virtualisation Open Source

Pour rappel, la virtualisation de serveurs est un ensemble de techniques et d’outils permettant l’exécution de plusieurs systèmes d’exploitation (OS) sur un même serveur physique. On appelle Hyperviseur la couche logicielle qui s’insère entre le matériel et les différents OS. L’hyperviseur peut soit gérer lui-même toutes les ressources matérielles du serveur, soit s’appuyer sur un système d’exploitation hôte.

On distingue trois grandes catégories de solutions de virtualisation :
– l’isolation qui permet de cloisonner un même système d’exploitation en plusieurs contextes ou environnements, les programmes de chaque contexte ne pouvant communiquer qu’avec les processus et les ressources associées à leur propre contexte,
– la paravirtualisation qui repose sur un hyperviseur fournissant une interface qui permet à plusieurs système hôtes modifiés (pouvant être de familles différentes) d’accéder de manière concurrente aux ressources. Chaque OS aura alors accès à ses propres périphériques de stockage, sa propre mémoire, etc…
– la virtualisation complète (ou native) qui permet de faire fonctionner plusieurs systèmes d’exploitation non modifiés sur un serveur physique. Sur une telle machine virtuelle, il est possible d’installer n’importe quel OS non modifié, aussi bien commercial qu’Open Source.

Une des solutions les plus avancées et les plus matures dans le domaine de l’isolation est Linux VServer. Cette virtualisation se situe au niveau du noyau de l’OS et rend possible l’exécution de plusieurs instances d’OS GNU/Linux sur la même machine. Les serveurs virtuels utilisent le noyau de l’OS hôte Linux, ce qui leur confère un rendement proche des performances natives. En revanche, il est impossible d’exécuter d’autres OS que GNU/Linux. L’accès par certaines fonctions au noyau (notamment les fonctions réseau) nécessite une grande vigilance en terme de sécurité !

Xen est un produit qui propose, outre des possibilités de paravirtualisation (Xen permet de paravirtualiser des systèmes GNU/Linux dont le noyau aura été spécialement patché), un mode virtualisation native. Ce mode, appelé HVM-Xen, permet d’utiliser des OS fermés comme Windows, mais aussi GNU/Linux. Il est cependant nécessaire de disposer d’un processeur fournissant les jeux d’instructions d’aide à la virtualisation pour pouvoir en bénéficier. Xen est réputé pour sa souplesse d’utilisation et critiqué pour son manque d’ergonomie. Initialement développé par l’université de Cambridge puis soutenu par de grandes sociétés comme IBM, Xen a été racheté par Citrix en août 2007, ce qui peut poser quelques interrogations quant à son positionnement open source.

KVM est un nouveau venu dans le monde des machines virtuelles open-source et offre une virtualisation native. Bien que très prometteur, KVM en est encore à ses débuts et ne dispose pas encore des outils d’administrations qui font la force de ses concurrents.

Les solutions open source apportent le même niveau de qualité en termes de robustesse, de performances que les solutions commerciales. En revanche et comme souvent avec les solutions Open Source, un effort reste à faire en terme d’ergonomie des interfaces.

Plates-formes de voix sur Wi-Fi

La voix sur Wi-Fi est destinée à des entreprises qui disposent déjà d’un réseau sans fil de type Wi-Fi pour le transport des données et qui envisagent de le rentabiliser pour transporter aussi la voix. Certains utilisateurs, comme les hôpitaux, qui ne peuvent pas déployer de technologies Dect, sont également intéressés.

Quels sont les points à surveiller?
– la qualité sonore
– le handover : gestion du passage d’une cellule radio à une autre en cours de communication
– la sécurité
– l’ergonomie des terminaux ainsi que leur poids et leur autonomie
– l’administration du système

Si vous effectuez des tests, pensez à les faire sans et avec une activité de données sur le réseau afin de voir si la charge influe sur la qualité audio. Sachez toutefois que la qualité de la voix sur le réseau Wi-Fi est dépendante de la présence de mécanismes de qualité de service et d’optimisation du handover, c’est à dire de la gestion du délai moyen de passage d’une cellule à une autre.

En ce qui concerne la sécurité, pensez à tester chacun des éléments de l’infrastructure : l’IPBX, les points d’accès, le contrôleur Wi-Fi et celle des téléphones. Faire des tests de vulnérabilité sur tous les équipements disposant d’une adresse IP.

Déploiement Wi-Fi : pas si simple !

Il peut être délicat d’architecturer et de paramétrer un réseau Wi-Fi d’envergure en faisant abstraction des principes de base de l’ingénierie radio. Les facteurs d’atténuation ou de perturbation, les risques d’interférences entre matériels actifs peuvent compliquer la mise en oeuvre. Ces facteurs peuvent être liés à l’architecture des bâtiments, à la nature des matériaux, ainsi qu’à la pollution électromagnétique générée par les équipements électriques.

Il est primordial de bien connaître le site de déploiement et de définir précisément les besoins en bande passante, taux de couverture, disponibilité et qualité de service. La distance de rayonnement est une chose mais la charge supportée par l’électronique en est une autre, d’où l’absolue nécessité de réaliser un cahier des charges détaillé. Prenons l’exemple d’un centre hospitalier où les médecins doivent pouvoir se déplacer de chambre en chambre sans interruption de communication. Le déploiement doit garantir dans ce cas une connectivité parfaite plutôt qu’une performance importante. A contrario, sur un campus, il faut absolument garantir aux utilisateurs une bande passante suffisante, mais néanmoins bridée pour des raisons de sécurité.

La modularité des bornes est aussi à prendre en compte. Il peut être intéressant de s’équiper de bornes dotées de plusieurs cartes. Il suffit alors, lorsqu’une borne est en surcharge, de lui rajouter une carte. Les choix en matière de sécurité ont aussi une incidence sur les performances Wi-Fi : WEP, WPA ou connexions RPV IPsec ne demandent pas la même puissance.

Vient ensuite la question du choix d’un outil d’exploitation, de préférence indépendant des matériels. Les outils de supervision sont désormais très complets. Ils assurent la configuration des bornes à distance, le paramétrage des niveaux d’émission, le plan d’affectation des canaux, la supervision des flux. Les consoles de supervision couvrent également la gestion des réseaux virtuels, la surveillance des connexions ainsi que l’authentification des accès.

De toute façon, la mise en oeuvre du Wi-Fi recèle toujours des incertitudes. Ne pas oublier que l’ingénierie radio est bien souvent une affaire de compromis.

Sécurité : les boîtiers UTM

L’UTM (Unified Threat Management ou gestion unifiée des menaces) définit un boîtier regroupant diverses fonctions de sécurité relatives au filtrage des flux.
Outre le pare-feu traditionnel, un seul équipement UTM peut intégrer un système de détection et prévention des intrusions (IDS ou IPS), un antivirus de passerelle, du filtrage anti-spam, un réseau privé virtuel (VPN), voire une gestion de la bande passante et de la qualité de service.

Cette approche de la sécurité centralisée correspond aux besoins de sécurité actuels des PME. Ainsi, grâce à sa facilité d’installation, son administration simplifiée et centralisée et de par sa maîtrise des coûts, le boîtier de sécurité UTM est presque devenu un consommable, interchangeable d’une marque à l’autre.

Attention cependant aux choix que peuvent faire les différents constructeurs :
– en ce qui concerne l’OS, Open Source (une trop grande ouverture peut parfois être préjudiciable en ce qui concerne la sécurité) ou propriétaire (meilleure intégration de chacune des fonctionnalités)
– en ce qui concerne le choix de l’antivirus fourni dans le boitier (et de sa conhérence avec ceux installés sur les postes de l’entreprise)
– boitier équipé d’un disque dur ou d’une mémoire flash (compromis entre la taille de stockage et la tolérance aux pannes)
– choix du processeur (est-il performant si l’entreprise fait de la VoIP ?)
– gestion de la redondance (si vous n’avez qu’un seul boîtier et si le boîtier vient à tomber en panne, c’est toute la sécurité informatique de l’entreprise qui s’écroule !)

Enfin, pensez à vérifier que les revendeurs soient des experts sur chacune des technologies contenues dans leurs boîtiers UTM, de manière à vous les expliquer, à vérifier leur adéquation avec vos besoins et ainsi être capables de les paramétrer et de les intégrer à votre système d’informations.

Concurrence bien “réelle” dans le monde de la virtualisation

L’année 2007 confirme l’engouement des entreprises pour la virtualisation. Leader mondial du marché de la virtualisation, VMWare organisait du 11 au 13 septembre sa grand-messe annuelle à San Francisco, le VMWorld.

Le salon a été l’occasion d’annoncer l’adoption du standard Open Virtual machine Format (OVF). Cette norme standardise la façon de décrire une machine virtuelle ou un groupe de machines virtuelles. OVF facilite donc la portabilité d’une image de machine (serveur ou poste de travail) d’un éditeur à l’autre.

Mais le salon a également permis aux concurrents de VMWare de présenter leurs offres en matière de virtualisation :
– Microsoft est venu présenter Systems Center Virtual Machine Manager 2007, une suite de logiciels permettant de gérer les serveurs virtuels et non virtuels. Le logiciel présenté par Microsoft constitue une première étape avant l’arrivée à la fin de l’année d’une application dont le nom de code est Viridian et qui devrait être intégrée à la prochaine version de Windows Server prévue pour le début 2008. Les entreprises pourront donc utiliser gratuitement le moteur de virtualisation de l’éditeur en s’acquittant d’une licence Windows Server 2008. Contrairement à VMware ou à Citrix (qui vient récemment de racheter XenSource, leader des outils de virtualisation open source), Microsoft ne souhaite pas axer uniquement sur les serveurs mais souhaite également viser les postes de travail notamment pour les postes souhaitant pouvoir exécuter Windows Vista en même temps qu’une ancienne version de Windows.
– SWsoft a présenté une version préliminaire de son moteur de virtualisation de serveur Virtuozzo 4.0 (disponible en beta fin septembre) qui comprend des nouvelles fonctionnalités telles que le clustering, la sauvegarde en temps réel, et une interface d’administration unique.
– Canonical, distributeur du système d’exploitation Linux Ubuntu, a présenté une nouvelle mouture du système d’exploitation Ubuntu prête pour équiper les machines virtuelles. Baptisée Jeos (Just Enough Operating System), cette version offre des performances accrues pour les environnements virtuels, et permet bien entendu l’exécution de plusieurs OS et applications à la fois sur une même machine, en exploitant au maximum le potentiel de l’ordinateur.

Mais le leader VMware (70% de parts de marché) ne se repose pas sur ses lauriers. L’éditeur a en effet présenté deux nouveaux produits :
– ESX Server 3i : serveur de virtualisation « physique » qui tient sur une mémoire flash de 32 Mo. C’est ainsi le premier serveur de virtualisation complètement autonome qui ne nécessite pas de disque dur pour fonctionner.
– Virtual Desktop Manager : serveur de virtualisation spécialisé dans les postes de travail. Il fonctionne donc conjointement avec des terminaux ou des clients légers. Un domaine qui était jusqu’à présent la chasse gardée de Citrix. On comprend donc mieux le rachat de XenSource cet été…

Hébergeur Internet : un métier en pleine évolution

Le concept d’hébergeur est difficile à définir. Au delà du simple hébergement physique, ce concept évolue vers le monde des services, allant des simples services de connectivités jusqu’à ceux plus complexes proches de l’outsourcing.

Le secteur connaît une concurrence féroce et les hébergeurs doivent donc proposer de nouveaux services pour compenser la baisse des prix. On y constate déjà un début de concentration. Rachats et fusions devraient continuer.

En revanche, si la concurrence fait rage, il devient pourtant plus facile de trouver des clients potentiels. En effet, la plupart des entreprises ont perdu les compétences pointues que nécessite le métier d’hébergeur et sont de plus confrontées à des soucis techniques triviaux qui les obligent à externaliser ce type de travail, comme la charge au sol supportée par le plancher, l’alimentation électrique, la climatisation nécessaire au bon fonctionnement… Vu le prix de l’investissement nécessaire pour remettre leurs salles à niveaux, les entreprises ont tout intérêt à se tourner vers un hébergeur externe qui en plus d’offrir la connectivité, propose des services de sécurité, de sauvegarde, de redondance (sur tous les matériels, les réseaux, les sites…) et là aussi, les investissements sont à la hauteur. Cela explique aussi pourquoi les entreprises changent parfois d’hébergeurs en cas de problèmes, mais réinternalisent peu ce type de prestations en interne.

Pour limiter les coûts, les hébergeurs rognent de tous les côtés. Ainsi, les configurations matériels sont toutes plus ou moins uniformes chez chaque hébergeur. De même sur les systèmes d’exploitation utilisés. Actuellement, Windows et Linux tiennent la corde. Seuls les systèmes plus lourds comme Unix et les mainframes marquent le pas dans le domaine de l’hébergement.

On constate également une mutation des clients depuis les environnements mutualisés vers des environnements dédiés, sans pour autant une large utilisation d’outils de virtualisation. Pour les architectures, les « trois tiers », bases de données, serveur d’application et front office, restent la règle avec tous les outils de sécurisation et d’optimisation disponibles (compression, etc.).

Ces différents éléments font que l’hébergeur devient un partenaire incontournable dans la stratégie des entreprises et de leur image sur le Web. Les hébergeurs en sont aujourd’hui à proposer des solutions sur mesure pour accompagner le métier de leurs clients. Tous s’orientent donc vers des services haut de gamme pour des clients de plus en plus exigeants.

Un constat simple pour savoir si vous êtes satisfait de votre hébergeur : le service rendu doit être meilleur que si vous le faisiez vous-même. Si tel n’est pas le cas, il est peut être temps d’en changer !