La voiture et ses services connectés, roule chez Peugeot et Renault

Avec le lancement, lors du Mondial de l’auto, d’un bouquet de dix applications dédiées, accessibles depuis un écran tactile (18 cm de diagonale) dans la 208, Peugeot banalise la « voiture connectée ». Fourni à partir des finitions moyen et haut de gamme, l’écran tactile sera couplé avec un abonnement à un ensemble de services connectés. On y trouve le guide Michelin, l’état du trafic temps réel, ou la liste des stations d’essence les plus proches, la météo ou les pages jaunes.

Source : http://www.01net.com/editorial/574077/la-voiture-et-ses-services-connectes-roule-chez-peugeot-et-renault/#?xtor=EPR-1-[NL-01net-Actus]-20121001

Microsoft va intégrer le « mesureur d’influence » Klout à Bing

Microsoft a investi dans l’outil de mesure de l’influence en ligne Klout. Il intègrera bientôt les résultats de ce service dans son moteur de recherche, Bing.

Microsoft s’attaque à l’un des mystères apparus avec les blogs ou les réseaux sociaux : l’influence en ligne. Ca existe, certains l’auraient vu, quelques-uns peuvent en parler et un tas de sociétés tentent de proposer des services plus ou moins sérieux autour, mais personne n’est vraiment capable de la mesurer.

Pourtant, parmi les moins mauvais modèles, celui de Klout a connu un succès important, notamment chez les utilisateurs de Twitter.

Source : http://www.zdnet.fr/actualites/microsoft-va-integrer-le-mesureur-d-influence-klout-a-bing-39783004.htm

L’Europe veut mettre un pied dans le Cloud Computing

L’Europe n’entend pas faire émerger un super Cloud européen mais favoriser l’émergence de standards technologiques dans le Cloud Computing, de règles communes pour la protection des données et de contrats et SLA clairs.

L’Europe veut une action coordonnée dans le secteur du Cloud Computing. La Commission a pour cela défini une stratégie qui doit lui permettre de profiter des retombées économiques de ce modèle, soit 160 milliards d’euros par an (à l’horizon 2020) et 3,8 millions d’emplois créés (source IDC/Microsoft).

Source : http://www.zdnet.fr/actualites/l-europe-veut-mettre-un-pied-dans-le-cloud-computing-39782987.htm

BYOD : SFR lance une solution de gestion de flottes hétérogènes en entreprise

‘Gestion et Sécurité des Terminaux’ permet aux entreprises de sécuriser leurs données et de gérer le déploiement et l’administration des terminaux mobiles quel que soit l’opérateur, la multiplicité des équipements et des systèmes d’exploitation.

Avec l’essor du phénomène BYOD (Bring Your Own Device) dans les entreprises, les DSI ont besoin de solutions d’administration et de sécurité poussées afin de gérer ces flottes hétérogènes de smartphones qui entrent par le bas, du fait de l’équipement personnel des salariés.

Source : http://www.businessmobile.fr/actualites/byod-sfr-lance-une-solution-de-gestion-de-flottes-heterogenes-en-entreprise-39782973.htm

Google Play passe les 25 milliards de téléchargements

Le magasin d’applications Android de Google compte aujourd’hui 675 000 titres.

Google a annonc avoir franchi le cap des 25 milliards de tlchargements avec son magasin dapplications Android Google Play qui totalise 675 000 titres.  titre de comparaison, Apple avait atteint ce chiffre en mars dernier avec son App Store qui a lui dpass les 700 000 applications.

Source : http://www.businessmobile.fr/actualites/google-play-passe-les-25-milliards-de-telechargements-39782949.htm

Pour le cofondateur de Sun, l’open source a besoin d’un sponsor

Scott McNealy, cofondateur de Sun Microsystems, a accordé une interview à Techcrunch en marge d’une conférence américaine. Il revient notamment sur l’open source, avec une vision particulièrement pessimiste.

L’open source continue à prendre des coups. Après la sortie de Miguel de Icaza, l’un des créateurs de Gnome, qui estimait que Linux avait perdu la bataille du desktop, c’est au tour du cofondateur de Sun Microsystems, Scott McNealy, d’être pessimiste vis-à-vis de l’avenir de l’open source.

Dans une interview accordée au magazine américain Techcrunch, l’ex-Sun n’y est pas allé par quatre chemins : « Je pense que l’open source a besoin d’un leader parmi les très grandes entreprises. Quelqu’un qui pourrait dépenser un milliard de dollars par an en recherche et développement. »

Source : http://www.zdnet.fr/actualites/pour-le-cofondateur-de-sun-l-open-source-a-besoin-d-un-sponsor-39782936.htm

Atari Arcade : Redécouvrez dans une version web HTML 5 des jeux mythiques

Redécouvrez dans une version web HTML 5 développée par Internet Explorer, sur le site Atari Arcade, des jeux mythiques tels que Pong, Lunar Lander, Missile Command avec un nouveau design optimisé pour le tactile et de nouvelles fonctionnalités. Défiez-vos amis !

Source : http://www.atari.com/arcade#!/arcade/atari-promo

LG : un brevet sur l’interface des écrans flexibles

Les écrans flexibles sur smartphones sont annoncés à partir de l’année prochaine, mais une question demeure : comment pourrions-nous les utiliser en tactile. LG propose une solution en séparant deux écrans.

On s’en doutait puisque des rumeurs avaient circulé en juin dernier, mais c’est désormais confirmé : LG envisage de se mettre aux smartphones à écran flexible. Le géant a en effet déposé un brevet en ce sens.

Certes, l’obtention d’un brevet ne signifie pas qu’il y aura forcément un produit, et il faudra bien se garder d’attendre un prototype avant longtemps.

Source : http://www.businessmobile.fr/actualites/lg-un-brevet-sur-l-interface-des-ecrans-flexibles-39782706.htm

W3C : le HTML 5 finalisé en 2014

Les tout premiers travaux ont débuté en 2007. Le HTML 5 a rapidement eu une mission de taille : s’adapter à ce qui est le web aujourd’hui, avec ses nouveaux usages, ses nouveaux formats et ses nouveaux contenus. Pari tenu si l’on en croit le W3C, puisque celui-ci a décidé que le langage était mûr pour une publication des spécifications en 2014.

C’est ce que le consortium en charge de la spécification des standards du web a annoncé dans un document publié sur son site. Pour le W3C, cette décision fait suite à un besoin pressant de fixer des spécifications. Dans le cas contraire, le risque est de laisser aux acteurs économiques le soin de définir des standards de fait, par leur position sur le marché.

Source : http://www.zdnet.fr/actualites/w3c-le-html-5-finalise-en-2014-39782752.htm

Windows Server 2012 : dix bonnes raisons de migrer

1. Liberté dans le choix de l’interface

Une installation Server Core offre des avantages en termes de sécurité et de performances. Mais dans le passé, vous deviez vous décider pour un camp : si vous installiez Server Core, vous étiez plongé « dans le noir », avec pour seule interface la ligne de commande. Windows Server 2012 change tout cela. À présent, vous avez le choix.

Microsoft a en effet réalisé que la ligne de commande est formidable pour certaines tâches, mais que l’interface graphique est préférable pour d’autres. Dans Windows Server 2012, la GUI devient une « fonctionnalité » que vous pouvez activer et désactiver à votre gré. Pour cela, il suffit d’utiliser l’option Supprimer des rôles ou des fonctionnalités du Gestionnaire de serveur.

2. Gestionnaire de serveur

En parlant du Gestionnaire de serveur (figure A), même beaucoup de ceux qui n’aiment globalement pas la nouvelle interface en mosaïque admettent que l’implémentation de cette présentation dans le nouveau Gestionnaire de serveur est remarquable.

Parmi les caractéristiques les plus appréciables du nouveau Gestionnaire de serveur figurent ses capacités multiserveur, qui facilitent le déploiement de rôles et de fonctionnalités à distance sur des serveurs physiques et virtuels. Il est facile de créer un groupe de serveurs, autrement dit un regroupement de serveurs qui peuvent être gérés conjointement. Les améliorations apportées à l’administration à distance vous permettent de mettre en service des serveurs sans avoir à établir une connexion RDP.

3. SMB 3.0

Le protocole SMB (Server Message Block) a été considérablement amélioré dans Windows Server 2012 et Windows 8. La nouvelle version de SMB prend en charge de nouvelles fonctionnalités de serveur de fichiers, telles que le basculement transparent SMB, la montée en charge SMB, le multicanal SMB, SMB Direct, le chiffrement SMB, VSS pour le partage de fichiers SMB, le bail de répertoire SMB, et SMB PowerShell. C’est ce qu’on appelle en avoir pour son argent…

Il fonctionne parfaitement avec l’hyperviseur Hyper-V, de sorte que les fichiers VHD et les fichiers de configuration de machines virtuelles peuvent être hébergés sur des partages SMB 3.0. Il est également possible de stocker un système de base de données SQL sur un partage SMB, avec de meilleures performances. Pour plus de détails sur les nouveautés de SMB 3.0, lisez ce billet.

4. Contrôle d’accès dynamique (DAC)

Si certains prétendent que Microsoft a négligé la sécurité ces dernières années, il serait plus juste de dire qu’il a cessé de se focaliser sur des produits de sécurité distincts pour privilégier l’intégration de la sécurité dans chaque partie du système d’exploitation.

Le contrôle d’accès dynamique en est un exemple : il aide les professionnels de l’informatique à créer des modèles de sécurité plus centralisés pour l’accès aux ressources réseau en étiquetant les données sensibles à la fois manuellement et automatiquement, en fonction de facteurs tels que le contenu du fichier ou son créateur. Des contrôles d’accès basés sur les déclarations peuvent ensuite être appliqués.

5. Espaces de stockage

Le stockage est un sujet brûlant et complexe dans le monde informatique aujourd’hui. Malgré l’idée que nous allons tous finir un jour ou l’autre par tout stocker dans le Cloud public, ce jour est encore lointain (et pour beaucoup d’entreprises soucieuses de la sécurité et de la fiabilité, il pourrait bien ne jamais arriver).

Il existe de nombreuses solutions pour stocker les données sur votre réseau d’une manière qui offre une meilleure utilisation des ressources de stockage, une gestion centralisée et une meilleure évolutivité, en plus de la sécurité et de la fiabilité. C’est notamment le cas des SAN et NAS. Mais ces solutions peuvent être onéreuses et difficiles à mettre en place.

Les Espaces de stockage sont une nouvelle fonctionnalité de Windows Server 2012 qui vous permet d’utiliser des disques durs bon marché pour créer une zone de stockage, laquelle peut ensuite être divisée en espaces qui sont utilisés comme des disques physiques. Ils peuvent inclure des disques de secours à chaud et utiliser des méthodes de redondance telles que la parité ou la mise en miroir sur deux ou trois lecteurs. Vous pouvez ajouter de nouveaux disques à tout moment, et un espace peut être plus volumineux que la capacité physique de la zone. Lorsque vous ajoutez de nouveaux disques, l’espace utilise automatiquement cette capacité supplémentaire. Pour en savoir plus sur les espaces de stockage, lisez ce billet paru sur MSDN.

6. Réplicas Hyper-V

La virtualisation étant indissociable du monde des serveurs aujourd’hui, Hyper-V est la réponse de Microsoft à VMware. Bien que ce dernier ait pris d’emblée la tête, la plate-forme de virtualisation de Microsoft a mis les bouchées doubles pour rattraper son retard. À chaque itération, l’hyperviseur Windows s’améliore un peu plus, et Hyper-V dans Windows Server 2012 apporte un certain nombre de nouvelles fonctionnalités, l’une des plus intéressantes étant les réplicas Hyper-V.

Il s’agit d’un mécanisme de réplication qui sera une aubaine pour la reprise après sinistre dans les PME qui ne sont pas toujours en mesure de déployer des solutions de réplication coûteuses et complexes. Il journalise les changements apportés aux disques dans une machine virtuelle et utilise la compression pour économiser la bande passante, effectuant la réplication d’un serveur principal à un serveur réplica. Vous pouvez stocker de multiples instantanés (snapshots) d’une machine virtuelle sur le serveur réplica, puis sélectionner celui que vous voulez utiliser.

Cela fonctionne aussi bien avec les clusters qu’avec les hôtes autonomes, dans n’importe quelle combinaison : autonome à autonome, cluster à cluster, autonome à cluster ou cluster à autonome. Pour en savoir plus sur les réplicas Hyper-V, lisez cet article de TechNet.

7. Améliorations de VDI

Les services Windows Terminal Server ont fait bien du chemin depuis leur première apparition dans Windows NT Édition Terminal Server. Rebaptisés Services Bureau à distance, ils ne se contentent plus d’établir une connexion RDP avec le bureau d’un ordinateur distant, mais se sont largement enrichis. Microsoft proposait une solution VDI (Virtual Desktop Infrastructure) centralisée dans Windows Server 2008 R2, mais elle était encore un peu brouillonne. Des améliorations notables ont été apportées dans Windows Server 2012.

Plus besoin d’une carte graphique dédiée sur le serveur pour utiliser RemoteFX, ce qui améliore considérablement la qualité graphique sur RDP. À la place, vous pouvez utiliser un processeur graphique virtualisé sur du matériel serveur standard. L’accès USB via RDP est bien meilleur, et la fonctionnalité de répartition de charge équilibrée peut gérer la façon dont le processeur, la mémoire, l’espace disque et la bande passante sont alloués entre les utilisateurs pour prévenir les problèmes de monopolisation de la bande passante. Pour en savoir plus sur les améliorations apportées à VDI et RDP dans Windows Server 2012, lisez cet article.

8. DirectAccess plus intuitif

DirectAccess était censé être le « substitut au VPN » de Microsoft, un moyen d’établir une connexion sécurisée entre le client et le réseau d’entreprise sans affecter les performances et avec une expérience d’utilisation plus transparente qu’un VPN traditionnel. Non seulement les utilisateurs n’ont pas à s’occuper de faire fonctionner le VPN, mais les administrateurs bénéficient également d’un plus grand contrôle sur les machines, avec la capacité de les gérer avant même que les utilisateurs ne s’y connectent. Pour appliquer une stratégie de groupe, vous utilisez les mêmes outils que pour gérer les ordinateurs physiquement présents sur le réseau d’entreprise.

Pourquoi donc tout le monde n’a-t-il pas utilisé DirectAccess avec Windows Server 2008 R2 à la place des VPN ? Un grand obstacle était la dépendance à IPv6. De plus, la virtualisation était impossible. Ces obstacles appartiennent désormais au passé. Dans Windows Server 2012, DirectAccess fonctionne avec IPv4 sans devoir passer par des technologies de conversion, et le serveur exécutant DirectAccess en périphérie du réseau peut désormais être une machine virtuelle Hyper-V. La version Windows Server 2012 de DirectAccess est également plus simple à configurer, grâce au nouvel assistant.

9. ReFS

Malgré les nombreux avantages qu’offre NTFS par rapport aux premiers systèmes de fichiers FAT, il est en place depuis 1993 et les aficionados de Windows attendaient un nouveau système de fichiers depuis longtemps. En 2004, nous attendions avec impatience WinFS, mais Vista nous a déçus en ne l’incluant pas. De même, des spéculations ont très vite couru sur l’introduction d’un nouveau système de fichiers avec Windows 7, mais cela n’a pas été le cas.

Windows Server 2012 nous apporte ce nouveau système de fichiers tant attendu : ReFS, ou système de fichiers résilient. Il prend en charge beaucoup des fonctionnalités de NTFS, mais en laisse quelques autres de côté, les plus notables étant peut-être la compression de fichiers, l’EFS et les quotas de disque.

En échange, ReFS nous offre la vérification des données et la correction automatique, et est conçu pour fonctionner avec les espaces de stockage pour créer des zones de stockage logique réductibles/extensibles. Le nouveau système de fichiers favorise une évolutivité maximale, prenant en charge jusqu’à 16 exaoctets dans la pratique. (Il s’agit du maximum théorique dans les spécifications NTFS, mais en réalité, il est limité à 16 téraoctets.) ReFS accepte une limite théorique de 256 zétaoctets (plus de 270 milliards de téraoctets), ce qui autorise une grande montée en charge.

10. Gestion simplifiée des licences

Quiconque a travaillé avec des licences serveur objectera que l’expression même de « gestion simplifiée des licences » est un oxymore. Néanmoins, Microsoft a écouté les clients qui sont désorientés et frustrés par la complexité lorsqu’ils doivent trouver l’édition appropriée et comprendre ce qu’elle va coûter réellement. Windows Server 2012 est proposé dans quatre éditions seulement : Datacenter, Standard, Essentials et Foundation.

Les deux premières sont proposées avec une licence par processeur plus une licence d’accès client, et les deux autres (à destination des petites entreprises) avec une licence par serveur et des limites quant au nombre de comptes d’utilisateur (15 pour l’édition Foundation et 25 pour l’édition Essentials). Pour connaître les détails de licence pour chaque édition, rendez-vous sur le site de Microsoft.

Site Web : http://www.microsoft.com/en-us/server-cloud/windows-server/buy.aspx

Source : http://www.zdnet.fr/actualites/windows-server-2012-dix-bonnes-raisons-de-migrer-39782677.htm#xtor=EPR-108