Flash est mort

Les plus jeunes d’entre vous ne l’ont peut être pas connu.

flash3A une époque, pour effectuer des animations sur le web, on utilisait un plugin. C’est en gros un composant externe qui venait afficher du contenu dans une page web. C’est un peu bizarre dit comme ça, mais à l’époque ça semblait cohérent.

Cela permettait d’afficher des animations. Ce qui était assez plaisant, même si la consommation en ressources était particulièrement élevée.

Puis le mobile est arrivé. Avec des contraintes techniques élevées.

Quelques versions mobiles de Flash se sont développées, mais cela nécessitait de toutes manières une adaptation de l’ergonomie des sites. Pour un résultat loin d’être concluant.

hqdefault

D’autant que sur mobile, Apple a toujours refusé Flash. Et les apps ont très vite concurrencé les « jeux Flash » dans le quotidien de chacun.

Flash fut un temps utilisé pour lire les vidéos. Avant d’être remplacé par le HTML5 et son codec H264 qui permet de lire des contenus en streaming sur tous les appareils avec une consommation d’énergie minimale.

Pour ne rien arranger, cette technologie est un vrai gruyère en matière de sécurité.

Abandonnée par son propre concepteur (Adobe) au profit du HTML5, du javascript et du SVG, cette technologie n’a plus de raison d’être.

Google vient d’annoncer le retrait progressif de son support dans le navigateur Chrome.

Dès janvier, les utilisateurs seront invités à accepter ou non l’utilisation de Flash pour les nouveaux sites.

A partir d’octobre 2017, quasiment tous les sites devront se conformer à cette règle d’acceptation par les utilisateurs. Tous sauf les plus gros sites (Amazon, etc) qui nécessitent une maintenance plus longue.

Flash a connu son apogée dans les années 90-2000.

Après 10 ans d’agonie, il est temps de tourner la page.

Merci Flash et bonne retraite !

Quoi de neuf chez Morin Innovation ?

Après avoir fait des blagues potaches pour le 1er avril, il est toujours intéressant de connaître la – véritable – actualité de l’entreprise.

Et bien, de nombreux projets en cours et à venir. Notamment grâce à Hopwork et aux rencontres Niort Numeric.

Du service web sécurisé et performant

Dans le cadre d’un projet de startup, j’ai mis en place un service web garantissant une sécurité optimale. Pas parfaite, je n’ai pas cette prétention. Mais répondant à de hauts critères en matière de sécurité et de performances.

Ruby on Rails : on passe la 5ème

Le service web étant mis en production cet été, le développement a été réalisé avec Ruby on Rails 5, la dernière mouture du framework web, actuellement dans ses dernières versions beta.

Comme toujours, l’outil tient ses promesses et propose un socle solide pour le développement en mode agile.

OAuth2 : authentification sécurisée

Le service web étant destiné à une application mobile, l’accès à ce dernier doit être sécurisé tout en conservant une certaine souplesse et de bonnes performances.

Le protocole OAuth2 offre cette possibilité tout en restant sur une architecture standard.

Ajoutez à cela une protection SSL solide, le bon suivi des règles de sécurité OWASP et le tour est joué.

Authenticité des utilisateurs

Quand on échange des données confidentielles, on aime que les personnes sur le réseau soient des personnes de confiance.

La mise en place d’une validation par email et/ou SMS en amont de l’inscription permet de s’assurer – dans une certaine mesure – que les utilisateurs de la plateforme sont de vraies personnes.

Authentification à plusieurs facteurs

Un simple mot de passe peut parfois suffire.

Pour un service web nécessitant un certain niveau de sécurité et de confidentialité, ce n’est pas suffisant.

L’utilisateur à le choix d’activer l’authentification à plusieurs facteurs.

S’il l’active, il reçoit un SMS permettant de valider son identité lors de la première connexion au service sur un même appareil.

Liens courts

Les liens courts permettent de faciliter l’échange de liens : un lien court est facile à recopier et très efficace en QRCode.

En plus, dans un SMS, ça prend moins de place.

Une app iOS moderne sécurisée

IOS offre de nombreux mécanismes de sécurité. Encore faut-il savoir les utiliser à bon escient.

Deeplinking et liens universels

Le deeplinking permet d’ouvrir une app via un format de lien spécifique.

Le lien universel – introduit par iOS 9 – permet d’ouvrir directement une app au bon endroit grâce à un lien vers un site.

Ce procédé permet de renforcer la qualité de l’expérience utilisateur tout en conservant un niveau de sécurité élevé.

Connexion sécurisée aux services web

L’application actuelle est – comme la plupart des applications – connectée à un service web.

Même si la connexion est sécurisée, les identifiants permettant de se connecter aux services web avaient – jusqu’à récemment encore – la fâcheuse habitude d’être intégrés au code source de l’application. Et donc potentiellement récupérables en cassant la sécurité l’application.

Depuis iOS 8, on peut s’affranchir du stockage de ces précieuses données. L’accès au code source en lui-même ne permet pas le piratage car il ne contient pas les identifiants de connexion. (si vous voulez savoir comment je fais, n’hésitez pas à me contacter 🙂 )

Stockage sécurisé des données

IOS propose des mécanismes permettant de sécuriser le stockage des données : autant les exploiter. Toutes les données personnelles de l’app sont chiffrées par le système.

La sécurité des données confidentielles est une question de confiance vis à vis des utilisateurs. Il est essentiel de la garantir.

Accès sécurisé au contenu

Souvent, la sécurité concernant les images et autres contenus stockés sur des CDN se résume à « cacher » l’URL de la ressource en espérant que le contenu ne soit pas vu.

Le système mis en place nécessite l’utilisation d’une signature générée grâce à un identifiant et une clé pouvant eux-même changer. En clair, on ne tombe pas dessus par hasard.

Les performances et l’expérience utilisateur

Ceux-ci sont également essentiels, mais restent plus « classiques ».

On utilise les dernières techniques iOS 8 et iOS 9, avec une bonne dose de Swift, un usage intelligent des différents niveaux d’exécution des tâches et le tour est joué.

To be continued…

Le projet est en cours. D’autres projets vont arriver.

Et, cet été, ce sera – normalement – l’arrivé du successeur de iOS 9 : tout un programme !

À suivre…

Retour vers le futur… du web

Un petit rafraîchissement de mémoire ne fait jamais de mal.

Dans cet article, nous allons suivre toute l’évolution de l’hébergement. L’idée est de comprendre ce qui a construit le web d’aujourd’hui et ce qui construira le web de demain.

Ce document reste une vulgarisation de l’histoire. Google vous aidera à trouver les éléments précis, mais l’idée est là.

En avant pour un fabuleux voyage dans le temps !

L’an zéro du net

Au début, il y avait juste des ordinateurs qui voulaient communiquer à longue distance. Avant même d’avoir défini un protocole.

1969 : ARPANET

Avant internet et le web, il y avait déjà un premier réseau inter-connecté. L’idée était de connecter des machines entre elles en envoyant des paquets de données. Le 20 septembre 1969, ce réseau fut enfin fonctionnel. Le projet était alors porté par les militaires et les universitaires.

En 1974, le protocole TCP/IP (Transmission Control Protocol / Internet Protocol) est développé afin de standardiser les communications. Il sera adopté en 1983 par ARPANET.

Il n’y avait que 23 noeuds de communication en 1971. En 1984, il y en avait déjà plus de 4 millions !

1973 : Internet est né

Même si le terme Internet est déjà utilisé en 1972, il est officialisé à partir de 1973.

Il regroupe ARPANET ainsi que différents autres réseaux.

A l’origine, Internet permettait d’échanger des messages et des fichiers. Mais ça, c’était avant l’arrivée du web

1990 : émergence du Web

Au début des années 90 est arrivé le format HTML, permettant de rédiger du contenu interactif : un lien permet d’aller d’un document à un autre. Le World Wide Web (www) est né.

Et, pour faire communiquer ces pages entre elles, un protocole spécifique est également né : le HTTP (HyperText Transfer Protocol).

Sans le savoir, le premier service web est né : la consultation de pages web.

Le web de la génération 1.0

Dans les années 90, le web est donc rudimentaire. L’hébergement qui va avec l’est également.

Service minimal

À cette époque, les ordinateurs n’étaient pas performants. Les connexions internet étaient encore assez lentes. Les pré-requis étaient donc à hauteur du besoin.

Hébergement minimal

L’hébergement était très simple à l’époque. Un serveur physique (un ordinateur) fournissait des fichiers HTML, des images et même parfois du son.

En général, on envoyait le tout au travers du protocole FTP (File Transfer Protocol).

Un contenu souvent statique

Les technologies permettant de générer du contenu dynamiquement émergeaient à peine. Généralement, un site était juste un ensemble de page web entreposées et liées entre elles.

GNU/Linux et la scène underground

À cette époque, Microsoft et Apple se partageaient le monde. UNIX était présent, mais à un prix prohibitif. Le projet GNU visant à concevoir un système UNIX libre peinait à émerger.

Cependant, en 1991, le jeune Linus Torvald avait créé un noyau (lien entre le logiciel et le matériel) permettant d’améliorer un système d’exploitation de l’époque, Minix, reposant sur UNIX.

Comme son noyau n’est pas adopté par Minix, il décide de le distribuer sur le réseau Usenet, qui est l’un des moyens de communication web de l’époque. Son noyau – Linux – est alors adopté et amélioré par la communauté. Puis il est greffé au projet GNU, qui a tout sauf le noyau. GNU/Linux est né.

En 1993 naquit le projet Debian, qui a permis l’émergence de GNU/Linux en qualité de serveur sur Internet.

La sécurité

En 1995 est arrivé le protocole SSH, permettant de chiffrer les communications. En parallèle, le protocole SFTP est né en apportant la sécurité au protocole FTP de l’époque.

Egalement, étant donné que plusieurs utilisateurs pouvaient se partager un serveur, il fallait éviter que l’un puisse aller voir ce qui se passait chez l’autre. Pour cela, on utilisait « chroot » qui permettait de limiter la visibilité d’un utilisateur.

1995 : l’arrivée du web dynamique

À partir de 1995, la révolution du web est entrée dans nos foyers et nos entreprises.

Nous sommes devenus des consommateurs de contenu. Et c’est à cette époque qu’émergea le web dynamique.

Que l’on soit plutôt CGI, plutôt Python, Perl, PHP, ASP, Java ou bien Ruby, un seul mot d’ordre : les scripts devaient générer à la volée du HTML.

En d’autres termes, on ne faisait plus appel à des pages HTML qui affichaient du contenu HTML : on faisait appel à des scripts qui affichaient du contenu HTML.

2000-2005 : l’émergence du web dynamique

Malgré la fameuse bulle de l’Internet à la fin des années 90, le web a continué sa fulgurante croissance au début des années 2000.

2002 : Xen révolutionne la virtualisation

A cette époque, la virtualisation se résumait à simuler un environnement matériel dans un système d’exploitation. En clair, s’était lent et lourd à gérer.

C’est alors qu’est apparu le projet Xen : un système pouvait être virtualisé en utilisant directement les ressources du noyau. C’est là que tout a changé : en utilisant directement les ressources matérielles, un ordinateur pouvait faire fonctionner en parallèle 3 systèmes d’exploitation sans subir de contraintes énormes en termes de performances.

Et tout à changer en matière d’hébergement. Un ordinateur pouvait héberger 3 serveurs, un serveur pouvait migrer en temps réel d’un ordinateur à l’autre sans être arrêté.

La paravirtualisation est née. Et elle a depuis fait beaucoup de chemin.

2004 : les réseaux sociaux

L’interaction entre les personnes au travers d’Internet existait déjà depuis un certain temps.

La simplicité nécessaire est alors née de l’idée de passer par le web pour communiquer. Les réseaux sociaux sont nés, notamment Facebook dont la première version est sortie en 2004.

Et ils connaîtront un essor énorme, révolutionnant le web.

2005 : le web 2.0 et les services web

Petit à petit, les performances des navigateurs web se sont améliorées. Et notamment le fameux langage Javascript qui est passé progressivement de très lent à correct pour faire partie aujourd’hui des plus rapides.

Le web 2.0

Derrière ce terme marketing se trouve une révolution des usages du web : les utilisateurs interagissent sur le contenu. Dorénavant, une page web peut en générer une autre (principe du blog), on peut gérer une boutique en ligne, on peut partager des photos.

Le tout à partir d’une simple page web, contenant du HTML, du Javascript et du CSS pour la mise en forme.

Les services web

Le web 2.0 a apporté de nouveaux usages. Le contenu dynamique nécessite de nouvelles technologies.

C’est l’émergence du format XML, qui permet de représenter des données dans un format balisé. Son successeur sera par la suite JSON, plus performant en matière de compression, de compréhension et d’analyse.

Les services web SOAP et REST sont apparus, permettant de tout connecter au web et ouvrant cette interactivité à de nouveaux horizons.

2006 : le cloud

C’est Amazon qui fut l’un des pionniers du marché, avec ses fameux Amazon Web Services (AWS).

L’idée est simple : vous ouvrez un compte AWS et vous utilisez des services à disposition. Tout est virtualisé, vous ne payez que ce que vous consommez.

Les machines virtuelles proposées sont extensibles, sauvegardables, transférables.

Les données sont stockées sans limite.

C’est une véritable révolution dans le monde de l’informatique. Tout devient possible.

2007 : le web sort de l’ordinateur

Avec la démocratisation des smartphones (Nokia puis Apple, suivis par Google et Microsoft), le web n’est plus rattaché au navigateur de l’ordinateur.

Les applications mobiles sont interconnectées avec des services web. On peut prendre une photo depuis une application pour qu’elle s’affiche sur un site web. Et le tout est hébergé chez Amazon. C’est l’histoire d’Instagram.

Les réseaux sociaux sont connectés. Tout émerge.

2010-2015 : l’émergence de nouveaux besoins

Fin 2008, le monde a connu une crise sans pareil.

Le web s’est développé au travers des smartphones. Les réseaux sociaux sont devenus de plus en plus présents.

Des services professionnels se sont développés. Le web est devenu une source d’opportunité de développement pour de nombreuses structures.

Le cloud est rentré dans les moeurs et s’est banalisé.

Les objets connectés ont fait leur apparition.

IaaS, PaaS, Saas

Grâce au cloud, de nouveaux services sont apparus.

Les IaaS (Infrastructure as a Service) permettent de disposer d’un serveur virtualisé instantanément. Et ces serveurs peuvent être démarrés à la demande, pour gérer par exemple une affluence exceptionnelle ponctuelle sans avoir à débourser une fortune en amont.

Les PaaS (Platform as a Service) permettent d’aller encore plus loin. Les serveurs virtualisés sont prêts à l’emploi : sécurisés, optimisés. Il n’y a plus qu’à envoyer le contenu l’application web dessus, généralement au travers d’un dépôt de code source type Git. A chaque mise à jour du code (pouvant être automatiquement validée), l’application web est déployée sur tous les serveurs disponibles. Et, bien entendu, en un clic on peut revenir à la version précédente.

Les SaaS (Software as a Service) sont les logiciels connectés que nous utilisons tous aujourd’hui : Google Apps, Office Online, et autres. Le logiciel évolue en permanence et est 100% hébergé. Généralement facturé mensuellement, il permet une souplesse de gestion.

Le web de 2016

Plusieurs révolutions pourraient bien intervenir dans les prochains mois.

Docker et Kubernetes : la révolution des conteneurs

Jusqu’à aujourd’hui, la meilleure solution pour déployer une application web était la machine virtuelle, avec les avantages qu’on lui connait.

Docker et son partenaire Kubernetes proposent un fonctionnement complémentaire : à l’instar de « chroot », mais de manière plus poussée, il est possible de déployer une application dans un conteneur isolé. Quelle que soit la plateforme d’accueil.

Ce procédé est plus léger qu’une machine virtuelle et répond à un réel besoin pour le déploiement rapide d’applications web.

C’est également un excellent outil DevOps dans le sens où on peut parfaitement développer et tester une application dans un environnement exactement identique à l’environnement de production.

Docker permet de concevoir ces conteneurs et Kubernetes permet de les gérer.

Les objets connectés

Plus ou moins limités en ressources, avec des usages et des profils différents, les objets connectés sont une véritable révolution.

Cette révolution va, une nouvelle fois, nous forcer à inventer de nouvelles technologies et de nouveaux usages.

La 3D et la réalité virtuelle

Avec l’émergence de la 3D dans le navigateur web grâce au WebGL, de nouveaux usages sont à imaginer.

D’autant que la réalité virtuelle va très certainement prendre une dimension sociale et sociétable dans les années à venir.

2020 : apogée du Web 3.0 ?

Ces nouveaux usages qui se présentent à nous sont les indicateurs d’une nouvelle révolution du numérique.

Ces usages sont encore timides, jusqu’à ce qu’ils deviennent standards. Dès lors, nous pourront parler du Web 3.0.

A nous de le construire !

Projet AMP : pour un web mobile plus rapide

Le projet AMP (AMP = Accelerated Mobile Pages) est un projet open-source à l’initiative de Google.

Cette initiative est venue des éditeurs de contenu (les journaux, les blogs) et des éditeurs technologiques (Twitter, LinkedIn, etc) afin d’accélérer le chargement du contenu sur mobile.

Quel intérêt ?

Une page de contenu se chargerait entre 15 % et 85 % plus rapidement sur un mobile.

C’est donc un confort de lecture optimal pour tout ce qui touche au contenu rédactionnel.

Comment ça fonctionne ?

Pour faire simple :

  • un framework Javascript simplifié optimisant le chargement du contenu
  • très peu de Javascript
  • du HTML amélioré avec une syntaxe allégée
  • du CSS minimal pour un rendu personnalisé
  • des composants optimisés clés en main (amp-video, amp-img, amp-twitter, amp-lightbox, amp-ad, etc)

Quelle est la date de disponibilité ?

Le projet est accessible en open-source sur GitHub depuis le 7 octobre 2015.

Il va ainsi évoluer avec les avancement de la communauté de sorte à pouvoir progressivement définir des spécifications précises.

Les principaux contributeurs

Côté éditeurs, parmi les plus connus :

  • BBC
  • BuzzFeed
  • The Economist
  • Financial Time
  • El Pais
  • The Guardian
  • Les Echos
  • The Huffington Post
  • The New York Times
  • Time
  • The Wall Street Journal
  • The Washington Post
  • Mashable

Pour ce qui est des partenaires technologiques :

  • Google
  • Adobe Analytics
  • LinkedIn
  • Twitter
  • Pinterest
  • WordPress.com

La Fibre à usage pro, 3 mois plus tard

En juillet, j’ai souhaité apporter mon témoignage sur la mise en place de la Fibre optique Orange.

Voici un complément, avec une expérience plus complète et plus aboutie.

État de l’art : tout fonctionne

Pour faire court, je n’ai pas eu à déplorer de problème majeur.

Le débit est toujours au rendez-vous. La connexion est stable.

Les services fonctionnent globalement bien, si ce n’est quelques rares petits caprices télévisuels. (image figée par exemple)

Ce qui est juste mieux

Le premier usage naturellement fascinant est le téléchargement. On fait la même chose qu’avant, mais en moyenne 15 fois plus vite. Par exemple, Office 2016 (un peu plus d’1 Go) a été téléchargé en une minute.

Un vrai gain de temps quand on travaille dans l’innovation et que l’on doit télécharger ou envoyer de gros paquets de données quotidiennement.

Les déploiements sont rapides. Les téléchargements également. C’est optimal.

Ce qui change pour l’entreprise

Là où l’usage de l’internet change vraiment, c’est qu’on se rend rapidement compte que l’accès aux données stockées sur Internet est – grosso modo – aussi rapide que l’accès aux données du réseau local. Et là, ça change la donne.

A commencer par le stockage des données : on peut se permettre de sauvegarder plus, plus régulièrement et surtout plus efficacement.

Le stockage des codes sources peut se faire à distance (via GitHub ou Visual Studio Online par exemple).

Evidemment, l’important est d’avoir un environnement sécurisé :

  • authentification via certificats SSH pour les codes sources sur Git
  • authentification à 2 facteurs pour l’accès aux comptes
  • chiffrage des données sur le réseau
  • protection de l’accès aux OS (identification utilisateur, effacement à distance)
  • chiffrage des données des disques durs
  • protection des accès au réseau
  • protection de l’accès aux données sur les serveurs des partenaires
  • etc

Dès lors que l’on s’assure un environnement protégé, le « danger internet » est minimisé au profit de la protection et de la sauvegarde des données.

Le risque industriel est ainsi plus facilement écarté : l’entreprise est complètement dématérialisée dans un environnement protégé. En ayant en complément des sauvegardes locales, tout l’environnement de travail et tout le travail réalisé pour les clients se trouve protégé.

Prenons un exemple catastrophique : destruction totale du matériel et des locaux (vol, incendie ou autre). En prenant n’importe quel matériel, depuis n’importe quelle connexion (fibre, de préférence 😉 ), l’activité peut immédiatement redémarrer là où elle s’est arrêté.

C’est cette dimension qui fait réellement la différence : l’internet devient quasiment aussi performant que le réseau local. (dans mon cas, il est aussi performant, car mon WiFi est limité à 200MB)

Le futur du web se dessine aujourd’hui

Avec l’arrivée de Windows 10, mise à jour gratuite pour les utilisateurs des versions 7, 8 et 8.1, Microsoft a réussi à se réconcilier avec le web.

Notamment grâce à l’intégration de son navigateur Edge, remplaçant Internet Explorer, qui reste malgré tout disponible « au cas où ».

Et cela pourrait bien être une nouvelle révolution de l’internet moderne.

Internet Explorer et les autres

Dans la famille des navigateurs web, on a souvent distingué Internet Explorer des autres navigateurs. En effet, ce dernier a longtemps été le mauvais élève.

Mal sécurisé, peu performant, ne respectant pas les standards et étant en retard sur les fonctionnalités, le navigateur de Microsoft est la bête noire des concepteurs de sites et applications web.

Pour ne rien arrangé, il est le seul – avec Safari – à ne pas se mettre à jour automatiquement.

A contrario, les autres principaux navigateurs web (Chrome, Firefox, Safari, Opera) sont à la pointe des technologies modernes.

Mais les choses changent.

Windows 10 et Microsoft Edge

Windows 10, dont l’objectif d’adoption pour Microsoft est de 1 milliards d’appareils (ordinateurs, tablettes, smartphones, XBox One, Hololens, IoT) d’ici 2 à 3 ans, va bien évidemment apporter sa pierre à l’édifice.

Sorti il y a moins d’un mois, le nouveau système de Microsoft a déjà dépassé les 50 millions d’utilisateurs.

S’il intègre Internet Explorer pour la compatibilité, le coeur de Windows 10 est son nouveau navigateur web Microsoft Edge.

Au delà d’intégrer les standards les plus récents du web en se hissant quasiment au même niveau que ses concurrents, Edge a réussi à améliorer ses performances en devenant le plus rapide pour naviguer sur Windows. Egalement, le nouveau né de Microsoft se met à jour automatiquement. Ce qui garantit une évolution permanente. Sa sécurité et sa stabilité n’ont également rien à voir avec ce que son ancêtre proposait. Et, cerise sur le gâteau, il fonctionne également sur les autres plateformes de Microsoft, ce qui signifie les tablettes, les smartphones et – a priori – la XBox One.

Du bonheur pour les concepteurs de solutions web.

Internet Explorer : suite et fin (surtout fin)

Si Internet Explorer représente encore autour de 15 % des navigateurs, ses plus anciennes versions (8 , 9 et 10) ne représentent que 5-6 % de l’ensemble. Et encore, les chiffres datent de début 2015.

Le premier coup de massue a été l’annonce le 8 avril 2014 de la fin du support de Windows XP, et par extension Internet Explorer 8. En gros, si vous utilisez Windows XP aujourd’hui, votre ordinateur est une porte ouverte sans limites aux virus et autres failles de sécurité. En même temps, Windows XP date de 2001, soit quasiment 15 ans !

Windows Vista n’a pas vraiment marché. D’où la faible part de marché de Internet Explorer 9 (environ 2-3 %). Ce qui amène à Windows 7, une réussite par rapport à son prédécesseur, qui est arrivé avec Internet Explorer 10 (PdM de 1 %) rapidement remplacé par son successeur Internet Explorer 11, disponible sur Windows 7, 8 et 10.

Sachant que la dernière version du navigateur Internet Explorer est la moins pire, et que chaque utilisateur d’Internet Explorer 11 pourra migrer gratuitement vers Edge, l’avenir du web est plutôt prometteur !

En effet, il y a fort à parier que d’ici quelques mois les parts de marché déjà faibles de Internet Explorer 8, 9 et 10 (5-6 %) vont bientôt passer sous la barre fatidique des 5 %.

D’autant que bon nombre d’utilisateurs des anciennes versions de Windows ont tendance à utiliser Chrome et Firefox. Une tendance qui s’est accélérée en 2015.

De nouveaux horizons

Alors que la chute des navigateurs obsolètes n’est qu’une questions de mois, le monde du web est en pleine effervescence.

De nombreuses technologies encore inexploitées vont enfin pouvoir montrer tout leur potentiel.

Des outils pour les développeurs plus modernes

Le célèbre framework Javascript JQuery dans sa version 2 est compatible uniquement avec Internet Explorer 9 et supérieurs. Ce qui lui permet d’être plus léger et plus performant tout en ayant capacité à réaliser plus de choses.

Le framework CSS / Javascript de Twitter Bootstrap sera compatible uniquement avec Internet Explorer 9 et supérieurs dans sa version 4.

Le framework de conception d’applications web AngularJS n’est actuellement compatible qu’avec Internet Explorer 9 et supérieurs dans sa version 1.3.  Alors que pour la version 2 (sortie fin 2015) il n’est compatible qu’avec Internet Explorer 11 et supérieurs !

Des visuels plus beaux et plus légers avec le SVG

Jusqu’à récemment encore, les graphistes faisaient de magnifiques maquettes de sites dans Illustrator. Avec de belles courbes bien lisses, de beaux dégradés bien réguliers. Et le tout était massacré par la transformation en images PNG ou JPEG qui pixellisent et dégradent ce si beau travail.

Cette époque est révolue ! Grâce au SVG, nous pouvons afficher de beaux visuels vectoriels, lisses, propres, sur lesquels on peut zoomer à l’infini sans voir le moindre pixel.

Et, cerise sur le gâteau, on peut animer tout ça.

De la 3D et du jeu vidéo grâce au WebGL

Le WebGL permet d’exploiter des technologies similaires à celles du jeu vidéo, avec des performances très proches, le tout directement dans le navigateur web.

Plus besoin de plugins ou autres artifices. Les jeux Facebook, les jeux en ligne, les démonstrations de produits, les visites virtuelles.

Tout un monde s’ouvre à vous.

Des animations sans Flash

Alors que Flash est devenu complètement obsolète, il restait malgré tout jusqu’ici la meilleure solution pour animer le contenu.

Grâce aux animations CSS, SVG et autres technologies, les sites internet seront (encore plus) animés sans avoir besoin d’utiliser un plugin.

Du contenu accessible sans connexion

Le web nouveau intègre des technologies permettant de conserver tout ou partie des applications web, même hors connexion. La synchronisation se fait au retour de l’accès à Internet.

Et plein d’autres choses

Le streaming audio et vidéo, la vidéo-conférence, l’accès aux fonctionnalités intégrées au matériel, l’amélioration des performances.

Les exemples sont nombreux et divers. Ce qui est sûr : l’avenir du web est prometteur.

La mince frontière entre le site et l’application

Il y a encore peu de temps, utiliser des technologies web dans une application mobile était une hérésie. Le manque de compatibilité et les faibles performances rendaient la chose impossible à gérer correctement.

Mais, petit à petit, la situation change.

Les technologies web deviennent performantes.  On peut accéder en toute sécurité à de plus en plus de fonctionnalités sans être connecté.

Et, avec l’arrivée de Windows 10, Microsoft semble déterminé à faciliter la conception d’applications Windows (toutes plateformes) directement avec HTML, Javascript et CSS. Notamment grâce à Angular 2 qui facilite le travail du développeur.

Par exemple, un site téléchargé sous forme d’une application web installée pourra intégrer l’assistant virtuel Cortana en quelques lignes de code. (par exemple, on pourrait dicter « Allociné, quelles sont les films à l’affiche à Niort ? » ou « Courrier de l’Ouest, quelles sont les actualités de Niort ? ».

Ces technologies seront également intégrées, sur toutes les plateformes (Windows, Mac, iOS, Android), à la suite Office. Ce qui permettra d’interagir directement avec les outils professionnels sans avoir à quitter Word, Excel ou autre. Tout sera intégré.

Même si une application web n’aura jamais les qualités d’une application native, par essence, son utilisation dans un environnement productif devient envisageable. Et ça, c’est une petite révolution.

Une évolution des métiers du numérique

La mécanique de l’expérience utilisateur passera du serveur au client (le navigateur web), ce qui changera en profondeur les métiers des développeurs (qui devront se soucier de l’ergonomie), des designers (qui devront se soucier du code) et des professionnels du numérique de manière générale.

L’usage du cloud et des services web va devenir un élément prépondérant. Si ces technologies pouvaient encore être marginales jusqu’à aujourd’hui, ce pont entre les plateformes pourrait bien devenir prochainement la pierre angulaire du web.

Dans cette logique multiplateformes, interconnectée et intégrée, l’usage des micro-services devient une évidence. Nous ne faisons plus de grosses machines, mais des services minimaux qui sont efficaces et performants.

L’assemblage de la solution se passe du côté du client (application web, application mobile, jeu vidéo) et non plus du côté du serveur.

Au delà de la logique de performances, de qualité, de sécurité et de simplicité, c’est une logique d’usage intelligent des ressources qui se met en place. L’utilisation des machines devient plus raisonnée, limitée à ce qui est réellement nécessaire, tout en offrant une souplesse très confortable.

Petit point estival sur l’activité de Morin Innovation

L’été est là. C’est l’occasion idéale pour faire un petit point sur l’activité – évolutive par définition – de Morin Innovation.

Le travail de l’entreprise se faisant essentiellement en « marque blanche », aucun client ni partenaire ne sera cité publiquement. Merci de nous consulter pour en savoir plus.

Le web

Le web est une activité régulière de l’entreprise. Du service web sécurisé au site web sur mesure, les réalisations ne manquent pas.

Nous sommes en mesure de proposer des applications web offrant l’ouverture aux données grâce à un service web (REST) permettant d’accéder aux données depuis une application mobile (iOS, Android, Windows mobile), un site web ou toute autre plateforme.

Pour des performances optimales, nous proposons des hébergements dont la capacité peut être étendue à volonté et dont le coût s’adapte automatiquement. Le tout grâce aux technologies cloud. Nous utilisons également intensivement le principe de CDN offrant stabilité et performances. Nos systèmes de gestion du cache sont également utilisés pour un usage optimal des ressources.

Tous nos sites web ont un design responsive : ils s’adaptent automatiquement selon l’appareil utilisé pour la consultation. Que vous utilisiez un smartphone, une tablette ou un ordinateur, votre site sera affiché de manière optimale.

Sur la partie SEO (référencement Google, Bing), nous veillons à suivre les recommandations les plus récentes et effectuons des tests d’optimisation. Cette partie SEO est faite sur mesure et exploite également les technologies permettant un meilleur référencement sur les réseaux sociaux (Open Graph).

De manière générale, nous travaillons à proposer une expérience utilisateur optimale tout en profitant des dernières technologies.

Nos références en la matière sont nombreuses.

Le mobile

Nous avons développé de nombreuses applications mobiles et profitons d’une expérience permettant de mettre en pratique les meilleures méthodes en termes de développement mobile. Comme le montrent nos dernières références, réalisées et validées en temps et heures grâce à des solutions et des compromis permettant d’apporter la meilleure réponse  dans le meilleur délai aux problématiques.

Cette expérience date de fin 2008, lors de la diffusion des premiers kits de développement iOS (iPhone OS à l’époque) puis Android et dernièrement Windows mobile (ex Windows Phone).

Ce domaine de compétence vient, de plus, en parfaite adéquation avec les compétences liées au web, permettant ainsi de concevoir des applications connectées au web cohérentes d’un bout à l’autre de la chaine. Nous maîtrisons l’aspect mobile, l’aspect service web et la conjonction des deux. Le tout apportant une expérience utilisateur optimale.

Serious game, advergame

Le serious game vous permet d’aborder des problématiques sérieuses dans un cadre ludique.

L’advergame est la promotion d’un produit au travers d’un jeu vidéo gratuit.

Notre expérience dans ce domaine, dans le domaine du mobile et dans le domaine du web nous permet de vous offrir des produits cohérents, en phase avec les attentes des utilisateurs, tout en ayant une fiabilité et une performance technologiques optimales.

Cette compétence s’est récemment illustrée au travers d’un serious game compatible iOS (6.1 et +), Android (2.3 et +) et Windows mobile (8 et +). Le tout lié à un service web et un service d’analyse du comportement des utilisateurs. (Google Analytics)

Nous travaillons également à la mise en place de jeux compatibles WebGL et ordinateurs de bureau. Nous nous projetons également dans la compétence sur console de jeux.

Réalité virtuelle

Dans le domaine de la réalité virtuelle, nous avons travaillé sur les versions mobiles (Cardboard, Homido) et sur Oculus Rift.

Nous avons réalisé un premier prototype présenté au Salon du Printemps à Niort. Le succès fut au rendez-vous.

Réalité augmentée

Pour ce qui est de la réalité augmentée, nous avons une expérience de plusieurs années. Aussi bien dans le domaine de la réalité augmentée géolocalisée que par l’usage de « tags ».

Nous travaillons également à des prototypes utilisant les technologies Kinect et RealSense.

Hologrammes

Bien que la technologie ne soit pas encore accessible aux développeurs, nous imaginons ce que pourraient être les outils utilisés par HoloLens.

Avec les technologies à notre disposition, nous construisons des prototypes permettant d’illustrer des usages concrets.

Objets connectés, IoT

Grâce à Raspberry Pi 2, nous avons pu travailler aux premiers prototypes utilisant la version IoT de Windows 10. Le résultat est plutôt concluant.

Pour conclure

Comme vous pouvez le lire, notre domaine de compétences est très large.  D’autant que nous nous entourons des meilleurs partenaires pour tout ce qui sort de notre champs de compétences (modélisation 3D, design, graphisme, audio) afin de vous offrir le meilleur de l’innovation.

N’hésitez pas à nous contacter si vous souhaitez en savoir plus.

Vous pouvez également suivre notre actualité sur Twitter, Facebook et Google + .

A bientôt pour de nouvelles aventures !