Après le cloud hybride, le multicloud se présente comme l'étape naturelle dans la courbe d'adoption des technologies cloud. Une entreprise n'a pas envie de reproduire le phénomène d'enfermement propriétaire qu'elle a connu avec les grands éditeurs d'ERP. En recourant au multicloud, une organisation sélectionne, provider par provider, les services les plus compétitifs ou les plus innovants à un moment donné. En répondant au plus près aux besoins de directions métiers, cette approche permet de réduire le shadow IT, à savoir ces bouts de système d'information développés sous le radar de la DSI.

Le multicloud permet, par ailleurs, à une entreprise de compléter sa couverture géographique et de se prémunir des éventuels risques de défaillance d'un de ses fournisseurs. La crise sanitaire n'a fait que renforcer cette recherche de performances et de résilience. Selon une étude de l'éditeur américain Flexera, 92% des organisations ont une stratégie multicloud. Les hyperscalers ne pouvaient pas passer à côté de cette tendance lourde du marché. Google Cloud a très tôt préparé le terrain au multicloud en généralisant le recours aux technologies open source et en lançant, en 2019, Anthos, une cloud management platform (CMP) permettant de déployer des applications sur différents environnements cloud. Avec BigQuery Omni, en disponibilité générale depuis octobre, Google Cloud pose une pierre supplémentaire à l'édifice.

Analyse inter-cloud depuis un seul écran

BigQuery Omni vient résoudre un effet contreproductif du multicloud. En multipliant les fournisseurs, une entreprise vient à reproduire dans le cloud ce qu'elle a fait dans le monde on-premise, à savoir créer des silos de données chez différents fournisseurs. BigQuery Omni se propose de casser ces silos. Ce "service d'analyse multicloud" utilise l'interface de BigQuery pour interroger des données qui se trouvent sur les clouds de Microsoft Azure et d'AWS sans avoir à les déplacer ou les copier.

"L'objectif est de mettre en relation, de façon transparente, simple et sécurisée, les données se trouvant sur différents clouds"

Un utilisateur peut ainsi procéder à des analyses inter-cloud à partir d'un seul écran. Il lui suffit d'écrire une requête SQL standard dans la console cloud pour interroger des données stockées sur Amazon S3 ou Blob Azure. "L'objectif est bien de mettre en relation, de façon transparente, simple et bien entendu sécurisée, les données des entreprises qui se trouvent dans différents clouds", résume Franck Zerbib, directeur technique France de Google Cloud.

Pour le cloud américain, ce nouveau service s'inscrit dans la logique qui a prévalu à la création de BigQuery, à savoir tirer de la valeur des données où qu'elles se trouvent et sans investissements lourds. Parmi les cas d'usage, Franck Zerbib cite l'optimisation d'une chaîne logistique en réconciliant des données issues des achats en ligne avec celles venant des points de paiement en magasin et, ce, sur différents pays ou régions.

Autre exemple mis en avant par Google Cloud, celui d'un acteur des médias qui souhaitait optimiser ses campagnes marketing en améliorant la personnalisation des annonces ciblées tout en réduisant le coût par clic. Pour cela, il lui fallait réunir des données distillées dans les clouds d'AWS, Microsoft Azure et Google Cloud. Google Cloud n'a cité pour l'heure que Johnson & Johnson comme référence client mais le service aurait déjà séduit des groupes européens.

Performances, coûts, sécurité

Grâce à l'architecture du service qui sépare le calcul du stockage, l'utilisateur n'a pas à déplacer physiquement les données vers BigQuery. Le traitement se fait depuis le lieu d'emplacement des données. Cette approche permet, selon Google Cloud, de gagner en performances (les requêtes s'exécutant dans la même région où résident les données), en coûts (pas de frais supplémentaires liés à la sortie des données sur de AWS ou Azure) et de facto en sécurité.

"Il est aussi possible d'écrire les résultats directement dans Amazon S3 ou dans le service de stockage d'objets blob d'Azure"

BigQuery Omni utilise pour cela "les rôles d'AWS IAM ou d'Azure Active Directory pour accéder aux données de votre abonnement", précise le provider. Les résultats de la requête peuvent être renvoyés à Google Cloud via une connexion sécurisée. Il est aussi possible d'écrire les résultats directement dans Amazon S3 ou dans le service de stockage d'objets blob d'Azure. Google déploie et gère automatiquement les clusters qui exécutent BigQuery Omni, en mode serverless, et sans intervention de l'utilisateur.

Sur le plan tarifaire, Google Cloud propose un forfait qui correspond à une capacité dédiée au traitement de requêtes, mesurée en "emplacements" sur AWS ou Microsoft Azure. Sur la base d'un engagement, mensuel ou annuel, l'utilisateur est facturé à la seconde par tranches de cent emplacements. Un engagement est souscrit pour une seule région. Pour l'heure, seules deux zones sont disponibles (Azure US East 2 et AWS US East 1). Une couverture qui devrait s'étendre à d'autres pays que les Etats-Unis dans les mois à venir, selon Franck Zerbib.

Quid des données en mouvement ?

Ingénieur émérite chez Solace, Jamil Ahmed salut le parti pris de Google Cloud de faire du multicloud une priorité. Il regrette toutefois que BigQuery Omni ne soit dédié qu'à un seul service (BigQuery) et ne s'applique pas à tous les services de Google Cloud. "Si une organisation souhaite utiliser la capacité d'apprentissage automatique Vision AI de Google pour analyser des images afin d'extraire du texte, ce service ne peut lire que le Cloud Storage Bucket de Google pour toute entrée basée sur des fichiers", constate-t-il.

Par ailleurs, il note que la solution s'applique uniquement aux données au repos, issues de fichiers et de bases de données, et non aux données en mouvement (ou en streaming) générées, par exemple, par un capteur IoT. Et si le service maison Pub/Sub permet d'injecter ces données événementielles dans BigQuery, il se limite aux flux émanant de l'environnement de Google Cloud. Une application hébergée dans AWS ne sera pas éligible.

"Alors qu'Omni reconnaît la nécessité de briser les silos de données, Google ne répond pas à ce problème pour le streaming de données en temps réel", tranche Jamil Ahmed. En réponse à cette remarque, Franck Zerbib estime qu'en couvrant les données au repos, Omni s'attaque déjà à une demande très forte du marché. Sans dévoiler la feuille de route R&D du service, il promet un enrichissement de la solution. D'ores et déjà, Google Cloud prévoit, en 2022, le transfert de données entre le cloud et des "tables externes autorisées", sans plus de précision.


Source link