NoCloud, revenir sur terre ?

Paul PETON
3 min readJan 3, 2021

En ce mois de janvier 2031, nous découvrons ce “mot qui bourdonne” (buzzword) à l’affiche de tous les salons digitaux : NoCloud. Et c’est bel et bien une véritable révolution dans le monde de l’IT qui est en train de se produire. Mais revenons tout d’abord sur les événements qui ont jalonné la dernière décennie et permis l’émergence de ce concept.

NoCloud Manifesto

En 2021, les DSI avaient acquis une certaine maturité dans le maniement des data lakes, des images Docker et des clusters Kubernetes au sein du cloud public. Elles se sont ensuite confrontées au défi du multicloud puis du cloud hybride, malgré les coûts engendrés par les transferts de données.

Quelques années plus tard, le dernier acteur du cloud public, la société AlibaMaZure, fusion de trois acteurs historiques, voit son chiffre d’affaires en baisse constante. Étonnamment, ce ne sont pas les pénalités imposées pour le coût carbone des data centers qui ont sonné le glas du cloud computing. En effet, les cloud providers avaient depuis longtemps travaillé à équilibrer leur bilan énergétique au travers de sources renouvelables. C’est donc le constat de l’absence de résultats probants dans l’exploitation des données qui fit fuir les DSI.

Multiplier les GPU, et leurs TeraFLOPS, pour construire des réseaux de neurones profonds aux milliards de milliards de poids synaptiques,entrainés des jours durant sur des pétaoctets de données, tout cela n’avait plus de sens. Le caractère exponentiel de cette approche avait refroidi les data engineers de manière inversement proportionnelle à la température des processeurs.

Côté métier, les utilisateurs se sont noyés dans des reportings dont la quantité et la rapidité de mise à jour, confinant à la volatilité, ont dégradé l’objectif initial d’aide à la décision. C’est au contraire un constat d’information overload qui est fait. Le cerveau humain, déjà peu enclin à la prise de décision rationnelle, n’est plus en capacité d’analyser les trop nombreux indicateurs fournis et le nombre pléthorique d’axes d’analyse proposés.

Bien sûr, les architectures on premises n’ont jamais réussi à relever le défi de la mise à l’échelle (scalability). Mais sur l’échelle de la valeur, les premiers barreaux sont bien souvent les plus valables !

Aujourd’hui, en 2031, le secteur industriel pratique couramment l’échantillonnage sur ses lignes de production, sur des volumes de 30 à 50 pièces. Dans le secteur des services, les départements Marketing mènent des enquêtes quantitatives auprès de panels, statistiquement représentatifs, d’environ un millier de personnes. Parfois, quelques focus groups permettent une approche plus qualitative des sujets.

Quelques conférenciers en vue ont ainsi commencé à propager le concept de Random Version of the Truth pour expliquer que la puissance mathématique de l’aléatoire permet de s’approcher d’une vision de la vérité tout à fait exploitable dans de nombreux domaines, par simple échantillonnage.

Avec une approche de la data faite de sobriété et de pragmatisme, les entreprises ont su se recentrer sur leur cœur de métier et leur clientèle. Seules quelques start-ups “data natives” ont réussi à trouver un modèle économique viable fait de services simples et intelligents : recommander un hôtel, optimiser un trajet, détecter un spam.

Revenir sur terre, en étant capable d’ouvrir un tableur sans ralentir son laptop, disposer d’une poignée d’indicateurs mais interprétés, obtenir des prévisions réalisées par des modèles statistiques interprétables, toutes ces pratiques constituent les bases de l’approche NoCloud.

Dans son épisode numéro 374, le célèbre podcast, rebaptisé Small Data Hebdo, reviendra sur ce phénomène d’ampleur qu’est aujourd’hui le NoCloud.

Ce article se positionne bien entendu entre fiction, poisson d’avril et prophétie d’un statisticien nostalgique. Toutefois, il engage à lancer une réflexion sur le sens et l’impact de nos métiers dans le secteur de la data.

--

--