Peu de termes technologiques ont fait autant parler de la technologie que le big data au cours de la dernière année. Cependant, malgré toutes les discussions sur les avantages commerciaux que le Big Data pourrait apporter, il a été oublié que de nombreuses entreprises n’ont pas encore pris de mesures pratiques pour déployer une stratégie Big Data..

Dans une enquête récente menée à Talend, seulement un échantillon sur dix de notre échantillon a déclaré être réellement engagé dans un déploiement à grande échelle. C'était en hausse de seulement 2% un an plus tôt, mais toujours décevant.

La vérité est que le marché du Big Data en est encore à ses balbutiements aujourd'hui. Nous avons constaté beaucoup d’intérêt sur le marché - et cet intérêt est en train de croître. Donc quel est le problème? Qu'est-ce qui a freiné les entreprises jusqu'à présent? Et voyons-nous des signes d'un changement?

Les contraintes

Les deux principales contraintes que nous avons identifiées dans notre enquête étaient les restrictions budgétaires et les pénuries de main-d'œuvre, deux facteurs largement reconnus comme l'un des principaux obstacles à toute entreprise informatique..

L'ampleur potentielle de la plupart des projets Big Data explique les problèmes financiers. En outre, les compétences sont essentielles, car les mégadonnées exigent que les personnes soient en mesure d’intégrer un grand nombre de sources de données disparates vastes et inflexibles, ainsi que des scientifiques expérimentés pour analyser les flux de données collectifs..

Vous pourriez soutenir que ces obstacles concernent plus la perception que la réalité. La vérité est que les projets de données volumineuses ne doivent pas nécessairement coûter très cher.

La possibilité d'exécuter des bases de données et des outils d'intégration open source sur une plate-forme Hadoop à source ouverte permet aux applications d'intégration et d'analyse Big Data d'être exécutées de manière rentable sur des clusters de serveurs de base, réduisant ainsi les dépenses en matériel. Et les dernières avancées technologiques aident à combler le déficit de compétences.

Le cabinet d’analystes Gartner définit les mégadonnées comme "une combinaison de ressources d’information volumineuses, rapides et variées qui exigent des formes de traitement de l’information novatrices et économiques, pour une prise de décision et une analyse approfondies". Et cette innovation est essentielle pour aider les développeurs et les utilisateurs à masquer la complexité sous-jacente du Big Data..

Le vent du changement

L'année dernière, nous avons vu des signes indiquant que le big data commençait à se produire. Ce fut une année d'expérimentation, une année où de nombreuses organisations procédaient encore à des démonstrations de concept. C'était encore une technologie embryonnaire.

Très peu d'organisations avaient quitté le bac à sable et commencé à fournir des cas d'utilisation productifs - et moins encore avaient un retour sur investissement ou des résultats tangibles auxquels se référer, mais la promesse était là..

En 2014, de plus en plus d'entreprises "commençaient à se mouiller" avec le Big Data, mais nous verrons également de plus en plus le Big Data récolter les fruits des essais de 2013, franchir le gouffre et entrer dans l'adoption généralisée..

De nouvelles technologies font leur apparition qui permettent le big data opérationnel et en temps réel; des plates-formes technologiques sont disponibles pour aider les entreprises à investir dans de gros volumes de données.

Ainsi, un nombre croissant d’entreprises se lancent dans des projets Big Data et commencent à obtenir des résultats de leurs implémentations Big Data. Le Big Data en est peut-être encore à ses balbutiements aujourd'hui, mais c'est l'année où il commencera à arriver à maturité.

  • Yves de Montcheuil est vice-président du marketing chez Talend, spécialiste de l'intégration open source..