GNU/Linux >> Tutoriels Linux >  >> Linux

Le défi et la promesse du Big Data

Au fur et à mesure qu'Internet s'est développé, la quantité de données et la mesure dans laquelle elles sont valorisées ont augmenté, notamment par le gouvernement et les sociétés cotées en bourse, même si même les petites entreprises apprécient les informations qu'elles collectent auprès de Google Analytics et de services similaires. Le stockage et l'examen des données sont considérés comme un moyen extrêmement puissant de fournir de meilleurs produits ; comprendre comment les gens utilisent les sites Web et les applications ; suivre les performances des employés ; déterminer le langage marketing le plus efficace ; et plus encore.

Selon les projections publiées par International Data Corporation, le marché du Big Data maintiendra un TCAC de 26 % jusqu'en 2018, lorsque les ventes de services de Big Data atteindront 42 milliards de dollars.

La valeur du marché nous indique que les entreprises investissent de grosses sommes d'argent dans des entreprises spécialisées dans la collecte, la compréhension et l'intégration de vastes pools de données - en d'autres termes, des services qui peuvent transformer les informations en meilleurs résultats.

Quelle est l'importance du big data ? Eh bien, les gens du vaisseau spatial sont dans le jeu.

Chris Mattman de la NASA déclare à propos des recherches de son employeur dans ce domaine :"La NASA gère probablement au total plusieurs centaines de pétaoctets, soit près d'un exaoctet."

Forbes le contributeur Joshua Steimle note qu'un exaoctet est une quantité extraordinairement vaste d'informations, 1 milliard de gigaoctets.

Inondé dans une mer de chiffres ?

Avec la technologie dont nous disposons désormais, les données peuvent s'accumuler si rapidement pour les entreprises que cela équivaut à une surcharge pour les bases de données traditionnelles - à la fois en termes de conservation et de sens. Les entreprises n'ont pas besoin de construire des fusées pour se sentir quelque peu dépassées par l'énormité des données à portée de main, affirme Steimle .

Chris Riquier, responsable Asie-Pacifique de Taylor Nelson Sofres, déclare avoir constaté l'impact dans un autre domaine :"Les études de marché ont été fondées sur des enquêtes et des sondages." Désormais, cela se fait en temps réel avec des informations provenant des médias sociaux, des moteurs de recherche et de nombreuses autres sources. Grâce à l'accent mis par les technologues sur la science des données et au raffinement continu de l'analyse, Riquier estime que notre "capacité à réagir au marché et à prendre des décisions a radicalement changé".

Trouver des modèles significatifs dans le Big Data a été un mystère pour de nombreuses entreprises. Cependant, les ingénieurs de données construisent des systèmes si solides que la tendance à collecter et à traiter les données aussi rapidement que possible est presque inévitable, selon un Harvard Magazine de 2014. rapport. L'article suggérait que des formules innovantes de "gros algorithmes" permettraient aux entreprises de bénéficier de la connexion et de l'intégration des magasins de données, ainsi que de la conversion des chiffres en une imagerie plus robuste et conviviale.

S'appuyant sur des techniques de recherche établies de longue date dans les domaines de la physique et de l'astronomie, les technologues et les experts culturels apportent leurs différentes perspectives sur le sujet pour un bénéfice mutuel.

Les auteurs du Big Data, Viktor Mayer-Schonberger et Kenneth Cukier, notent que l'analyse des données ne concerne pas seulement les choix individuels, mais modifie complètement la façon dont les entreprises prennent des décisions globales - après tout, l'analyse prédictive est censée être à la hauteur de son nom, donnant ceux qui l'utilisent une boule de cristal basée sur la logique et qui voit tout.

Les succès du Big Data incluent :

Google – Google a émis l'hypothèse que certains termes de recherche étaient probablement des indicateurs que les gens commençaient à avoir des symptômes grippaux. En appliquant leurs suppositions à des recherches en temps réel, l'entreprise a pu déterminer où la grippe se propageait plus rapidement que le CDC ne le pouvait.

Banque Canadienne – De l'autre côté de la frontière, la Banque canadienne « utilise Hadoop, un cadre logiciel libre créé par Apache », Steimle explique, "pour déployer un programme permettant d'identifier le blanchiment d'argent et la fraude."

Données et vie quotidienne

La NASA et Google sont des exemples très médiatisés de l'accent mis sur les mégadonnées, mais son potentiel est beaucoup plus large et s'étend à toute entreprise souhaitant attirer l'attention en ligne. C'est le carburant qui alimente l'optimisation des moteurs de recherche et l'optimisation des médias sociaux. Les entrepreneurs peuvent utiliser les outils pour les webmasters de Google, combinés aux données analytiques des logiciels sociaux, pour développer une présence en ligne plus efficace.

Joe Hall, qui aide les clients à améliorer leur présence sur Internet par le biais de sa société Hall Analysis, explique qu'il existe deux manières différentes d'analyser les données pour améliorer les résultats des moteurs de recherche :

  1. Explorer les modèles dans les données volumineuses qui sont directement liées à une entreprise particulière.

L'un des clients de Hall avait plus de 15 millions de backlinks, ce qui signifie que de très nombreuses pages Web envoyaient leur trafic à son client.

" À ce niveau, cela change les règles d'analyse des backlinks », commente Hall. La détermination des modèles dans les données devient beaucoup plus complexe.

  1. Acquérir une compréhension plus approfondie de la position actuelle de leur entreprise et de la dynamique du marché dans son ensemble.

L'examen de la relation entre différentes variables via un logiciel d'analyse permet aux entreprises de mieux comprendre comment se classer en bonne place et comment amener plus de personnes à répondre à une liste lorsqu'elle apparaît dans le moteur de recherche. Deux domaines d'études pertinents sont l'analyse de corrélation et analyse du comportement des utilisateurs , dit Hall.

Améliorer vos moteurs de Big Data

Une technologie qui a été fondamentale pour les scientifiques des données et les entreprises utilisant leurs services est le cloud computing premium. Après tout, les solutions d'hébergement VPS clés en main sont basées sur l'optimisation de la vitesse, de la fiabilité et de l'efficacité grâce à la distribution virtualisée des ressources.

L'informaticien Geoffrey Fox de l'université de l'Indiana a même remarqué que le cloud est souvent plus rapide qu'un superordinateur.


Linux
  1. La Différence Entre [[ $a ==Z* ]] Et [ $a ==Z* ] ?

  2. Comment vérifier si un tube est vide et exécuter une commande sur les données si ce n'est pas le cas ?

  3. Comment le cloud rend l'analyse du Big Data plus efficace

  4. Présentation du CCPA et du RGPD

  5. FAQ sur le disque système et le disque de données

Linux sur le mainframe :hier et aujourd'hui

Qu'est-ce qu'Intel SGX et quels en sont les avantages ?

Les serveurs Big Data expliqués

Apache Cassandra :fonctionnalités et installation

Les 15 meilleurs logiciels économétriques et statistiques pour système Linux

Quelle est la différence entre DMA et les E/S mappées en mémoire ?