segunda-feira, 17 de março de 2014

Pivotal: Então, quem gosta de nadar nus no nosso "Business Data Lake '? PS: Vai custar-lhe


Acesso de alto desempenho para armazenamento de arquivos


EMC e spin-off Pivotal da VMware está tentando ganhar dinheiro com um bando de open-source-big-trituração de dados tecnologias, fazendo os seus aspectos mais complicados desaparecer.


Com o lançamento da distribuição Hadoop Pivotal HD 2.0 e análises motor Pivotal GemFire ​​XD na segunda-feira, a empresa criou uma embreagem de tecnologias que permitem que as organizações fazem sentido de grandes quantidades de dados sem ter que lidar nas interfaces Hadoop tradicionais difíceis de mestre .







Os dois pedaços de software em conjunto dar às empresas uma loja in-memory SQL dados que se senta em cima de dados armazenados no Hadoop File System (HDFS) e um motor chamado HAWQ que pode consultar dados via SQL.


Além disso, HAWQ ganhou integração com GraphLab OpenMPI e Madlib - software que lhe dá um conjunto integrado de algoritmos analíticos para análise de dados relacionais e também análise de gráficos. Ele também adicionou compatibilidade para consultas em R, Python e Java também.


Pivotal , disse em um comunicado de imprensa que o lançamento destes produtos "constituem a base para a arquitetura de negócios Lago de dados" - esta linguagem causado o nosso cérebro a derreter e vazar de nossos narizes em forma de uma pasta bege triste.


Marketing-lado, a tecnologia é a resposta da Pivotal para a proliferação de tipos de dados estruturados e não estruturados dentro de uma organização. Pivotal esperanças de que as empresas vão gastar grande para o prazer de ser capaz de ingerir, armazenar, analisar e consultar dados em uma única pilha de módulos de software integrados. (Pivotal não divulga preços e incentiva as pessoas a entrar em contato, por isso é usando um quanto você pode pagar a estratégia de preços da empresa.)


PivotalHD

Mistura pegajosa do Pivotal de open source e tecnologia proprietária



Ele tem feito isso por gazes inúmeras adições no topo da distribuição de estoque Hadoop, e avalia que sua arquitetura modular irá ajudá-lo a atualizar o software ao longo do tempo sem transformar base de código do aplicativo em uma gigantesca bola de espaguete.


Áreas futuras de desenvolvimento para o software incluem multi-locação, maior Hadoop, e adicionando em outros projetos de código aberto como o Apache Spark.


"Multi-locação é um tema importante que queremos focar próximos [por] que permitem diferentes grupos e linhas de usuários, e diferentes tipos de requisitos de carga de trabalho, para trabalhar com o nosso tecido de dados", explicou Anant Chintamaneni, diretor da Pivotal de gerenciamento de produtos da a pilha HD Pivotal, em um bate-papo com The Register.


Embora as principais alterações à Pivotal HD são sobre a colocação de interfaces proprietárias, fácil de usar, consultar dados e análise em cima do Hadoop, Chintamaneni confirmou que as instalações iniciais do Hadoop ainda são problemáticos para algumas organizações.


"Quando um cliente implanta-lo, a nossa orientação sempre é planejar", disse ele. "Você tem que planejar exatamente como você está indo para colocá-la para fora. Se você deseja executar o HBase e HAWQ no mesmo cluster é preciso repartir o cluster de acordo."


A empresa pode ainda mais as suas contribuições de código aberto, ele confirmou, dizendo que a empresa está pensando em contribuir alguma tecnologia avançada em agendador de tarefas FIO do Hadoop.


Hadoop pode ser um queridinho de empresas de engenharia pesada sofisticados, mas Pivotal está apostando que, tornando-a mais fácil de usar, pode finalmente ser capaz de fazer um pouco de dinheiro para fora do projeto de código aberto. ®







via Alimentação (Feed)

Nenhum comentário:

Postar um comentário