5 maneiras de preparar sua infra-estrutura de publicidade para o desastre
LADIS 2013 É um segredo aberto que as máquinas virtuais pessoas compram de nuvens públicas têm propriedades de desempenho variável, mas está prestes a ficar muito pior como prestadores de se preparar para vender pessoas engrenagem com capacidades sludgier do que nunca, mas a um preço baixo, baixo .
Agora, os pesquisadores descobriram uma maneira provedores de nuvem podem tirar proveito das propriedades caóticas de sua infra-estrutura para vender usuários workloads baratos com características de desempenho menos desejáveis, como um tempo de execução potencialmente elevado de emprego. Também tivemos separadamente fortes indícios de Google e Microsoft que as grandes empresas de nuvem estão investigando ativamente serviços desta natureza.
O Explorando Time-maleabilidade em sistemas de processamento em lote baseado em nuvem trabalho foi apresentado no domingo, na conferência LADIS na Pensilvânia por um trio de pesquisadores da University City, Imperial College, ea Microsoft Research.
"O objetivo do nosso trabalho é sobre a forma de explorar tempo maleabilidade para o problema de receita em nuvem", diz o pesquisador da Universidade da Cidade Evangelia Kalyvianaki.
O documento conclui que os provedores de nuvem podem ganhar mais dinheiro e menos desperdício de infra-estrutura de preços e as cargas de trabalho de venda de acordo com o desempenho, capacidade e latência esperado de postos de trabalho em execução em um cluster. Eles poderiam cobrar menos para trabalhos, como trabalhos de grupo MapReduce, que pode ser executado num período de tempo após provisionados, ou cobrar mais por trabalhos a executar imediatamente. O melhor de tudo, o sistema poderia ser implementado como um algoritmo de ponto-de-venda, alimentado por dados obtidos a partir da própria tecnologia de monitoramento do provedor.
Este tipo de serviço é possível porque os principais provedores de nuvem, como Google, Amazon e Microsoft têm trabalhado em sofisticados programadores de recursos e gerentes de cluster (como o Google Omega Borg ou sistemas) que lhes dão o controle e acompanhamento necessário para revender hardware de granulação fina de acordo com a demanda do momento-a-momento e as mudanças de infra-estrutura.
Assim como a Amazon tem um mercado local para VMs hoje que ajusta os preços de acordo com a demanda, os pesquisadores acreditam que deve haver um mercado equivalente, que os preços de cargas de trabalho de acordo com o custo de executá-los dentro de um determinado período de tempo de acordo com a utilização de recursos de base dentro da nuvem. Com a implementação do modelo proposto, os provedores de nuvem podem reduzir a quantidade de equipamento ocioso em sua infra-estrutura, e os desenvolvedores podem executar certos trabalhos a custos reduzidos.
Essas idéias se alinham com sussurros que tenho ouvido sobre protótipos de produtos de nuvem que estão sendo desenvolvidos por grandes operadoras de infra-estrutura para mais uma fatia e cortar sua infra-estrutura.
"Estou disposto a gastar mais para obter um resultado mais cedo"
Google engenharia diretor Peter Magnusson tem nos disse que o Google está pensando em usar o não-determinismo endêmica em seus sistemas de gerenciamento de cluster para girar-se um serviço de nuvem que faz SLA bin-packing. Isso pode deixar o Google oferecer VMs com SLAs reduzida a um preço substancialmente mais baixo, por exemplo. Um dos autores do estudo, Luo Mai, é o destinatário da Google Europa Fellowship em Cloud Computing, ea pesquisa é parcialmente apoiado por este Google Fellowship.
Microsoft parece interessado, bem como - um dos três autores do documento é Paolo Costa, que é afiliado com a Microsoft Research em Cambridge, Reino Unido. Quando pedimos Azure gerente geral Mike Neil, durante uma conversa recente sobre as possibilidades de embalagem bin para preços diferentes, ele parou por um longo tempo, então disse: "Isso é muito interessante ... há uma grande oportunidade para dar ao cliente um botão que diz "Estou disposto a gastar mais para obter um resultado mais cedo". Por exemplo, Neil disse, as empresas de petróleo e gás poderiam estar dispostos a pagar menos para obter trabalhos de grupo mais tarde, enquanto as instituições financeiras que querem analisar rapidamente uma enorme liberação de dados pode querer ir para a nuvem de alguma capacidade extra, e em uma garantia período de tempo.
O papel LADIS serve como um bom explicador de como os provedores de nuvem podem oferecer este tipo de sistema, por isso que faz sentido, eo modelo de precificação que os usuários podem olhar para frente.
Tudo que você precisa para executar o sistema é uma noção do que é uma unidade de infra-estrutura dentro de um provedor de nuvem parece, eo tempo de conclusão áspero de seu trabalho. Uma unidade de infra-estrutura pode ser de um tamanho padrão de CPU, memória anexo, armazenamento e largura de banda.
Quando os usuários se preparar para comprar recursos que pode colocar o tempo de conclusão estimado de seu trabalho, como um MapReduce carga de trabalho de grupo. Em resposta, a nuvem irá olhar para o que está sendo programado, quantas "unidades de recursos" pode ter disponível, e calcular o custo de execução do trabalho. Empregos urgentes vai custar mais do que a média, e os trabalhos contingentes não-tempo vai custar menos.
No futuro, os pesquisadores esperam implementar precificação dinâmica que apresenta um preço base de trabalho flutuante, de acordo com up-to-the disponibilidade minuto, em vez de calculá-lo no ponto de ordem.

CAIXA pode reagendar as cargas de trabalho para atender às ranhuras de recursos disponíveis
Os pesquisadores testaram a sua idéia através de um sistema chamado CAIXA que utilizou um simulador de eventos discretos e da IBM CPLEX Optimizer (que é gratuito para uso acadêmico). Eles testaram em uma nuvem, com uma capacidade de 1.000 unidades de recurso e ele correu através de dois cenários - um trabalho que exigia entre 2.500 e 7.500 unidades de carga de trabalho, e outro que exigia um número significativamente menor do que a capacidade disponível. Os pesquisadores testaram o desempenho do sistema de contra três linhas de base: um chamado reservas 'início de um conjunto fixo de recursos para um trabalho a cumprir o prazo mais exigente,' Late ', onde os recursos são destinados quando o trabalho é colocado no sistema, e "FED"

Gearbox pode fazer provedores de nuvem mais dinheiro, e assumir mais empregos do que outras abordagens
Em todos os casos, a abordagem CAIXA desempenho melhor do que estes, fazendo com que os provedores de nuvem mais dinheiro, e oferecendo aos desenvolvedores acesso aos slots de carga de trabalho tanto caros e oportuna, bem como ranhuras baratos também.
Uma ligeira desvantagem dessa abordagem é que ela não deixa o usuário nuvem definir os detalhes relativos à urgência e exigiram recursos de seu trabalho.
"Alguns trabalhos são mais importantes do que outros, alguns trabalhos não importa - você pode pensar sobre os usuários especificando probabilidade de sucesso ou um prazo", ressaltou conjunto do Google e gerente de recursos especialista John Wilkes durante uma sessão de perguntas e resposta. Ambos os sistemas Borg Omega e do Google usar isso em algum formato.
Os pesquisadores estão trabalhando na implementação de mais restrições e variáveis, embora também estão receosos de fazer o algoritmo de trabalho de corretagem tão complexo que desacelera a venda de recursos.
Para os seus próximos passos, que a esperança de construir um sistema baseado em Hadoop protótipo, e também tentar integrar-se com outros scale-out calcular mastigando 'n sistemas de trituração.
Se eles não se deparar com quaisquer obstáculos e alargar a abordagem ainda mais, nós aqui na mesa nuvem de El Reg contar pudemos ver implementações de produtos desse muito em breve, uma vez que assegura os provedores de nuvem uma forma de aumentar a utilização dos recursos e aumentar a receita, o que é sobre como um objetivo fundamental para uma empresa nuvem como você pode começar. Amazon Web Services está segurando sua enorme nuvem conferência na próxima semana, e vamos ter a certeza de perambular pelos corredores para descobrir se Bezos & Co estão tão interessados nesta como Google e Microsoft parecem ser. ®
via Alimentar (Feed)
Nenhum comentário:
Postar um comentário