quarta-feira, 25 de junho de 2014

Do Google, Urs Hölzle: Se você não está quebrando o seu próprio equipamento, você não é ambicioso o suficiente


Gartner capacidades críticas para backup endpoint empresa


Entrevista Nos últimos quinze anos, o Google deixou de ser um consumidor de tecnologia a um inventor de tecnologias, e ao fazer isso teve efeitos profundos na web moderna.


Uma das pessoas-chave por trás dessa mudança foi Urs Hölzle, que ingressou na empresa como sua oitava empregado e agora serve como vice-presidente sênior de infra-estrutura técnica e um de seus "companheiros" do Google.







Uma das principais tarefas da Hölzle é planejar as tecnologias Google precisa para usar, como ele precisa usá-las e quais os caminhos que absolutamente não deve ir para baixo.


Na conferência Estrutura GigaOm em San Francisco, ele sentou-se com The Register para uma entrevista sobre o que o Google acha de tecnologias de memória de próxima geração, seja atacando FPGAs para CPUs é uma boa idéia, como sistemas distribuídos precisa ser executado e gerenciado, e quais os aspectos do Google próprio para venda de serviços em nuvem podem se beneficiar da infra-estrutura interna da empresa.


O que se segue é uma transcrição da conversa que foi editado para clareza e concisão.


A que distância é que o Google precisa olhar quando se trata dos tipos de componentes de hardware que você contemplar a compra em poucos anos? Especificamente, o que você acha sobre tecnologias de memória de próxima geração?


As coisas que você se concentram a maior parte de seu tempo em nove meses afastado, como esta é a sua próxima geração que está agora em desenvolvimento e, em seguida, há o que chamamos de n-mais-um, que é geralmente o lugar onde você trabalha simultaneamente na coisa depois que que então você já tem protótipos de concreto ou qualquer outra coisa, mas não está pronto, o silício não é realmente disponível, então você experimentar as coisas.


PCM ou memristors ou o que é que você tem bancos de ensaio ou simulações para, mas você não tem compreensão do cronograma, porque você não sabe quando eles vão estar disponíveis.


Há um número destes no ar - fotônicos de silício, diferentes tipos de armazenamento - e eu acho que a forma como olhamos para o que você tem que estar preparado, você tem que jogar com essas coisas para entender o que eles se parecem.


Você realmente não pode antecipar. Memristors, há três anos, foram sendo anunciados até nove meses no futuro, e agora eles estão com vencimento em 2017, ou talvez o fim da década, por isso, você sabe, TBD.


A outra coisa é, muitas vezes para realmente tirar proveito de uma nova tecnologia, você precisa ter pelo menos parcialmente disponíveis, porque você precisa ir e dizer 'como é que eu reescrever pesquisa', a fim de utilizá-lo. Se você só tem uma simulação, é um bilhão de vezes mais lenta do que a coisa real, por isso há tanta coisa que você pode fazer para descobrir "o que você faria se. A verdade é que normalmente algo como 18 meses ou 24 meses é o suficiente para fazê-lo pelo tempo que a coisa é realmente a produção pronta.


Há uma tensão entre a centralização dos sistemas de fornecimento de recursos, e distribuí-los em toda a sua infra-estrutura para que você pode ser flexível ao custo de velocidade. Como o Google decidir onde ele precisa estar nessa diferença?


A principal coisa é que você não pode ser religioso sobre isso. As coisas mudam, e acho que nos próximos cinco anos, há pelo menos a possibilidade de que a tecnologia vai mudar muito mais significativa do que eles têm nos últimos cinco anos.


Exatamente como isso funciona, isso realmente depende de fatores específicos. Se algo melhora [no desempenho] ​​por um fator de dois ou fator de oito anos, que realmente muda a forma como você reage a isso.


O importante é que você não fique muito definido em uma abordagem. A desagregação é uma grande coisa, mas não é a única coisa a prestar atenção: pode muito bem haver momentos em que a desagregação é muito menos importante do que qualquer outra coisa. Por exemplo, talvez você queira empacotar as coisas mais de perto, em algum momento.


Você e alguns outros no Google surgiu com a idéia de que "o centro de dados é o computador '. Quais são algumas das implicações de tratar DCs dessa maneira, e você tiver quaisquer problemas que você não antecipou?


Você sempre executar em problemas. Nós, na verdade, para os últimos dez anos, facilmente estado na vanguarda de tentar resolver estes problemas e você fazer as coisas erradas o tempo todo. Isso vem com o território. Se isso não acontecer, você provavelmente não tentar algo ambicioso o suficiente. Uma das grandes vantagens do software é que ele é muito mais maleável. Você pode ir de porco cheia na direção errada, e uma vez que você percebe que, mudando de direção que não é caro e não leva muito tempo.


Com o hardware, você ter afundado custo, você tem essa coisa, e você o construiu e que você gastou o dinheiro com isso e você realmente não pode reformá-lo ou alterá-lo muito. Assim, quanto mais flexibilidade que você colocar, e quanto mais controle é fora da caixa, o que é mais fácil de reagir às novas exigências.


Nós fomos grandes apoiadores do [protocolo de rede] OpenFlow, por exemplo. Em uma caixa de networking tradicional você tem milhões de linhas de software na mesma. No OpenFlow você tem milhares de linhas de software em que - na verdade, apenas o suficiente para controlar o caixa e os fãs e programar os chips, mas na verdade toda a inteligência está em outro lugar, e que permite que você alterá-las.


Tipo, você tem um novo roteamento [esquema] e que trabalha para várias caixas porque a caixa nunca soube o encaminhamento foi assim, portanto, você não tem que atualizá-lo. [As caixas são] realmente focado no design de hardware; alguém lhes diz como programar suas tabelas de hardware, et cetera. As caixas realmente não sei que eles estão implementando VPN ou algum encaminhamento. Esse é o número um.


O número dois é o maior de sua piscina é, ou quanto mais você pensar em coisas como recursos comuns, o que é mais fácil de ser flexível sobre como isso está sendo usado.


Quando pensamos sobre a memória, o que é a proporção correta de memória para CPUs, é muito mais fácil se você pode pensar sobre a piscina. Como, aqui está um cluster, que eu tenho memória suficiente no cluster como um conjunto e, se não, eu não precisa atualizar cada máquina - Eu preciso adicionar memória suficiente para a piscina e, em seguida, o sistema de gerenciamento de cluster pode descobrir isso e colocar os postos de trabalho de alta de memória nas máquinas altas de memória.


É muito mais fácil para evoluir as coisas dessa maneira do que dizer 'wow, na verdade eu pensei que eu preciso de 16 shows [de RAM] e agora eu percebo que eu preciso de 19 shows e eu tenho que ir em cada máquina e colocar em 3 shows ... oh esperar Eu não posso colocar em 3 shows, o incremento mínimo é de 8, e então eu vou jogar fora o slot DIMM existente tenho porque só há tantos slots. '


Se você acha que apenas sobre a caixa, que fica muito estranho durante um período de três anos em um campo como o nosso, em que as exigências mudam o tempo todo, e os aplicativos mudam o tempo todo. Ao gerir as coisas de software você tem mais flexibilidade e juntando as coisas você tem mais flexibilidade também.







via Alimentação (Feed)

Nenhum comentário:

Postar um comentário