sábado, 29 de novembro de 2014

Blackout Sábado: website da Oracle morre após mamute binge compras US


Top 5 razões para implantar VMware com Tegile


Website da Oracle caíram das interwebs na última hora, mas a causa da interrupção permanece obscuro.


A gigante de tecnologia ainda estava para responder ao pedido do 's Register para comentar o assunto no momento da escrita.







Uma mensagem estática na companhia de Redwood City, Califórnia-baseado local lê:



Este site está passando por dificuldade técnica. Estamos cientes do problema e estamos trabalhando o mais rápido possível para corrigir o problema.


Pedimos desculpas por qualquer inconveniente que isso possa ter causado.



A Oracle aconselhou os clientes a entrar em contato com o vendedor por telefone enquanto ele classifica a bagunça.



No entanto, a empresa ainda era explicar por que seu site havia desmoronado. Nós vamos atualizar esta história, se a Oracle não entrar em contato. ®







via Alimentação (Feed)

quarta-feira, 26 de novembro de 2014

AWS CloudFront oscila no pior momento possível


Escolhendo uma nuvem de hospedagem parceiro com confiança


Não comece sua maratona de compras on-line Black Friday ainda: CloudFront rede de distribuição de conteúdo Amazon Web Services tem vacilou sobre as últimas horas e o varejista perda perenemente-de tomada, e os clientes de seus serviços de computação em nuvem, já teria sido difícil acesso.


Da Amazon página de status disse: "Nós estamos investigando o aumento das taxas de erro para consultas DNS para distribuições CloudFront" às 17: 000 PST, mas por 17:57 relatou "As taxas de erro para consultas DNS de distribuições CloudFront está se recuperando."







O problema era global e tem sido notado tão distantes como a Austrália, onde cartazes para a lista de discussão AusNOG relataram problemas com duração de até duas horas. Bate-papo na lista sugere Amazon tem re-roteadas tráfego ao longo de diferentes cabos submarinos para resolver a questão.


Com os norte-americanos sobre a comprar si bobo em vendas on-line, esta oscilação tem muito pobre momento, como se repete há uma boa chance de todos os tipos de sites não irá executar em seu pico quando hordas cheio de peru retirar seus cartões de crédito. Para você, a AWS! ®







via Alimentação (Feed)

Turnbull deve poupar a todos nós nuvem campanha publicitária companhia aérea-magazine-grade


Arrays de armazenamento Flash Inteligente


O ministro das Comunicações da Austrália Malcolm Turnbull na segunda-feira marcado aqueles que se opõem uso da nuvem pública "caixa-huggers" e sugeriu que tal comportamento é ruim, porque ela se liga às organizações uma maneira antiquada e cara de fazê-lo.


"Há mais resistência à nuvem no governo que em qualquer outro lugar", e culpou a "a abordagem do governo anterior [que] não foi o gerenciamento de risco, mas a aversão a mudar."







Ele então passou a sugerir que "praticamente nada foi gasto em nuvem desde 2010" por setor de governo da Austrália e que isso representa "progresso muito, muito decepcionante".


O entusiasmo de Turnbull para nuvem é difícil falha: cloud é uma mudança muito significativa, não oferecem chances para melhorias de desempenho, e pode muito bem oferecer redução de custos.


Mas a crítica de adoção da nuvem governo de Turnbull são rasas mesmo para os padrões de sua própria política de nuvem.


Essa política, como já relatado diz agências governamentais deve usar nuvem "onde é apto para o efeito, fornece a proteção adequada dos dados e agrega valor para o dinheiro."


Há uma boa chance de que todos os atuais nuvens australianas oferecem agências governamentais um fora em ou mais desses motivos. Ontem anfitrião de Turnbull, a Dimension Data, mostrou porque quando o seu CEO apontou que sua soon-to-be-operável governo somente nuvem será classificado para lidar com dados protegidos, mas que nenhum serviço de nuvem anterior na Austrália tem sido capaz de fazê-lo.


No evento, a Dimension Data também apontou que as nuvens não são infalíveis ou mágico. Então, sem nenhuma nuvem atual capaz de lidar com dados protegido e nenhuma cópia de segurança nublado disponível, é fácil fazer um caso de nuvens não estar apto para o efeito. E, portanto, para o ritmo lento do governo anterior de adoção de ser prudente.


Turnbull também parece não ter conhecimento das muitas nuvens privadas que operam entre as agências do governo federal, que recebem o conceito, mesmo que não tenha ido para nuvens públicas. É, portanto, injusto atribuir os baixos gastos em nuvem pública para reticência irrazoável ou indiferença para com o uso de fundos públicos. A falha por agências governamentais não é tolerado por funcionários eleitos ou o público e de saltar para a nuvem pública claramente traz o risco de degradar ou interromper serviços do governo. Turnbull 'do execrado NBN Co e metralhado fora seu conselho para erros de gestão. Ele seria qualquer kinder para uma agência que estragou a migração para a nuvem?


Turnbull também traído pouca consciência do pensamento atual em TI corporativa. Ele parece não ter consciência de nuvem híbrida e as razões, faz sentido em termos de computação, de afinidade, a proteção do investimento e entrega dos não-frágeis, altamente auditáveis ​​ambientes nuvens ainda não pode igualar.


O ministro também parece cego para a necessidade de proteger os investimentos em sistemas legados papel de uma nuvem híbrida em tais esforços. Nem ele evidenciar consciência do fato de que várias empresas - Zynga é exposição A - descobriram que a escala pode ser mais barato e mais eficaz para executar a própria TI, em vez de confiar em nuvem pública.


Lixo, prestação de serviços e escala


Turnbull de muito interessados ​​em duas coisas: reduzir o desperdício e prestação de serviços do governo digital. Se o segundo requer o excesso de gastar em nuvem para a causa da nuvem, ele poderia ficar de parecer tolo!


Turnbull estava certo ao apontar para as economias de escala que vêm de residir em um celeiro bit bem gerida, onde os inquilinos podem tocar em especialistas dizer, seria um desperdício ter trabalhando dentro de cada órgão do governo.


Mas ele não reconhecer que há uma abundância de pessoas com habilidades semelhantes que trabalham para agências governamentais.


Muitas dessas pessoas vai gostar de hardware no local, o seu cuidado e alimentação, uma atitude que, provavelmente, não vai sustentar suas carreiras para o longo curso.


Mas é uma atitude que reflete como é feito hoje a Reg muitas vezes é dito que a esmagadora maioria das cargas de trabalho -. Mais de 90 por cento - ainda são executados no local.


Isso vai mudar com o tempo. Mas fazer a mudança exigirá caixa-huggers para entender e abraçar a nuvem, para que o rigor e disciplina que se aplicam a seu comércio continuará a assegurar as cargas de trabalho do governo entregar os resultados certos.


Dizendo que os tomadores de decisão e profissionais eles são redutores de velocidade na estrada para o progresso não é uma boa maneira de começar esse processo.


Uma outra coisa Turnbull deve saber sobre ele é que one-size-fits-all abordagens políticas não funcionam. O governo Howard em que ele serviu como ministro tinha uma política de terceirização-tudo o que não conseguiu entregar a economia esperada. Miseravelmente. ®


Bootnote Sim, nós também poderia ter mencionado que a prestação de serviços em nuvem parece um pouco paralisados ​​por uma Rede Nacional de Banda Larga em execução, na sua maioria, em ambos os pares trançados ou híbrida fibra-coaxial. Mas isso é outra história.







via Alimentação (Feed)

terça-feira, 25 de novembro de 2014

Execução Azure Active Directory


Guia do Iniciante para certificados SSL


Hands on The Register Tim Phillips é acompanhado por Paul Gregory, de QA, hoje, às 11:00 GMT, para entregar um hands-on ao vivo sessão sobre Azure Active Directory. Esta é a sua chance de aprender com os especialistas e obter respostas para quaisquer perguntas que você possa ter.


A sessão de 60 minutos é entregue ao vivo em toda a web para que você possa assisti-lo no conforto da sua mesa, sofá ou cama. Apenas lembre-se registar ou adicioná-lo ao seu calendário aqui . Certifique-se de trazer suas perguntas também.


Este broadcast, entregue através de uma série de manifestações de formação técnica de mergulho profundo, irá discutir e mostrar como Azure Active Directory pode fornecer acesso seguro aos serviços e dados sensíveis com a autenticação multi-fator, bem como single sign-on, para tornar o acesso aplicação mais conveniente para os seus usuários.


A sessão também irá investigar e demonstrar como criar domínios personalizados, integrar aplicações com Azure AD, e usar os recursos de AD premium Azure. Isto incluirá demonstrando criação e gerenciamento de usuários e grupos - tanto graficamente e com o PowerShell, através de autenticação multi-fator.


Esperamos que este seja apenas o estímulo para aqueles de vocês que querem aprender mais sobre o Azure. Se for, então você pode assistir ao vivo aqui .







via Alimentação (Feed)

segunda-feira, 24 de novembro de 2014

Hands on: Implementando Azure Active Directory


Top 5 razões para implantar VMware com Tegile


Nosso próprio Tim Phillips é acompanhado por Paul Gregory, de QA, para entregar um hands-on ao vivo sessão sobre Azure Active Directory amanhã, às 11h. É a sua chance de aprender com os especialistas e obter respostas para quaisquer perguntas que você possa ter.


Este, sessão ao vivo 60 minutos é entregue online para que você possa assisti-lo no conforto da sua mesa, sofá ou cama. Apenas lembre-se registar ou adicioná-lo ao seu calendário aqui . Certifique-se de trazer suas perguntas também.


Este broadcast, entregue através de uma série de manifestações de formação técnica de mergulho profundo, irá discutir e mostrar como Azure Active Directory pode fornecer acesso seguro aos serviços sensíveis e dados com autenticação multi-fator, bem como single sign-on para tornar o acesso mais conveniente para aplicação seus usuários. A sessão também irá investigar e demonstrar como criar uma domínios personalizados, integrar aplicações com Azure AD, e usar os recursos de AD premium Azure. Isto incluirá demonstrando criação e gerenciamento de usuários e grupos - tanto graficamente e com o PowerShell, através de autenticação multi-fator.


Esperamos que isso soa útil. Se for, então você pode se registrar aqui . Estamos ansiosos para vê-lo no dia.







via Alimentação (Feed)

domingo, 23 de novembro de 2014

Unicórnios nuvem são extintos tão interrupção didata nuvem foi sua culpa


Controle remoto para desktops virtualizados


Em julho passado, cloud australiana da Dimension Data desceu por mais de 24 horas. Agora, a empresa diz que a sua avaliação do incidente descobriram que aqueles que mais sofreu tinha culpar a si próprias, a um grau.


Falando hoje no lançamento do novo governo nuvem da empresa, nuvem gerente geral David Hanrahan disse que aqueles impactados pela paralisação caiu em duas categorias.







Aqueles que se sentiam mais dor, ele disse, "não tinha arquitetado disponibilidade" de replicação de dados e aplicações para tanto os seus próprios estabelecimentos ou para outras nuvens.


Clientes que tinha "tomado uma abordagem empresarial arquitetura abordagem e mapeadas as suas aplicações de cima para baixo e planejadas em conformidade" sentiram menos dor como resultado da interrupção.


Hanrahan disse que os clientes que experimentaram mais dor do princípio de que, quando as cargas de trabalho ir para a nuvem "mágica acontece". Desde o incidente, disse ele, didata está tendo muito mais conversas sobre regimes de backup e de resiliência adequados. Ele acrescentou que o acidente, pensado para ser um resultado de uma falha EMC ", destaca que a entrega dessas como-um-serviço de alta complexidade depende de tecnologias interoperáveis".


De Hanrahan principalmente a direita: é possível arquiteto um aplicativo de modo que quando um fornecedor não um provedor de nuvem sistemas redundantes vai chutar para proteger os clientes aplicativos e dados. Mas a necessidade de fazê-lo não é frequentemente mencionado na corrida para apontar de cloud preço baixo, elasticidade e velocidade de implementação.


Este incidente, e outros, como a recente interrupção Azure, certamente irá se concentrar would-be e atenção atuais dos usuários da nuvem sobre as necessidades reais - e custos - da adoção de cloud. ®







via Alimentação (Feed)

Pior buraco WordPress por cinco anos afeta 86% dos pontos


Internet Security Threat Report 2014


Estima-se que 86 por cento dos sites WordPress abrigar um buraco perigoso cross-site scripting (XSS), na popular plug-in sistema de comentários, em que o pesquisador Jouk Pynnönen chama o mais grave falha em cinco anos. O bug poderia fornecer um caminho para atacar máquinas dos visitantes.


O plugin WP-Statistics permite que atacantes injetar JavaScript para comentários, que podem infectar os computadores de leitor ou dos administradores.







A falha já existe há cerca de quatro anos, que afecta entre versões 3.0 a 3.9.2, mas não a versão 4.0 que lida com expressões regulares de forma diferente.


Versão 4.0.1 corrigiu uma separada e também crítico conjunto de XSS falhas descobertas pela equipe de segurança interna, junto com um cross-site request forgery buraco.


Klikki Oy bod segurança Pynnönen revelou a falha mais cedo na semana passada em assessoria técnica .


"Um invasor pode explorar a vulnerabilidade, inserir comentários cuidadosamente elaborados, contendo o código do programa, em WordPress posts e páginas do blog. Com as definições comentários podem ser inseridos por qualquer pessoa, sem autenticação", Pynnönen disse .


"Código de programa injetado nos comentários seria inadvertidamente executado no navegador do administrador do blog quando eles vêem o comentário. O código desonestos poderia executar operações administrativas, tendo secretamente através da conta de administrador.


"Tais operações incluem a criação de uma nova conta de administrador (com uma senha conhecida), mudando a senha do administrador atual, e, no caso mais grave, a execução de código PHP fornecido pelo invasor no servidor. Isso permite o acesso do nível do sistema operacional atacante no servidor hospedagem WordPress. "


O padrão não autenticado façanha considerando o impacto do lado do servidor feito isso "provavelmente a mais séria vulnerabilidade núcleo WordPress que tem sido relatada desde 2009".


Pynnönen desenvolveu uma prova de conceito exploit que limparam evidência de script injetado antes tranquilamente usando o editor de plugin para escrever código PHP fornecido pelo invasor no servidor, alterar a senha do usuário, e criar uma conta de administrador.


Os atacantes poderiam, então, escrever mais código PHP para o servidor através do editor executado de imediato, usando um pedido de AJAX para ganhar acesso a operar em nível de sistema.


Outros plugins que permitem que usuários sem privilégios para inserir texto HTML poderia oferecer mais vetores de ataque, disse Pynnönen.


Pynnönen criou uma obra-around plugin para administradores que não poderia atualizar seus servidores WordPress.


No entanto, um terceiro conjunto de recentemente corrigida XSS foram descobertos por Sucuri pesquisador Marc-Alexandre Montpas. O armazenado e refletido XSS nas versões 8.3 e abaixo atacantes também se voltou para os administradores para as versões, e permitiu motor searh blackhat de otimização innjection em posts.


"... O problema é muito simples", Montpas disse . "O plugin não higienizar corretamente alguns dos dados que recolhe para fins estatísticos, que são controlados pelos visitantes do site."


"Se um atacante decidiu colocar o código Javascript malicioso no parâmetro afetado, seriam salvas no banco de dados e impressa tal como está no painel administrativo, forçando o navegador da vítima para executar tarefas em segundo plano em seu nome.


SANS diário escriba Johannes B. Ullrich disse a vulnerabilidade XSS foi um problema subestimado comum.


"XSS faz permitir que um invasor para modificar o código HTML do site," Ullrich disse .


"Desenvolvedores do WordPress fez tentativa de aplicar as garantias necessárias [já que] apenas alguns códigos são permitidos, e até mesmo para essas marcas, o código marcada para atributos inseguras.


"Infelizmente, essa verificação não foi feito muito bem. Lembre-se que os navegadores também irá analisar HTML pouco malformado muito bem." ®







via Alimentação (Feed)

Turnbull: Box-huggers estão retendo nuvem


Arrays de armazenamento Flash Inteligente


A Dimension Data anunciou que vai em breve oferecer uma nuvem só de governo hospedado na cidade capital da Austrália, Canberra.


A nova unidade será mais um nó de rede atualmente-14 forte da empresa de plataformas em nuvem Gerenciados (CIM), mas não vai ser aberto ao público em geral. Em vez disso, ele foi ajustada para lidar com dados do governo australiano com status de "protegido". A classificação australiana de segurança do governo [PDF] fileiras protegido como o nível mais baixo dos dados secretos, sob Confidencial, Segredo e Top Secret. O celeiro bit também oferece links para o Governo Rede de Comunicação Intra (ICON) utilizado para a comunicação entre as agências do governo australiano.







Outras que este parece um nó-as-usual de negócio da nuvem de didata: há Cisco UCS e networking, Cloud Control excesso de controle da empresa e um arranjo multi-Tennant no lugar.


O ministro das Comunicações Malcolm Turnbull lançou o serviço, e aproveitou o seu discurso para protestar contra "caixa-huggers" que ele sentia proteger seus próprios feudos contra a inevitabilidade da cloud.


"Precisamos afastar mentalidade caixa-aperto que resits qualquer movimento para a nuvem", disse ele, antes de criticar as políticas do governo anterior para a promoção de uma mentalidade de caixa-aperto que ele disse significa agências governamentais federais gastaram apenas R $ 5 milhões de dólares nuvem desde 2010.


Essa observação mais tarde trouxe uma réplica do da Dimension Data Austrália CEO Rodd Cunico no sentido de que é difícil para gastar em nuvem quando não há um ajuste para uso governamental. Outros oradores didata apontou que sua nuvem tem uma classificação superior a Azure Austrália, que deve torná-lo um lugar acessível para executar os gostos do SharePoint, o Exchange e Lync.


Dimension Data não terá esse mercado para si por muito tempo: durante o seu evento de lançamento, Telstra "anunciou seus planos para criar um ambiente de nuvem construída especificamente para federal, governos estaduais e municipais ... Programado para ser lançado no primeiro semestre de 2015."


Telstra, também, vai ser capaz de lidar com dados protegidos. ®







via Alimentação (Feed)

sexta-feira, 21 de novembro de 2014

HP, Symantec emparelhar-se para lutar contra os rivais nuvem desastre


Guia do Iniciante para certificados SSL


HP e Symantec estão em parceria para desenvolver um Disaster Recovery baseada em nuvem como uma oferta de serviço (DRaaS) usando o software Symantec e Helion em nuvem da HP.


Este software DRaaS será executado em ambiente de nuvem baseada em OpenStack Helion da HP com a HP que fornece o serviço end-to-end baseado na subjacentes instalações de recuperação de desastres, infraestrutura e equipe de operações.







Os dois dizem que seu sistema DRaaS irá monitorar as mais utilizadas aplicações e bancos de dados do mercado e apoio "replicação, recuperação e automatizados de failover / failback do cliente se ele é tradicional de TI no local, nuvem gerenciada, nuvem privada ou nuvem pública" .


Apoiará "padrões de clientes da indústria específicos para recuperação de desastres, como o PCI no setor de varejo, HIPAA no setor de saúde, ou FedRAMP e FISMA no setor público os EUA". Haverá SLAs de recuperação de sistemas e aplicação


O produto HP / Symantec DRaaS estará disponível no final de 2015; é vapourware por agora. Até então, a Symantec pode ter dividido em dois , com, provavelmente, a empresa de armazenamento de herdar essa parceria. Quando ele chegar, será um produto / serviço co-entregues a partir de HP e Symantec "com cliente de integração apoiada por equipas conjuntas".


A nuvem oferece, os dois dizem que, um local de baixo custo para serviços de DR, com uma redução de up-to-50-por-cento em comparação com uma alternativa in-house para os clientes.


Estimando será baseada numa taxa de assinatura mensal relacionado com o tamanho do servidor e do tipo e da quantidade de armazenamento a ser protegida. ®







via Alimentação (Feed)

quinta-feira, 20 de novembro de 2014

CERN chefe de TI: O que fazemos não é realmente especial


Escolhendo uma nuvem de hospedagem parceiro com confiança


Quando o chefe dos serviços de infra-estrutura no CERN diz que ele chegou à conclusão de que não há nada de intrinsecamente "especial" sobre os sistemas do multi-bilhões de átomo-smasher, naturalmente você deseja verificar se você já ouviu falar corretamente.


Afinal, quando nos sentamos com Tim Bell na Cúpula OpenStack em Paris recentemente, era bastante barulhento como cerca de 5.000 engenheiros técnicos visivelmente animado trocaram histórias de guerra sobre a plataforma de computação em nuvem aberta enquanto os vendedores atiraram hospitalidade e ofertas de emprego para eles.







Poucos deles, no entanto, seria executar o tipo de sistemas para os quais Bell e sua equipe são responsáveis: um arquivo 100PB crescendo a 27PB de um ano, com 11 mil servidores de apoio 75.000 unidades de disco e 45 mil fitas. E que os dados estão sendo jogado fora pela máquina que recentemente encontrou o bóson de Higgs, a partícula de Deus tão-chamada. A maioria dos gestores de tecnologia diria que é até a extremidade superior de desafios de infra-estrutura de dados.


Inside the CMS experiment

Mas, como de Bell continuou, alguns de seus problemas certamente soava familiar. O Large Hadron Collider em si está no meio de uma atualização que irá duplicar a quantidade de energia produzida, e os sistemas de apoio no CERN tem que manter-se.


Quando seu sistema de TI tem de manter-se com o Grande Colisor de Hádrons


O LHC é devido ao fogo de novo em abril, e Bell e sua equipe têm sido reequipar a infra-estrutura de TI desde 2013. Desde o início deste mês, o CERN está funcionando atualmente quatro nuvens baseadas em OpenStack, o maior consistindo de 70.000 núcleos de execução através de 3.000 servidores, enquanto três outras instâncias relógio até mais 45 mil núcleos. O número total de núcleos deve bater 150 mil no primeiro trimestre do próximo ano. Apenas a tempo para o reinício do LHC.


Mas há dois anos, quando Bell e sua equipe começou o planejamento para a atualização, que era hora de fazer algumas reflexões duro - uma prática não é incomum no CERN você pode assumir. Mesmo o mundo da física de ponta tem de operar dentro das leis humanas, tais como a economia - em algum grau de qualquer maneira. E, de acordo com Bell, isso significa que não há mais funcionários, um orçamento de materiais decrescente, e as ferramentas antigas que são de "alta manutenção e frágil". E no caso de você estar se perguntando, os "usuários" esperar auto-serviço rápido.


"A grande coisa neste caso foi aplicar isso para o departamento de TI ... estávamos basicamente desafiar alguns pressupostos fundamentais que o CERN tem para criar as suas próprias soluções. Que eles são especiais. "


Ele continuou: "Quando você vai mais longe que você precisa para começar a desafiar essas suposições que levaram software a ser desenvolvido localmente no CERN, em vez de tomar open source e contribuir para isso."


Então, que olhar duas vezes novamente: CERN TI não é especial? Realmente?


Pensar de forma diferente


"Há claramente algumas peças especiais", diz Bell. "Mas há também muitas vezes as coisas que são de interesse para outras pessoas. A principal coisa a evitar é que vamos acabar fazendo algo que é semelhante ao que está sendo feito lá fora ".


E o que cristalizou essa percepção? "Nós tivemos um momento em que nós trabalhamos para fora o quanto recursos de computação que íamos ter que dar para os físicos no próximo ano."


"Foi um ponto em que estávamos diante de um problema que foi difícil, tivemos que dar um passo atrás. Não ia ser resolvido fazendo um pouco extra - tivemos que repensar fundamentalmente as coisas desde o início ... e acho que isso ajudou a estabelecer algumas idéias no lugar "Soa familiar.?


Não é como se a equipe de Bell foram completamente carente de recursos. A TI no local, no CERN foi complementado por um novo centro de dados na Hungria. Mesmo assim, a Bell continua: "O que precisávamos era de apreciar a medida em que a organização precisava mudar, assim como ele ser apenas uma questão de instalar mais alguns servidores."


Daí a decisão de levantar-se perto e pessoal com OpenStack em geral e , em particular, Rackspace . Pode ser interessante notar que, de volta quando escreveu isso, a equipe do extintor de incêndio de Bell foi beber foi bombear para fora um mero 25PB um ano.


"Depois de alguns meses de prototipagem depois tivemos a base para pôr em prática algo onde pudéssemos traçar o roteiro para se aposentar o legado eo ambiente legado. O desmantelamento das que começou no dia 1º de novembro ", diz Bell. "Então, em 18 meses, basicamente, produziu uma cadeia de ferramentas [que é] a substituição do ambiente legado que ia correr para os últimos 10 anos."


OK, de modo que ainda soa um pouco especial. Mas, como toda organização, Bell experimentou alguns solavancos como mãos experientes fui peru frio sobre a abordagem "não foi inventado aqui".


"Isso envolveu um monte de trabalho com as pessoas a quem os serviços e ajudá-los com alguma formação - formal ou informal -, a fim de usar as novas ferramentas. Mas até agora nós tivemos um monte de comentários positivos das novas ferramentas, de modo que está tudo ajudou a levar as pessoas a bordo. "


E o treinamento formal muitas vezes vêm de jovens reta fora da faculdade, que estão familiarizados com as novas ferramentas e novas maneiras de fazer as coisas. Enquanto esta é talvez uma inversão da forma tradicional de TI é executado, também é cada vez mais comum. Ou, pelo menos, comumente falado . E também é mais rápido, pelo menos em teoria, do que ter uma maré constante de recrutas que têm de se familiarizar com ferramentas de que só vai encontrar em uma organização.


"Muitas vezes as pessoas estão se juntando CERN com o conhecimento das ferramentas da universidade", diz Bell. "Então, isso significa que o tempo de treinamento é consideravelmente menos - você pode comprar um livro que vai falar sobre Puppet enquanto que no passado você teria que sentar com o guru de entender como o velho sistema funcionou".


Ninguém está sugerindo que as mãos mais velhos descontentes estão recebendo a corcunda e sair. Mas diz Bell CERN tem sido sempre estruturado "para assumir um volume de negócios regular" da equipe de estagiários de verão, a programas companheiros.


"Como parte da missão do CERN, que não é só a física. Há um objetivo claro para o CERN para atuar também como um objetivo para que as pessoas chegam passar um curto período de tempo no CERN - até cinco anos em contratos de curto prazo - e depois voltar para seus países de origem com essas habilidades adicionais. Isso poderia ser engenharia, [igualmente] poderia ser física e computação. "


"Agora, neste caso, o que é grande é que tomamos um especialista em Linux fora da universidade e nós produzimos alguém que é treinado em OpenStack e Puppet e eles se encontram em uma grande demanda no momento em que eles têm um contrato com acabamento CERN."







via Alimentação (Feed)

Você acha inseguro da nuvem? É melhor do que centros de dados da UK.GOV


Escolhendo uma nuvem de hospedagem parceiro com confiança


Fazer negócios na nuvem é mais segura a possuir o seu próprio centro de dados, Cabinet Office ministro Francis Maude afirmou.


Falando na Cimeira Cyber ​​Security 2014, em Londres, ele disse: "Fazer as coisas na nuvem é mais seguro do que está fazendo [isso] nós mesmos. É reconfortante saber que os seus centros de dados são - embora no governo nós não fazemos sempre. Mas, na verdade, nuvem prestadores de viver ou morrer por sua segurança na nuvem. "







No entanto, essa não é a percepção generalizada, disse ele.


Sobre a questão de saber se a maioria dos contratos com o governo longas anteriores ameaças modernas de segurança cibernética e, conseqüentemente, têm disposições de segurança inadequadas, afirmou proteção adicional está sendo construído em.


"Muitas vezes os contratos são muito grandes e por muito tempo. Em TI, nenhum contrato deve ser superior a R $ 100 milhões, sem prorrogações de contratos, para que possamos manter-se atualizado. E nós não devemos ter contratos de hospedagem de mais de dois anos, como o custo [de hospedagem] é reduzir pela metade a cada 18 meses. [Então] que começa a ajudar nessa área, porque estamos em constante renovação e atualização ".


O governo reservou R $ 860 em seu Programa Nacional de Segurança Cibernética de cinco anos, que se destina a desenvolver a resiliência do Reino Unido a ataques cibernéticos.


Maude disse que o governo também está colaborando com outros países em programas de pesquisa de segurança cibernética e criou recentemente um fundo de investigação fundo comum entre as universidades de Israel e do Reino Unido.


O governo estabeleceu uma meta de dobrar o valor das exportações de segurança cibernéticos do Reino Unido para R $ 2 bilhões até 2016, uma meta que afirmou que está a caminho de alcançar. ®







via Alimentação (Feed)

Azure TITSUP causado por loop infinito


Internet Security Threat Report 2014


O post via Tor (à direita) eo que Aussies viu.

O post via Tor (à direita) eo que Aussies viu. © The Register



Um bolas-up global de Redmond Azure do causado por um bug loop infinito pode ter havido por aqueles que habitam nos antípodas graças a um administrador aparentemente gordura de dedos que Geo-bloqueou a região a partir da leitura da notícia.







O TITSUP (total incapacidade de Apoio ao Serviço Usual) no serviço Azure nuvem Azure, a partir de cerca de 11:00 GMT de ontem, pode ter enviado alguns administradores de sistemas remotos lutando por uma resposta mais tempo do que seus colegas britânicos, europeus e americanos: do Microsoft declaração foi durante algum tempo inacessível por usuários na Austrália, Nova Zelândia e muitas partes da Ásia.


Bod Azure Jason Zander pediu desculpas a todos (fora dos antípodas) para um reinício do servidor necessária em um blog que tenha sido desbloqueado para todos na sequência de um inquérito Abutre do Sul.


"Como parte de uma atualização de desempenho para Azure Storage, um problema foi descoberto, que resultou na redução da capacidade em todos os serviços que utilizam Azure Storage, incluindo máquinas virtuais, Visual Studio Online, sites de busca e outros serviços da Microsoft", disse Zander do Hemisfério Norte.


"Durante a implantação, descobrimos um problema que resultou em frente blob de armazenamento termina entrando em um loop infinito, que ainda não foram detectados durante a luta (teste).


"O resultado líquido foi de uma incapacidade para o front-ends para assumir ainda mais o tráfego, que por sua vez causou outros serviços construídos sobre a ter problemas."


O reinício Redmond tem esfregou o problema para fora da existência e serviços para toda restaurada, mas uma indefinida pequena poucos.


"Quando temos um incidente como este, o nosso foco principal é o tempo para a recuperação rápida para os nossos clientes, mas também trabalhamos para examinar de perto o que deu errado e garantir que isso nunca aconteça novamente", disse Zander.


Microsoft ainda não respondeu a um pedido de comentário sobre a causa do bloco de geo, mas levantou-a algum tempo depois Vulture Sul perguntou por que ele estava lá. ®







via Alimentação (Feed)

quarta-feira, 19 de novembro de 2014

Jogador 3 entra no ringue: Dados Primários agarra Woz, salta para arquivo Virty luta


Escolhendo uma nuvem de hospedagem parceiro com confiança


Inicialização de dados primário de David Flynn aparentemente está reinventando "virtualização de arquivos" para centros de dados definidos por software - e assumindo assim ViPR da EMC e StorNext da Quantum.


E ele vem assim como a Apple co-fundador Steve Wozniak anunciou que ele deixou Fusion-io para se juntar Flynn em dados primários como cientista-chefe.







Isso é interessante porque, em 2005, co-fundou Flynn servidor de inicialização cartão flash Fusion-io, que Wozniak se juntou em 2009.


Em junho deste ano, Fusion-io foi comprada pela SanDisk por US $ 1,1 bilhão. Flynn e co-fundador Rick Branco tinha deixado antes da venda, e começou a subir de dados primário no segundo semestre de 2013.


Agora Flynn e Woz estão de volta na mesma equipe - e dados primários, está a emergir de modo stealth para revelar um esboço do que ele está desenvolvendo.


Elementos de virtualização de dados primários

Tecnologia de virtualização de dados Dados da primária



Flynn, CTO Dados da Primária, disse: "A virtualização de dados é o próximo passo inevitável para arquiteturas empresariais, uma vez que integra a infra-estrutura existente e toda a gama de capacidades especializadas fornecidas pelos recursos de armazenamento ultra-performance e ultra-capacidade."


A tecnologia define um "hypervisor de dados" que esconde todo o hardware e software de armazenamento abaixo de um namespace arquivo global. Há canais separados para enviar e receber dados, e para controlar o acesso aos dados armazenados.


Os administradores podem configurar definições de política de colocação e informação em movimento, com regras que reflictam as necessidades de desempenho de armazenamento, preço e proteção.


O hypervisor de dados permite que os clientes para mergulhar em sistemas de armazenamento de uma forma protocolo agnóstica. Software de Dados da primária faz o trabalho duro por baixo para capacidade de provisão e manter os bytes na linha.


Isto lembra El Reg da EMC camada de abstração ViPR-like , e da Quantum StorNext produto de virtualização de arquivo.


Hypervisor Dados da primária pode migrar informações entre arquivos, bloco e camadas de armazenamento de objeto, conforme necessário. Estes níveis podem ser direct-attached storage, armazenamento conectado à rede, e as nuvens públicas e privadas.


Estamos informados de que "um conjunto completo de serviços de dados permitir a escalabilidade linear perfeita de desempenho e capacidade."


O Data Director é a interface de gerenciamento; aqui está uma imagem de sua interface gráfica em operação, o que indica algumas das coisas que pode fazer:


Primary_Data_GUI

Interface com o usuário de dados primário (clique para ampliar)



Os servidores Dell e armazenamento Isilon estão presentes na imagem acima. Os clientes podem ligar capacidade extra quando necessário. Entende-se o software pode falar protocolos de acesso a arquivos (CIFS / SMB), protocolos de bloco (FC, FCoE, iSCSI), protocolos de objetos e APIs de nuvem.


Será fita realmente dar uma olhada-in? Anúncio de Dados da primária não menciona especificamente-lo. Presumivelmente, não haverá suporte para LTO, se alguma coisa. Que interfaces e protocolos de acesso suportes de dados primários provavelmente será mediada pela necessidade de negócio e tamanho oportunidade.


No geral, as plataformas de data center definido por software estão surgindo através de fornecedores: VMware da EMC é um jogador, e do lote OpenStack outro. EMC é provavelmente o jogador de virtualização de armazenamento líder dentro do espaço do data center definido por software - com a sua plataforma ViPR no presente, e coleção de construções como VSANs e VVOLs fornecendo elementos separados dentro do mundo dos ESXi da VMware.


StorNext é primariamente uma mídia e entretenimento, petróleo e gás, e área de aplicação jogo virtualização arquivo relacionado, parece-nos. Quantum does't tem definidos por software de virtualização de armazenamento ou ambições de grande escala em nível de centro de dados da empresa. Dados Primários faz.


Um extracto de um relatório por analistas do Gartner Dave Russell fala sobre o pano de fundo para as atividades de dados da Primária: "SDS [armazenamento definido por software] abstrai capacidades de armazenamento dinamicamente derivados de dispositivos e / ou serviços físicos ou virtuais - independentemente da localização ou classe de armazenamento - que oferece agilidade e proporciona uma qualidade de serviço (QoS), otimizando custos. Enquanto SDS ainda é em grande parte uma visão, é uma noção poderosa que poderia revolucionar o armazenamento de abordagens de arquitetura e modelos de consumo de armazenamento ao longo do tempo. "


Tecnologia ambicioso Dados da primária estará disponível pela primeira vez como uma plataforma integrada, com preços a ser anunciada no ano que vem. A empresa já está trabalhando com alguns parceiros, e parece feliz em falar para mais, se você entrar em contato através de seu website . ®







via Alimentação (Feed)

Bang! Você está morto. Quem recebe as chaves para o seu e-mail, iTunes e Facebook?


Guia do Iniciante para certificados SSL


Duas coisas na vida são certas: a morte e os impostos. Amazon e outras empresas internacionais têm encontrado formas * de todo o último, mas ninguém pode evitar o primeiro.


Na idade de contas do Facebook e do Google, e com a existência de serviços como o iTunes, onde as pessoas investem somas consideráveis ​​de bens totalmente virtuais, a pergunta precisa ser feita: O que acontece com o seu perfil online e bens em caso de seu falecimento?







Ninguém gosta de contemplar a sua morte, mas no mundo analógico que tomar providências - em termos de um testamento. Então, por que não incluir online?


As redes sociais são um enorme repositório de ativos - documentos e imagens. fanáticos iTunes poderia ter investido em bibliotecas alongamento para dezenas de milhares de títulos - é a parte do espólio do falecido?


Não que algumas empresas de tecnologia estão em causa.


Há duas partes para lidar eficazmente com sua propriedade de TI terrestre: os dispositivos físicos eo conteúdo de serviços on-line. Dada a diminuição do custo do hardware, eu diria o maior valor reside no material digital online. Seu legado digital tem valor residual e ele precisa ser tratado como um ativo valioso.


A obtenção de acesso a contas online dos membros falecidos da família tem sido muitas vezes uma experiência repleta. Pouco mais de uma década atrás, o argumento sobre a propriedade do conteúdo digital veio à tona quando a família do soldado Justin Ellsworth processou Yahoo! para obter acesso à sua conta de e-mail após a sua morte. Yahoo! só entregou os dados quando ordenada por um tribunal, apesar de ser mostrado a prova do falecimento de Justin.


Em resposta Yahoo! mudou sua política em relação ao que acontece após a morte e eficaz, quando um usuário passa, o mesmo acontece com a conta. É nos termos de serviço. Bummer. Com relação a outros prestadores de serviços, a forma como eles lidam com a morte de um usuário varia drasticamente. Alguns provedores não vai sequer cogitar a idéia de fazer qualquer coisa, a abordagem Yahoo!.


Outros provedores, com o comprovante de passagem, apresentar uma série de opções. Alguns serviços ainda fornecer chave de um homem morto que permitirá que seus entes queridos para ganhar algum grau de conta ou recuperação de informações após o evento.


Google gerente de conta inativa fornece um mecanismo morto à mão, configurável antes do tempo, para permitir que o conteúdo de uma conta para qualquer ser completamente removido ou liberado para até 10 contatos nomeados - supondo que eles têm a identificação exigida para fins de segurança. Para deixar bem claro, sua conta não estará disponível para login. O acesso ao serviço não será concedido. Este processo só fornece o conteúdo, em vez de recuperar a conta.


Seria também boas maneiras para deixar seu parente mais próximo representante / nomeado conhecer estas opções são definidas em sua conta. Para obter esse e-mail, sem perceber que você era a pessoa indicada pode ser muito angustiante. As informações necessárias para recuperar uma conta geralmente consiste de: certidão de nascimento, certidão de óbito, prova de atribuição sobre a conta em questão.







via Alimentação (Feed)

Azure da Microsoft vai TITSUP PLANET-WIDE novamente em nuvem FALHA


Guia do Iniciante para certificados SSL


Microsoft sofreu uma grande queda de em seu serviço de nuvem Azure durante a noite.


Foi titsup pouco antes de 01:00 hora do Reino Unido, e os serviços só agora estão voltando lentamente ao normal.


Microsoft confessou que várias regiões foram afetadas pela "interrupção do serviço".


Clientes de todo o mundo usando o armazenamento Azure, máquinas virtuais, uma série de produtos SQL e Active Directory, entre outros serviços, foram otário-perfurado pela longa interrupção.


Por 07:00 hora do Reino Unido, esta manhã, a Microsoft afirmou ter revivido a sua plataforma de nuvem.



É a segunda maior queda de ter atingido serviço Azure de Redmond, nos últimos três meses. Em agosto, ele tinha um semelhante sit-down, para grande frustração dos clientes de MS. ®







via Alimentação (Feed)

Microsoft adiciona vídeo oferta para o Office 365. Oh não, você precisa do Adobe Flash


Arrays de armazenamento Flash Inteligente


A Microsoft adicionou um portal de vídeo para o Office 365, que permite aos usuários fazer upload e compartilhar vídeos. O serviço estará no modo de visualização em breve, e está disponível para todos os clientes com o tipo certo de assinatura no início de 2015.


Então, qual é o ponto, quando o YouTube faz isso tão bem? A idéia é gerenciar vídeos internos com permissões baseadas em Azure Active Directory, o diretório para todos os usuários do Office 365. Os vídeos são organizados em canais, e cada canal tem editar e visualizar permissões que administradores de atribuir ao Office 365 usuários ou grupos. Os usos típicos seria para treinamento, apresentações, ou anúncios.


Office 365 video portal

O portal de vídeo aparece como um guia para os usuários registrados em Office 365 em um navegador web, ou você pode selecioná-lo a partir do lançador de aplicativo do Office 365, uma espécie de menu Iniciar online. Usuários fazer upload de vídeos por seleccionar um canal, em seguida, selecionando um vídeo com um seletor de arquivos, ou por arrastar e soltar. Múltiplos uploads são suportados.


Adicione uma descrição, aguarde Media Services Azure para processá-lo, eo vídeo está pronto para ir. Os canais de vídeo de apoio "holofotes vídeos" para permitir a promoção de títulos específicos. Os vídeos são armazenados em SharePoint Online, e há uma cota de armazenamento definido através da administração do SharePoint Online.







Uma senão com a implementação atual é que o Adobe Flash é necessário :


"Office 365 Vídeo usa o Adobe Flash Player para streaming adaptativo e entrega de vídeo segura. Para assistir a um vídeo, você tem que ter o Adobe Flash Player instalado. "

A maioria dos dispositivos móveis não suporta Flash. Dito isto, sopro da Microsoft também afirma :


"As pessoas serão capazes de ver e compartilhar vídeos no Office 365 em qualquer dispositivo. Eles podem facilmente navegar na página inicial e canais para localizar e visualizar o conteúdo, e até mesmo fazer upload de novos vídeos a partir de seu dispositivo. Vamos compartilhar mais novidades nos próximos meses sobre como você pode melhor interagir com o seu portal de vídeo do seu dispositivo móvel. "

Utilização da Microsoft para o tempo futuro sugere que o apoio móvel não fará parte da visualização inicial.


O portal de vídeo do Office 365 laços em um par de outros serviços. Os vídeos são detectáveis ​​através de Escritório Delve, um serviço de pesquisa que se baseia na Graph escritório (um gráfico social baseada em conexões e atividade de um usuário) a vir à tona os resultados mais relevantes. Os usuários também podem facilmente postar um vídeo no Yammer, rede social da Microsoft voltado para negócios.


Uma vez que o serviço é baseado em Azure Media Services, ele suporta os mesmos codecs de vídeo, uma ampla gama , incluindo H.264, MPEG-1, MPEG-2, MPEG-4, VC-1, DV, HQ e HQX. O áudio pode ser AC-3 (Dolby Digital), AAC, MP3 ou WMA. Formatos de arquivos suportados incluem .asf, .avi, .mod, mts, .vob, .mp4, .mpg e .wmv.


365 vídeo escritório só está disponível na empresa (E1, E2, E3 e E4) ou Acadêmico (A2, A3 e A4) planos. Os planos de negócios, projetados para pequenas organizações, não estão incluídos.


O vídeo promo para o novo serviço é, naturalmente, organizada pela YouTube.®







via Alimentação (Feed)

HDS: Armazenamento? Pah! Estamos trabalhando em um sistema operacional de cidade inteligente


Arrays de armazenamento Flash Inteligente


Hitachi Data Systems (HDS) está trabalhando em dois projetos que vão escalar suas tecnologias de computação e armazenamento para servir a Internet das implantações coisas em cidades inteligentes.


Falando ontem no fórum de inovação da empresa em Cingapura, na Ásia-Pac CTO Adrian De Luca mencionada decisão recentemente anunciada da empresa para construir uma EVO: Caixa TRILHOS usando o modelo da VMware para kit hyperconverged.







Ele então disse HDS tem mais do mesmo no caminho, e disse que os projetos AQUA e Havaí são os codinomes para esses esforços.


HDS sênior veep e gerente geral para a Ásia-Pacífico, Neville Vincent, mais tarde disse ao The Reg que AQUA é "um quadro comum e arquitetura para um sistema operacional de cidade inteligente" e Havaí é um sistema altamente convergente altamente escalável projetado para sustentar AQUA.


Detalhes de exatamente quando ou surgirão não foram discutidos, mas o discurso de De Luca sugere uma certa urgência.


Os dois projetos, provavelmente, precisa ser entendida no contexto do Fórum de Inovação da empresa, um evento em que o grupo Hitachi falou sobre sua ambição de ajudar "inovação social", com seus muitos produtos.


Não menos uma pessoa do que Yukata Saito, quinto escalão executivo da Hitachi na organização, abriu o evento com uma visão para o uso de todos os ativos da empresa para desenvolver produtos e serviços que permitem aos governos a atender às demandas de inchaço da população ea de análise orientada salienta que colocam recursos.


Sem ficar tudo Hitachi, Hitachi, rah-rah-rah em você, o grupo tem um portfólio impressionante de kit com que trabalhar: constrói centrais elétricas, trens, kit de telecomunicações e uma infinidade de outros produtos *. Além disso, é claro, os servidores e armazenamento em rede mais familiar aos leitores Reg. A empresa está agora à procura de maneiras de obter todos aqueles que trabalham em conjunto em plataformas de cidade inteligente.


O entusiasmo por este conceito é alta na Ásia. Penetração de dispositivos móveis está a aumentar em todo mesmo nações menos prósperas da região e os cidadãos estão ansiosos para uma melhor prestação de serviços de seus governos e empresas.


Indo direto ao sensor-zados cidades inteligentes faz sentido nesta mistura, mesmo se um motivo de assegurar populaces não ficar agitado ou tornar-se agitadores é muitas vezes apresentada como um motivo para melhorias no serviço.


Sejam quais forem as implicações políticas de cidades inteligentes, Hitachi quer e especialização HDS na construção de kit e fazer a integração do sistema são aparentemente vistos como ativos fundamentais para o impulso do grupo em inovação social.


A idéia de tem ramificações para HDS, também, como Vincent disse que é uma das táticas que o ajudarão movê-lo de armazenamento 80/20 / outra divisão da receita de hoje para uma divisão de 50/50 até 2017.


Isso é uma mudança de outros fornecedores de armazenamento gostariam de fazer. Nenhum, no entanto, ter um papai tão grande e largo como Hitachi para ajudá-los a retirar a transição.


* Bootnote: Entre as ofertas da empresa é o solo condutor, uma substância concebido para ser colocado ao redor da base do pára-raios - o melhor para ajudá-los a corrente de descarga.







via Alimentação (Feed)

O Big Data disputa CIO que você provavelmente nunca ouviu falar: Mas o seu kit provavelmente sabe que você


Arrays de armazenamento Flash Inteligente


Loja Direct é um grupo R $ 1,7 bilhões, que é dono de algumas das marcas mais conhecidas no varejo - empresas pioneiras que a ponta de compras.


Entre os nomes que detém são Kays e Littlewoods, marcas domésticas que, na verdade, primeiro empurraram a idéia de fazer compras sem sair de sua casa para o Reino Unido usando catálogos de papel, entrega em domicílio e encomenda por telefone.







Você ainda pode obter um dos seus catálogos de assinatura hoje - apenas. Comprar direto produziram 40 milhões de livros em 2009 - mas esse número foi picado a 1,5m.


Hoje apenas 20 por cento do negócio é feito em árvores mortas ou reciclados versus 80 por cento online. Impulsionando as vendas on-line estão a so-hip-ferem Very.co.uk e ISME, lançado em 2009 e 2011, respectivamente.


Mas ao comprar direto, mesmo a noção tradicional de que o site está sendo alterado: com 44 por cento das vendas on-line via celular, comprar direto desenrolou aplicativos nativos para iOS e Android. No próximo ano, ele lança-se primeiro site de varejo do grupo autônomo sob medida para um público específico - mulheres com idade entre 26 a 35 anos interessados ​​em grifes.


"Somos uma empresa digital," CIO Andy Wolfe de comprar direto disse o Register, durante uma entrevista recente.


"Nós acreditamos que a tecnologia fundamentalmente, eo uso de tecnologia que melhor se engaja o cliente, trará grandes investimentos para nós."


Claro, todo mundo está "indo digital", mas para todos que a mudança, o espírito de Littlewoods e Kays ainda parece estar por trás das mudanças.


Wolfe diz que ele está gastando uma quantidade substancial de dados grandes e "experiência".


Por quê? Porque, ao contrário dos dias mais suaves do século 20, quando Kays e Littlewoods foram mudando as coisas, a competição hoje é mais difícil.


Não apenas os outros suspeitos varejo on-line no Reino Unido, mas também os tipos de cliques e argamassa comendo até o varejo digital - como Grupo Arcadia (proprietário da Top Shop), M & S, Argos, John Lewis e agressivas euro-invasores H & M. Eu nem sequer mencionar Amazônia. Não, eu apenas fiz.


Então comprometida é a placa, que Wolfe acha chefes de comprar direto, financiaram as iniciativas digitais acima e além do orçamento anual de TI.


Ele não disse quanto em qualquer caso.


Andy Wolfe

Wolfe: anel cercado gastos com TI para o futuro



"Um monte de varejistas gastar muito dinheiro manter as luzes acesas. Temos anel cercado orçamento ", disse Wolfe," e uma percentagem significativa do investimento vai para o futuro. "


Loja Direto tem uma história de grande gastá-lo. Em 2012 os irmãos Barclay, que possuem comprar direto - uma das maiores empresas privadas do Reino Unido - culpou o investimento na web para causar uma perda anual de R $ 46 milhões.


O Barclays, para os fãs da história de varejo, comprou o que era Littlewoods "comprar direto em 2002 para R $ 750 milhões. Eles venderam as lojas e rebatizada em 2005 como Littlewoods Loja Direct Group eo então rebatizada de novo como Loja Direct Group, dois anos depois.


O Barclays disse que eles eram "confiante" a despesa iria pagar. Parece que eles estavam certos: comprar direto no mês passado registrou lucros acima de 40 por cento a £ 40.4m (antes de impostos) para o ano. Ele citou investimentos em web e m-commerce. Very.co.uk entregues 23 por cento do crescimento, tornando-se a maior marca do grupo com R $ 700 milhões em vendas.


Em uma operação de varejo virtual como comprar direto, dados é o material mais crua da empresa e é isso que Lobo planeja mineração para conduzir web e móvel crescimento no próximo ano e além.


"Noventa e cinco por cento do que nós vendemos é vendido em dados", disse Wolf. "Nós estamos tentando trabalhar com o varejo e os dados financeiros e tentando analisar e ver o que as decisões que devemos tomar eo que devemos oferecer ao cliente, através de promoções ou chamadas de serviço relacionadas à sua conta.







via Alimentação (Feed)

terça-feira, 18 de novembro de 2014

Servidores-by-the-minute de testes VMware nuvem


Escolhendo uma nuvem de hospedagem parceiro com confiança


ournalists que a cobertura de nuvens tem um pesadelo recorrente: sair do "l" fora de "nuvem pública" e amarelando uma surra nos comentários para a sua deslizamento pouco freudiano.


Mas um vendedor que opera uma nuvem que não é inteiramente público é VMware: de Virtzilla vCloud Air até agora tem sido vendido como um caso de by-the-mês.







A empresa, no entanto, sinalizou que está interessada em entrar no "passe-me o seu cartão de crédito e executar máquinas virtuais por uma hora" alcaparra, e já anunciou que está testando apenas como um serviço. Você - sim, mesmo você - pode aplicar para ser um piloto de testes por inscrever-se aqui .


VMware está chamando este serviço aéreo "auto-fornecimento on-demand" vCloud por agora, e as promessas de acesso com "nada mais do que um navegador e um cartão de crédito." Uso será medido a cada minuto e cobrado mensalmente em atraso.


A empresa está falando a visão usual de vSphere e vCenter em todos os lugares, para um Control Freak One To Rule Them All plataforma que se comporta da mesma se os servidores estão sob sua mesa ou em celeiros bit, em grande parte, alugados da VMware.


O anúncio do programa piloto de testes é notável porque VMware está falando a oportunidade de acesso a "uma piscina virtualmente ilimitado de recursos."


Essa é uma afirmação ousada, pois em comparação com os gostos de AWS, Google e Microsoft, VMware não tem enormes quantidades de dinheiro para gastar em celeiros bits. Mesmo com os gostos de Rackspace se afastando de come-e-get-it nuvem pública, VMware caminhando nessa direção evidencia tanto formas astutas de escalar ou um grande reservatório de dólares para lançar no mercado. ®







via Alimentação (Feed)

segunda-feira, 17 de novembro de 2014

Como manter tudo fofo em seu mundo de nuvem híbrida


Arrays de armazenamento Flash Inteligente


A computação em nuvem é um grande negócio nos dias de hoje. Peidos velhos como eu, podem debater ad nauseam se em nuvem é apenas uma nova palavra para o que usamos para chamar serviços gerenciados ou hospedados e se ele está latindo para chamar uma infra-estrutura no local virtualizado uma nuvem privada.


O fato é que o que você chamá-lo, há uma grande quantidade dela sobre e está crescendo como um louco.







A coisa é, poucas organizações colocou todo o seu mundo na nuvem. É comum ver sistemas divididos entre uma instalação no local (ou auto de gestão de centro de dados) e uma configuração de nuvem.


Mesmo as empresas que vão para um serviço em nuvem 100 por cento muitas vezes espalhar seus sistemas entre dois ou mais provedores de nuvem para evitar pontos únicos de falha.


Há, claro, um monte de nomes para esses conceitos: nuvens híbridas, nuvens conectados, nuvens integrados e assim por diante.


Vou usar os termos "integrado" e "híbridos" como sinônimo de falar sobre o assunto em questão: fazer o seu trabalho de configuração virtual de auto-geridos com uma configuração de nuvem e fazer duas instalações nuvem díspares trabalhar uns com os outros.


Passo um: conectividade


A primeira coisa que você precisa para conectar sistemas juntos é (quelle surpresa) algum tipo de conexão. Nove em cada dez vezes isso significa uma conexão de site-to-site VPN através da Internet entre os vários locais, embora as ligações mais diretas também são possíveis.


Você pode executar uma linha alugada em uma instalação da Amazônia, por exemplo, e de outras empresas de telecomunicações alcançar resultados semelhantes, conectando você aos seus MPLS gerenciados ou redes VPLS.


A natureza da ligação é totalmente irrelevante a forma como você usá-lo, é claro. Parte do ponto de uma VPN é que os caras de rede pode abstrair a sua existência para que fique com o resto da equipa de gestão do sistema como apenas mais um link de rede. Portanto, independentemente de como funciona a conectividade física, você precisa seguir as mesmas regras simples.


Encaminhamento: decidir que partes da sua rede precisa percurso de e para a configuração de nuvem, e projetar seus algoritmos de roteamento de forma sensata. Se você estiver usando VPNs (conectividade internet barata), então por todos os meios considerar ter várias VPNs entre o serviço de nuvem e suas instalações, em vez de um único ponto de estrangulamento entre você ea nuvem.


Prevenção de lixo: usar listas de controle de acesso para restringir o fluxo de tráfego entre as localidades, e não permitem lixo desnecessário passar por cima de seu vínculo de integração, porque é obrigado a ser um ponto de aperto de qualquer maneira e lixo irá coisas simplesmente desacelerar.


Otimização: alguns vendedores usam hardware otimização link e comprando um otimizador semelhante para o seu final, você pode obter um significativo aumento de velocidade (tipicamente 5-8 vezes na minha experiência). Optimisers WAN não são baratos, mas o custo pode ser compensado pelo fato de que você pode alugar um link mais lento, mais barato.


Velocidade: antes de tomar a mergulhar, certifique-se que você leu etapa cinco (abaixo) com cuidado ou você vai acabar com uma conexão que não está apto para o efeito.


Passo dois: mecanismos de propriedade


Uma vez que você tiver uma conexão entre os sistemas ea localização (s) em nuvem, você precisa conectar as infra-estruturas. Isto é onde você tem que considerar as plataformas de virtualização em uso por seus sistemas e aqueles na nuvem.


Digamos que você está usando uma plataforma VMware para virtualização interna eo provedor de nuvem que você escolheu também é uma casa de VMware. Supondo que eles apresentam as interfaces necessárias para seus clientes, você pode usar vCloud Connector para ligar os dois mundos juntos e gerenciá-los como um todo.


Eu já vi isso feito e é uma ótima maneira de fazer seus mundos gerenciável. E se você é uma casa Microsoft não se preocupe, você pode usar ferramentas variadas do Hyper-V para atingir praticamente qualquer coisa que você quer no que diz respeito à replicação entre sites, gestão e afins.



Você pode olhar para um dos sistemas de gerenciamento de terceiros que trabalha com múltiplas instalações nuvem



Se você tem diferentes plataformas em seus vários sites nem tudo está perdido; você ainda tem algumas opções. Em primeiro lugar, você pode olhar para um dos sistemas de gerenciamento de terceiros que trabalha com várias instalações de nuvem - RightScale Nuvem de Gestão, por exemplo, ou se você está se sentindo geeky então algo como Opscode Chef.


Alternativamente, você pode ir para uma abordagem DIY, caso em que você só precisa pensar sobre isso, da mesma forma como você faria se você tivesse um mix de plataformas dentro de sua infra-estrutura de auto-geridas.


Etapa três: integração genérico


Isso tudo é sobre padrões. Se você gerencia um ambiente heterogêneo em suas instalações, então por que não olhar para estender que a gestão dos elementos de nuvem também?


Monitoramento do sistema é um exemplo clássico. SNMP é apenas SNMP, então não deve haver problema mergulhando em elementos do serviço de nuvem, desde que eles estão abertos para você (e sobre os elementos que você controlar como os seus servidores virtuais e firewalls virtuais este deve ser o caso).


Da mesma forma, qualquer ferramenta que você usa para gerenciar o sistema operacional de um servidor em casa deve ser capaz de gerenciar servidores baseados em nuvem no exatamente da mesma maneira. E se você estendeu seu Active Directory (outros serviços de diretório estão disponíveis) entre on-premise ea nuvem, gerenciamento de seu mundo sistema operacional do servidor deve ser sem costura.


Ok, você não tem a gestão de baixo nível de uma camada de virtualização, neste modelo, mas isso não impede você de fazer tudo de uma forma coerente e integrada.


Passo quatro: saber o que você não pode fazer


A menos que você for realmente sortudo você não será capaz de integrar o seu mundo com a configuração de nuvem em um nível muito baixo.


O que pode fazer sobre isso? Francamente, nada. É verdade, se o seu provedor de nuvem é pequeno e flexível, então ele pode permitir-lhe coisas como somente leitura o acesso aos módulos de infra-estrutura - mas se um fornecedor ofereceu-me este eu pergunto instantaneamente se ele comprou seu certificado ISO27001 da Tesco e se há uma linha de cavalos amarrados do lado de fora da taverna ao lado.


Os provedores de nuvem que oferecem aos clientes "importantes" acesso de baixo nível ao seu kit de infra-estrutura devem ser temidos: você não deixar os clientes farejar os bits do mundo que são compartilhados com outros clientes ou pode dar pistas sobre possíveis furos de configuração de segurança.


Aceite, então, que você não será capaz de configurar portas span em switches de rede, ou ver o que a compressão as opções estão sobre o armazenamento subjacente, ou check-out a saturação nos uplinks entre os hosts do servidor físico.


Em vez disso se contentar com o estudo do acordo de nível de serviço para ter certeza de que você entende o que você está recebendo e que, se houver um problema equipe do provedor irá diagnosticar os elementos que você não tem acesso.


Passo cinco: a integração de aplicativos


A razão pela qual você tem uma infra-estrutura em tudo é porque você está indo para a camada de aplicações em cima dela.


Então, se você estiver indo para ter uma configuração de nuvem híbrida que você precisa para ter certeza de que os aplicativos funcionarão. Felizmente, há um punhado de regras simples de seguir.


Velocidade de replicação: você provavelmente está olhando para ter alguns de seus aplicativos replicados em ambos os locais para dar-se a capacidade de failover para o serviço secundário deve a principal quilha e morrer.


Nesse caso, é necessário o servidor primário para ser capaz de reproduzir em tempo real para o secundário - o que significa garantir que haja largura de banda suficiente entre os locais. Antes de escolher o seu link é preciso considerar a taxa de transferência que você precisa.


Acessibilidade: no caso em que você precisa para failover para o site secundário, você precisa entender como os usuários irão acessar os sistemas de lá.


Vamos pegar o exemplo de um aplicativo de desktop que é back-terminado por um banco de dados Oracle, onde esse banco de dados é replicado entre dois sites. O motorista de mesa Oracle tem um arquivo de configuração que descreve as várias conexões de banco de dados disponíveis para essa máquina.


É um trabalho simples de configurar tanto o seu primário e secundário servidores da Oracle nesse arquivo, e se você tem feito para que o motorista irá magicamente tente o secundário, se o primário não está disponível.


Considere todas essas pequenas nuances e testar suas soluções prontamente ao invés de esperar por um teste empírico quando algo dá errado.


Retorno de Falha: failover em algumas aplicações é um pouco como cair através de um alçapão - que leva alguns segundos para failover mas horas ou dias para amaldiçoar sobre resynchronising tudo falhar volta. Tenha certeza que entendeu esta e testar tanto failover e failback tão logo você acha que ele está trabalhando.


Nada é simples


Integração em nuvem não é diferente, em princípio, de integração geral no local.


Você descobrir como você deseja que seus aplicativos para interagir com os usuários e com os outros, você se conecta os sistemas juntos, você escolhe as técnicas mais eficazes para a gestão do todo integrado (embora na nuvem você pode ser impedido de espreitar para as coisas no baixo nível que você está acostumado), e você testar tudo cuidadosamente.


Não, não é simples, mas nem são a maioria das coisas para fazer com infra-estrutura. É, no entanto, não é realmente muito mais difícil do que correr uma configuração de auto-geridas. E isso é o que importa. ®







via Alimentação (Feed)

sábado, 15 de novembro de 2014

Zuck: Yo, publicitários! Quer flog suas marcas no Facebook? Pagar ou DEIXAR


Escolhendo uma nuvem de hospedagem parceiro com confiança


Facebook é reprimir os anunciantes que utilizam a rede ad conteúdo gratuito para tout marcas através dos chamados "postos página de promoção."


A empresa Mark Zuckerberg prazo colocar publicitários em aviso prévio, ontem, em um post que deixou claro que o Facebook só irá permitir que marcas para promover o seu próprio equipamento se pagar pelo privilégio.







Os anunciantes têm vindo a utilizar Páginas para promover os seus bens, que por sua vez tem entupido do Facebook News Feed. A empresa, naturalmente, açúcar revestido a sua mais recente estratégia, dizendo que queria oferecer uma melhor experiência para seus usuários.


Na verdade, o Facebook viu uma brecha que permite popular de publicidade para atingir os usuários com suas marcas de forma gratuita. E Zuck não está feliz com isso.


A rede disse:



A partir de janeiro de 2015, as pessoas vão ver menos desse tipo de conteúdo em seus feeds de notícias. Como já dissemos antes, News Feed já é um lugar competitivo - à medida que mais pessoas e páginas está postando conteúdo, a competição para aparecer no Feed de notícias aumentou. Tudo isso significa que as páginas que postam promocional * criativo deve esperar sua distribuição orgânica a cair significativamente ao longo do tempo.


Esta mudança não irá aumentar o número de anúncios que as pessoas vêem em seus feeds de notícias. A idéia é aumentar a relevância ea qualidade das histórias globais - incluindo as mensagens da página - as pessoas vêem em seus feeds de notícias. Esta mudança é dar às pessoas a melhor experiência possível Facebook e ser sensível ao que eles nos disseram.


Enquanto Páginas que postar um monte de conteúdo citamos acima vai ver uma diminuição significativa na distribuição, a maioria das páginas não serão afetados por esta mudança.



®


* Ex-me espremer, fermento em pó?







via Alimentação (Feed)

sexta-feira, 14 de novembro de 2014

EXPOSTO: nublado Docker-friendly serviço EC2 da Amazon Container


Controle remoto seguro para desktops convencionais e virtuais


Análise Amazônia amarradão os fogos de febre recipiente Linux na quinta-feira com a introdução da sua nova Container EC2 serviço para o (AWS) nuvem Amazon Web Services. Mas qual é o real benefício da ECS e como ele funciona?


Não há necessidade de pedir que o público-alvo da ECS é. No re AWS: Invente conferência em Las Vegas esta semana, centenas de participantes na fila para, tanto quanto uma hora para assistir a uma sessão organizada pelo recipiente maven Docker, e muitos se transformaram na porta uma vez que a sala cheia. Containers, e por extensão Docker, parece ter despertado o interesse de quase todos no mundo Linux.







Mas, apesar de Docker e outras empresas têm feito muito barulho sobre como recipientes vai revolucionar TI, migrando sua infraestrutura existente de, pilhas de servidores monolíticos tradicionais para um modelo baseado em recipiente não é tarefa fácil.


Manter o controle de todas as suas embalagens, sabendo onde eles estão funcionando e que eles estão fazendo, e escalar a sua frota de contêineres para atender a demanda podem ser um desafio - que é onde ECS vem.


EC2 Container Service sob o capô


No nível mais alto, a ECS é um serviço que permite que você executar e gerenciar contêineres em um cluster de servidores EC2. Então o que é isso, então?


Em primeiro lugar, para "containers," ler "imagens Docker". Na visão de Amazônia, recipientes e Docker são essencialmente sinônimos, e cada instância em um cluster ECS está executando um daemon Docker para alimentar seus recipientes.


Amazon Web Services engineer Dan Gerdesmeier

Da Amazon Dan Gerdesmeier girou para cima WordPress em minutos a AWS re: Invent



Cavando ainda mais em, engenheiro AWS Dan Gerdesmeier explicado no re: Invent que o modelo ECS pode ser amplamente dividido em contêineres, tarefas, casos de contentores e clusters.


Containers, obviamente o suficiente, são as imagens individuais Docker do software que você deseja executar. As tarefas são simplesmente grupos de recipientes relacionados. Por exemplo, você pode ter um recipiente que contém um servidor web Ngnix, outro que mantém um banco de dados MySQL, e um terceiro que detém uma aplicação Ruby on Rails. Individualmente eles são apenas recipientes, mas juntos eles formam um sistema que a Amazon chama de uma tarefa.


Você pode configurar os recipientes e as tarefas que você deseja executar no ECS via arquivos de definição de JSON. A definição de contêiner especifica uma imagem e os recursos da AWS que necessita, tais como CPU, memória e portas. A definição de tarefa é essencialmente uma lista de definições de contêineres, além de um número de versão e um nome para toda a família.


Indo mais para cima da pilha, você tem casos de contêineres. Conceitualmente, estes são instâncias de máquinas virtuais em que as tarefas são agendadas. Tecnicamente, eles são instâncias EC2 que correm ECS Agente da Amazon, que é um pedaço de software escrito em linguagem do Google Go que oferece o molho especial que faz trabalho ECS.


"O Agente EC2 Container Service é responsável por verificar a ocorrência em seu conjunto", explicou Gerdesmeier. "Ele realiza todo o trabalho pesado de garantir que os recipientes em sua instância individual ficar para cima, e ele relata todas as informações de volta para o serviço."


Por fim, temos aglomerados, que são o nível superior da pilha ECS - embora eles também são principalmente conceitual. Enquanto gira sempre ECS-se um conjunto de instâncias de recipiente, que poderia ser um aglomerado de um. Basta dizer que um cluster fornece o pool de recursos da AWS para as suas tarefas para executar em, no entanto grandes ou pequenos.







via Alimentação (Feed)

Oi, Europa! Conte-nos Federais GTFO de nossos servidores, diz Microsoft e amigos


Top 5 razões para implantar VMware com Tegile


Apple, Microsoft, HP e outros gigantes da nuvem estão implorando Europa para ajudar a deixar de US feds apreensão de dados dos clientes de servidores no continente.


Um documento de política [PDF] publicado na sexta-feira por DigitalEurope - que representa os goliaths acima - instou a Comissão Europeia a percorrer em uma luta jurídica em curso entre Tio Sam e Microsoft sobre privacidade.







A gigante do Windows foi ordenada pelos tribunais dos Estados Unidos para entregar e-mails de um suposto traficante de drogas que foram armazenados em servidores na Irlanda. A gigante de tecnologia recorreu, mas juiz distrital dos EUA Loretta Preska decidiu em julho que a localização dos dados era irrelevante, uma vez com sede em Washington Microsoft tinha "controle" sobre ele.


No entanto tal acção unilateral pode não ter sido necessária uma vez que os EUA têm tratados de auxílio judiciário mútuo ( MLAT ) com Irlanda e da UE como um todo. Portanto DigitalEurope quer que a UE considerar a apresentação de "um amicus curiae" (essencialmente uma opinião de terceiros, para aqueles que não fluente em juridiquês) ao tribunal.


DigitalEurope, o que representa 58 grandes empresas de tecnologia como Cisco, Dell, Oracle e IBM, quer que a Europa dizer os EUA a recuar, respeitam as fronteiras soberanas, e usar os tratados de solicitar o acesso aos dados pessoais armazenados em centros de dados europeus.


Naturalmente, todas as advertências habituais estão incluídos na carta: as frases "o investimento no desenvolvimento de MLAT processos para que eles funcionem de forma eficaz", "equilibrar as necessidades da aplicação da lei" e "a necessidade de acesso legítimo aos dados do usuário no confronto crime e no fortalecimento da segurança nacional "todos aparecem.


Mas no final do dia, este é apenas um bom negócio: "Os europeus podem hesitar em adotar serviços em nuvem por causa da falta de clareza sobre como seus dados podem ser acessados ​​por autoridades de aplicação da lei", escreveu Louise Phelan, presidente da Câmara Americana de Comércio Irlanda, em uma carta [PDF] para o chefe do governo irlandês no início deste mês. Phelan é também veep da EMEA operações global de PayPal.


Manter a confiança dos clientes ", protegendo a sua privacidade e proteção contra intrusões governamentais irracionais é fundamental", acrescentou. Um caso claro de inimigo do meu inimigo é meu amigo. ®







via Alimentação (Feed)

NetApp para colocar ONTAP nuvem da Amazon para os clientes sedentos


Guia do Iniciante para certificados SSL


NetApp prossegue a sua estratégia de tentar obter ONTAP mais integrado com armazenamento em nuvem da Amazon por ter que gerenciar dados em Cumulo Amazonius e backup de dados em nuvem disse com o produto SteelStore recentemente adquirida.


Nuvem ONTAP é a mais recente iteração ONTAP, e é um dispositivo de armazenamento apenas de software construído sobre a NetApp agrupado sistema operacional de armazenamento Data ONTAP, usado em todas as matrizes NetApp FAS.







"Cloud ONTAP é implantado e gerenciado de OnCommand Nuvem Manager como uma máquina virtual no Amazon EC2 instâncias de computação gestão de armazenamento Amazon EBS, permitindo aos clientes a construir uma solução de armazenamento virtual diretamente sobre os recursos da Amazônia", disse NetApp.


NetApp afirma Nuvem Manager fornece instalação, atribuição de recursos e provisionamento de dados, e quando Nuvem ONTAP está em funcionamento, instalações de gestão do dia-a-dia.


Nuvem ONTAP facilita ter um ambiente híbrido privado / público ONTAP nuvem e vir como dois pay-as-you-go AMIs (Amazon Machine Images) chamado Nuvem ONTAP Explorar e Cloud ONTAP padrão. Ambos suportam NFS, CIFS, iSCSI e gerenciamento de dados na AWS. A opção de assinatura está disponível para Nuvem ONTAP padrão.


Explorar tem um limite de 2 TB de capacidade, enquanto a edição Standard atinge o máximo em 10 TB, com AWS pay-as-you-go em 50TB com uma assinatura.


Existem várias opções de desempenho e capacidade, que vão desde a opção de menor pay-as-you-go em 2 TB para o modelo de assinatura maior.


Cloud_ONTAP_for_AWS

Nuvem ONTAP para AWS



Quando e onde é que NetApp dizer que você deve usar ONTAP no local eo ONTAP Cloud:



  • No local matrizes FAS são a escolha quando "padrões e requisitos de utilização de recursos de aplicação são bem conhecidos, com o uso a longo prazo"

  • Nuvem ONTAP é "para as necessidades novas ou desconhecidas aplicação ou aplicações que necessitam [] implantação rápida de armazenamento para acomodar cargas de trabalho variadas


Saiba mais sobre Cloud ONTAP aqui . Você pode baixar as informações em formato PDF sem registo obrigatório


NetApp disse AWS (Amazon Web Services) é o primeiro provedor de plataforma para executar serviços em nuvem ONTAP em seu ambiente de nuvem, sugerindo que outros serviços de nuvem pública pode seguir - Azure (a certeza de ferro fundido que pensamos) e Google talvez.


NetApp comprou SteelStore da Riverbed no mês passado, sem dúvida, pensar, então, que o produto Riverbed era adequado para os dados do rio Amazonas. É agora remam o aparelho SteelStore.


Ele está disponível em 750 AMI, 2030 AMI, e 3.030 opções AMI no AWS. Usuários "pode ​​fazer backup, arquivamento e recuperação de dados armazenados em AWS e retornar às operações dentro da nuvem".


NetApp disse SteelStore é heterogêneo, com o apoio de 85 por cento dos principais fornecedores de software de backup. Com a redução de dados e recursos de otimização de WAN, "os clientes podem reduzir os volumes de dados em até 90 por cento e transporte vezes em até 75 por cento".


Dados dos usuários são criptografados no local, em trânsito e em repouso. SteelStore suporta StorageGRID produto de armazenamento objeto da NetApp.


Um dispositivo de backup SteelStore nuvem integrada está disponível a partir da NetApp e seus parceiros de canal agora. SteelStore AMIs não aparecerá até o terceiro trimestre de 2015, por isso deve ser necessário muito de desenvolvimento.


Nuvem ONTAP Explorar e Cloud ONTAP padrão estão disponíveis como AMIs e como assinaturas de seis meses. ®







via Alimentação (Feed)

Fria? Cuddle estes racks ALEMÃO quente, seu por apenas 12.000 € - juramos há um ângulo de TI


Top 5 razões para implantar VMware com Tegile


Uma startup na Alemanha calcula que encontrou uma, como é que podemos colocar desta forma, corajoso para mesclar com a computação em nuvem se manter quente em casa neste inverno.


Ao invés de jogar mais lenha na fogueira, você pode instalar um de seus armários servidor quentinhos em seu porão. Supondo que você tenha um sobressalente dez mil e um tubo de 50Mbps para a internet.







Nuvem & Heat surgiu esta semana para sugerir os proprietários e as empresas podem utilizar prateleiras quentes para aquecer seus edifícios. Por 12.000 € (£ 9.500), a empresa vai instalar uma grande habitação à prova de fogo e inviolável contendo uma carga de sistemas de computação.


O gabinete garantido é então ligado a reservatórios de calor e tanques para aquecer a água eo ar. Aquecimento extra é expelido para fora do edifício quando não for necessário.


A empresa disse que para os edifícios menores que o sistema poderia fornecer todo o aquecimento necessário, enquanto edifícios maiores poderiam usar o sistema apenas para aquecer a água ou o ar em combinação com caldeiras e radiadores. Uma vez que a taxa de instalação é pago, Nuvem & Heat, abrange todos os dados e custos de manutenção elétrica (incluindo a substituição do hardware do servidor a cada três a cinco anos) por um período de 15 anos.


Edifícios também são obrigados a cumprir um conjunto mínimo de requisitos de energia ea capacidade de executar uma conexão de 50Mbps para o gabinete do servidor. Os proprietários de edifícios não têm acesso direto aos servidores, a fim de manter as proteções de segurança, assumindo que eles não esmagar abrir os armários, por qualquer motivo.


Por que pontilham seus servidores ao redor Alemanha, Nuvem & Heat acredita que pode economizar em custos de instalação e refrigeração do data center. Há também um potencial benefício indireto para o meio ambiente como o ar quente está sendo colocado em prática um pouco do que levado por um sistema de refrigeração.


Uma maravilha o que acontece durante os meses de verão, no entanto.


Além disso, porque o serviço só é oferecido aos edifícios na Alemanha, a empresa pode solicitar todos os dados são armazenados dentro das fronteiras - ou seja: não os EUA ea NSA - e servidores podem ser mantidos e auditados.


Para os clientes de nuvem, as funções da empresa como um provedor de serviços de nuvem pública tradicional: você pode alugar máquinas virtuais Linux e Windows com até 8 vCPUs e 32 GB de RAM, bem como dos serviços de bloco e de armazenamento de objetos.


Enquanto o sistema de nuvem faz mais, hum, sentido para cinco olhos -adverse empresas alemãs que podem de alguma forma justificar armazenar dados sensíveis em sótão de um desconhecido, o modelo poderia pegar em outro lugar caso o projeto revelar-se eficaz e econômica. Talvez casas airoso em Blighty ou os EUA em breve poderá ser aquecida com o ar quente soprado fora de um rack de servidor em casa. ®







via Alimentação (Feed)

quinta-feira, 13 de novembro de 2014

Amazônia, Docker hop na cama: O que acontece em Vegas não vai ficar em Vegas


Controle remoto seguro para desktops convencionais e virtuais


Revelou CTO Werner Vogels hoje da Amazon a Service Container para EC2 em nuvem da AWS.


Falando no bazar da web Reinventar conferência em Las Vegas, Vogels foi acompanhado no palco por Ben Golub, diretor executivo da Docker - que é apoiado pelo novo serviço de contentores.







"Os desenvolvedores são largamente preso na idade das trevas", disse Golub, argumentando que os programadores também muitas vezes amarrar suas aplicações muito de perto a infra-estrutura.


Pense Docker como virtualização dieta: ele permite que os desenvolvedores empacotar ambientes de software em caixas e implantá-los no Linux. Imagine um desenvolvedor de aplicações web nocauteando código em seu laptop e, em seguida, testar esse código em um recipiente que corresponde aos recipientes que funcionam na produção.


É um negócio de US $ 400 milhões, aparentemente.


Docker CEO Brian Golub on stage at Reinvent

Docker CEO Brian Golub no palco do Amazônia Reinventar



A capacidade de executar Docker em máquinas virtuais Linux no AWS EC2 não é nova. No entanto, a Container Service EC2 faz caixas Docker, que são o único recipiente apoiado, cidadãos de primeira classe em nuvem: os clientes podem comprar um conjunto de instâncias EC2 contentores e gerenciá-los usando a API do Container Service.


Isso significa que você pode controlar quais instâncias de máquinas virtuais deve ser executado recipientes específicos, ou deixar AWS otimizar isso para você. Há também um programador que permite adicionar e remover os recipientes de acordo com as exigências previstas.


Você não tem que usar uma máquina virtual Amazon fornecido: se você preferir, você pode usar qualquer VM Linux com o Container Service EC2, desde que cumpra as especificações da Amazônia. Um cluster usando o novo serviço pode escalar de uma única VM para milhares de casos em várias zonas de disponibilidade da Amazônia para a resiliência.


Novo suporte Docker da Amazon se encaixa muito bem com outra tendência de desenvolvimento de software. Micro-serviços chamados, a idéia é dividir as aplicações em muitos serviços fracamente acoplados, cada um dos quais tem um foco estreito. Cada um desses serviços pode ser "Dockerized" e, dependendo de uma determinada tarefa, agrupados em conjunto para implantação.


O Container Service EC2 é livre, o que faz sentido, uma vez que incentiva o uso EC2.


E quanto a de Docker e Microsoft recente anúncio de suporte do Windows para recipientes Docker ? Embora o Docker Motor foi portado para o Windows, este software é executado construído para Windows em vez de Linux, e novo serviço da Amazon não os suporta.


Da Microsoft Azure nuvem pode executar recipientes Linux Docker, e Google também anunciou a integração Docker, portanto, em um sentido Amazônia é tarde para a festa, mas pelo menos ele tem um serviço completo.


Há mais por vir. De acordo com um post no blog Docker , "Amazônia e Docker ter um plano de longo prazo para fornecer uma estreita integração entre o Amazon EC2 Container Service ea crescente ecossistema de serviços baseados em Docker".


O Container Service EC2 já está disponível no modo de visualização, com uma lista de inscrição para aqueles que desejam experimentar. ®







via Alimentação (Feed)