sexta-feira, 22 de novembro de 2013

Red Hat Enterprise Linux 6.5 navios, mas ainda não RHEL 7 à vista


Guia rápido para a recuperação de desastres na nuvem


Red Hat Enterprise Linux (RHEL) 6.5 atingiu disponibilidade geral após um período beta de seis semanas, tornando-se a primeira versão menor do RHEL 6 a navio desde a versão 6.4 em fevereiro.


Tal como acontece com RHEL 6 ponto-versões anteriores, a atualização não traz quaisquer grandes mudanças para a plataforma, mas adiciona suporte para algumas novas tecnologias importantes que as empresas vão querer ter em suas mãos durante os preparativos para RHEL 7 .







Por exemplo, esta é a primeira versão RHEL para incluir suporte para Docker recipientes de aplicação. Red Hat vem trabalhando com Docker (née dotCloud) para integrar sua tecnologia de conteinerização de código aberto para os últimos meses, e com esta versão, os administradores podem implantar imagens Docker em ambientes físicos, virtuais ou em nuvem.


Capacidades de virtualização do sistema também foram reforçadas. RHEL 6.5 agora suporta máquinas virtuais KVM hóspedes com até 4TB de memória RAM, e administradores podem agora activar e desactivar CPUs virtuais em máquinas virtuais em execução em tempo real. O hypervisor KVM também pode acessar diretamente volumes GlusterFS pela primeira vez.


Para aqueles que preferem correr RHEL convidado VMs em um hypervisor diferente, por outro lado, os drivers de dispositivo de hóspedes do RHEL foram melhorados para proporcionar um melhor desempenho.


Os clientes que estão à procura de precisão do relógio sub-microssegundo - pense aplicações financeiras - será com agrado que RHEL 6.5 agora suporta o Precision Time Protocol (PTP) através da rede local. Administradores de rede também obter uma visão melhor de tráfego de rede, inspecionando os dados (IGMP) Internet Group Management Protocol.


Uma série de melhorias de armazenamento já alcançou a libertação, incluindo suporte para SSDs baseados em NVM Express (NVMe), a capacidade de configurar mais de 255 LUNs em um único alvo iSCSI, melhor controle e recuperação de SAN para iSCSI e Fibre Channel, ea capacidade de criar sistema de lixeiras para a depuração de máquinas com muita memória RAM (como em terabytes).


A segurança também foi reforçada, com um novo certificado de armazenamento de confiança em todo o sistema, que pode ser compartilhado por Serviços de Rede de Segurança, GnuTLS, OpenSSL e Java. Além disso, OpenSSL foi atualizado para a versão 1.0.1, que traz uma série de novos métodos de criptografia, incluindo vários para criptografia de curva elíptica.


E como de costume, a Red Hat adicionou suporte para um monte de novo hardware com esta versão, mas está sendo tímido sobre o que exatamente fichas agora apoia, nomeadamente quando se trata de suporte para Intel e AMD componentes que ainda têm de enviar. Uma mudança que pode falar, no entanto, é que o RHEL 6.5 agora suporta sistemas AMD com mais de 1 TB de memória RAM.


Você pode ler a lista completa de atualizações nas notas de lançamento aqui , e se você gostaria de mergulhar em detalhes, as notas técnicas estão disponíveis aqui .


RHEL 6.5 está disponível para download agora para todos os clientes com contratos de suporte ativos. Quanto ao RHEL 7 pode enviar, isso é ainda uma questão em aberto. Embora Red Hat originalmente deu a entender que iria chegar até o final deste ano, agora parece que não vamos ver a próxima grande revisão RHEL até o início de 2014. ®



quinta-feira, 21 de novembro de 2013

Grossa, acre poluição na China, a Índia está derretendo servidores de data center da Intel


Entrega Email: quatro passos para obter mais e-mail para a caixa de entrada


Intel está relatando que seus data centers na Índia e na China estão sofrendo corrosão, devido aos altos níveis de poluição.


A empresa Free Press Newsletter Detalhes de um novo conjunto de problemas que os engenheiros tiveram que enfrentar em farms de servidores do Chipzilla na Ásia, incluindo níveis anormalmente elevados de corrosão em cabos e hardware placa de circuito.







De acordo com a titan processador, muitas placas foram encontrados para estar sofrendo de um tipo de corrosão de enxofre que raramente é visto por técnicos de fora dos ambientes de fábrica pesados.


"Eles eram desproporcionalmente da Ásia-Pacífico e nos deu uma pausa", vice-presidente da Intel de tecnologia e fabricação de Tom Marieb disse ao Free Press.


"As únicas outras vezes tínhamos visto este nível foi a partir de segmentos conhecidos de uso industrial, como dentro de uma fábrica, nem os centros de dados que deveriam ser controlados, ambientes selada com ar condicionado."


O culpado, a Intel acredita, é a grave poluição do ar presente na Índia e na China. Com grande parte da Ásia experimentando uma demanda de energia crescente e rápida industrialização, a poluição do ar está a atingir níveis sem precedentes .


No mês passado, por exemplo, informou que uma nuvem sufocante de poluição do ar 4,000 por cento tão perigoso como recomendação de exposição ao particulado atmosférico diária praticamente fechado Harbin, uma das cidades mais populosas do nordeste da China, da Organização Mundial da Saúde.


Intel encontra-se agora lutando para adotar novas maneiras de proteger o seu equipamento de condições do ar que se tornaram cada vez mais hostil para a operação do servidor - e da vida humana.


Tais preocupações sobre o poder, a poluição eo consumo de energia só vai aumentar nos próximos anos, à medida que mais centros de dados brotar para atender à demanda por serviços hospedados e plataformas de nuvem pública. Dado o seu apetite pelo poder, esses equipamentos têm forçado as empresas a repensar a forma como e onde construir suas fazendas de servidores.


Grupos como o Greenpeace já começaram a inclinar-se em muitas das principais TI e provedores de serviços em nuvem para considerar fontes de energia verde ao planejar seus centros de dados e construir as suas instalações em regiões que fornecem energia a partir de fontes renováveis. ®



Ultra-verde europeus desprezo centro plano de dados do Facebook


Entrega Email: quatro passos para obter mais e-mail para a caixa de entrada


Projeto Open Compute Facebook encontrou pouco apoio evidente na Europa até à data, centro patrão dados da empresa, disse hoje, em parte por causa daqueles loucos continentals "obsessão com a neutralidade de carbono sobre a eficiência.


Tom Furlong, veep do Facebook de operações do site, disse a Conferência Dynamics Datacenter em Londres, que o esforço de Borg sociais para definir um padrão de data center aberto, incluindo componentes whitebox, pilha de software e praticamente tudo o mais, tinha pego muito apoio em os EUA e, cada vez mais, em todo o mundo também.







Desde que o projeto foi lançado em 2011, os grupos de OCP tinha começado espontaneamente no Japão e na Coreia do Sul, disse ele, e que a empresa estava procurando para apoiá-los: "Quando começou era apenas nós ... ele cresceu além dos nossos sonhos."


No entanto, ele acrescentou: "Nós ainda não vejo nada na Europa, que está se unindo em torno OCP."


Perguntado pelo The Register se este era um problema ou um quebra-cabeça para o Facebook, ele disse:. "Nós gostaríamos de ver mais pessoas a apoiá-lo"


Quanto a saber se havia algo intrínseco à mentalidade européia que parou de operadores de centros de dados e / ou fornecedores pulando na cama com o Facebook, ele disse, "Eu não penso assim."


Mas, acrescentou, Europa (tanto quanto você pode falar sobre um único Europa) foi muito focado em neutralidade de carbono. Facebook, e, por extensão, OCP, é "mais para o lado da eficiência da casa".


Ele continuou, "uma das melhores maneiras" para avançar para a neutralidade de carbono foi a de aumentar a eficiência do centro de dados.


Eficiência foi certamente o cerne da apresentação de Furlong, com a firme olhando para aumentar a utilização de seus servidores para evitar investimento desnecessário. No caso você esteja se perguntando, o tempo de pico de carga do local era 11:00 Pacífico, e seu pico dia era segunda-feira.


Normalmente seus servidores front-end executado em 60 a 70 por cento de utilização. No entanto, durante o salto, segunda crise do bug do ano passado , disse ele, que saltou para 100 por cento. Ao invés de perguntar a pergunta: "precisamos de mais servidores", ele disse que a questão levantada foi se temos muitos.


Até à data, a maioria dos anúncios de OCP ter sido sobre seu servidor e projetos de rede. No entanto, Furlong também caiu algumas dicas sobre estratégia de Gestão de Infra-estrutura Datacenter do Open Projeto de Informática. Esta tinha sido no desenvolvimento de 18 meses, disse ele, e ele iria falar sobre isso na próxima Aberto Summit Computer, que está prevista para o início do próximo ano. ®



quarta-feira, 20 de novembro de 2013

Quem quer um Xeon-powered, 12-core, RAID 10 ... Laptop?


5 maneiras para reduzir a latência da rede de publicidade


O laptop exótico rapazes na Eurocom acabou desencadeou outro em sua série de engenhocas muito peculiares: a 5SE laptop Panther.


Eurocom não vai gostar de nós chamando-o de um laptop: o nome oficial é "Server Mobile laptop classe supercomputador".







Supercomputador é, talvez, um pouco por cima, mesmo se o computador pode embalar um 12-core, 24-thread E5-2697 v2 rodando a 2.7GHz. Eurocom diz que é o primeiro a ter construído esse CPU em um portátil.


Chamando-o de um servidor móvel também pode ser esticar a amizade. A reivindicação do status do servidor é sustentada pela presença de quatro slots de unidades de disco, a capacidade de lidar com os menores RAID 0, 1, 5 ou 10, quatro slots de memória capazes de coletivamente 32GB habitacionais de RAM e prontidão para executar os principais sistemas operacionais de servidor ou mesmo hypervisor ESXi da VMware. A alegação começa a oscilar um pouco quando se considera que a Eurocom classifica a bateria como uma "bateria / UPS" e diz que oferece apenas uma hora de operação. A presença de apenas uma porta Gigabit Ethernet também pode se preocupar administradores, embora seja possível adicionar mais graças à presença de um slot ExpressCard.


Eurocom não está sugerindo administradores vão arrastar este 5,5 kg, 419 x 286 x 57,9 ~ 62,1 milímetros besta em torno de uso diário. Em vez disso, está sendo sugerida a Pantera é um servidor de um portátil poderia implementar durante uma crise ou em locais onde schlepping em uma caixa maior está fora de questão.


A empresa não acredita que o laptop poderia ser usado em seu colo, conversando-se a fonte de alimentação 300w como assegurar grande parte do calor que o computador produz estará fora chassis principal do laptop.


The Eurocom Pather 5Se Mobile Server supercomputer-class laptop

A Eurocom Pather 5SE 'server móvel portátil de classe supercomputador'



Vulture Sul levou ferramenta de configuração on-line da Eurocom para dar uma volta para ver o que a máquina iria custar quando construídos com 32GB de RAM, 4,5 GB de disco (capacidade de 1TB é a maior oferecida por discos dois a quatro), placa gráfica Nvidia GBX 670MX, que Xeon E5 -2697 v2 Windows Server 2012 e uma bateria sobressalente. O preço surgiu em £ 5.423 ou US $ 7, 672, as verbas não-insignificante.


É certamente possível comprar servidores comparáveis ​​ou superiores por um preço melhor, mas esses servidores não seria tão fácil para se encaixar no compartimento de bagagem de um avião. Ou oferecer a chance de desenvolver seu musculatura bastante como o Panther.


O que você acha, administradores? É a Panther pena que ataca em? Ou será que esse gato ser deixado para perambular sozinho? ®



domingo, 17 de novembro de 2013

Combustível serviços a próxima geração de data center


IOControl - liderança em desempenho de armazenamento híbrido


Em sua forma básica, um centro de dados é apenas uma grande sala cheia de gaiolas e armários, com poder altamente confiável, segurança eficiente, incêndio e proteção contra inundações e uma variedade de conectividade de rede interna e externa.


Nos últimos anos, os fornecedores têm tentado diferenciar suas ofertas, mas não há realmente muito que você pode fazer para vestir o que é basicamente uma grande sala barulhenta. Assim, para "tecnologia corredor frio", por exemplo, ler "temos melhorado o fluxo de ar um pouco".







Como pode, então, os centros de dados evoluir para algo melhor? Simples: se não há muito que você pode fazer com o ambiente, desenvolver o que você pode fazer nesse ambiente eo que você pode conectá-lo a.


Mantê-lo privado


Se você é um provedor de data center com várias instalações, você tem a oportunidade de fornecer alta velocidade ligações físicas entre os locais.


Dando a seus clientes a possibilidade de alargar a sua rede entre instalações tem enormes benefícios para as suas estratégias e capacidades de recuperação de desastres: com um físico ligação Gigabit Ethernet de baixa latência entre suas instalações você pode fazer a replicação real.


Se os seus centros de dados não estão próximos uns dos outros, embora, links ponto-a-ponto são muito caros. Uma alternativa é olhar para uma oferta de camada 3 - serviços MPLS gerenciados são ten-a-centavo estes dias.


O conceito emergente, porém, é o serviço de LAN privada virtual, ou VPLS. Este é um serviço da camada virtualizada 2 - pense nisso como um switch LAN virtual na nuvem, no qual você pode sondar seus terminais.


VPLS é menos conhecido, mas o conceito já existe há algum tempo. Assim como nós temos agora a palavra "nuvem" para se referir a serviços gerenciados que tivemos durante anos, a idéia de um serviço de camada 2 virtual veio muito antes da maioria de nós (eu incluído) tinha ouvido falar de VPLS.


Em 2009, por exemplo, PacketExchange (agora parte do GT-T) foi me oferecendo a possibilidade de ter uma VLAN conectando meu centro de dados em Jersey para o meu centro de dados na Índia, outro Jersey ligar para o escritório de Londres, outro oferecendo um " suja "serviço de internet, e assim por diante.


O problema com a camada 2


Não é, evidentemente, um problema fundamental com VPLS. Na verdade, em reflexão, existem dois.


A primeira é que, se a camada 2 foram uma boa maneira de fazer rede de área alargada (WAN), que não se incomodaria com a camada 3 em qualquer uma de nossas aplicações WAN. Layer 2 é brilhante quando você deseja se conectar A para B no sentido de ponto-a-ponto, pois dá uma conexão nativa para os endpoints que se parece exatamente como eles são conectados ao mesmo switch LAN.


Mover uma caixa para a outra extremidade do link, ligá-lo, e ele continuará a funcionar (contanto que você não tenha quebrado o espelhamento de banco de dados por bagunçar os números de latência, é claro).


O grande problema com a camada 2 redes é domínios de broadcast. A camada 2 de rede ou VLAN é um único domínio de broadcast, e de repente se você conectar cinco coisas distantes entre si através de VPLS você fez-se um grande domínio de broadcast grande cujos níveis de tráfego crescer exponencialmente à medida que você introduzir novos nós.


Ligue três escritórios em 10Mbps e dois centros de dados a 100Mbps (um ponto de partida típico de fadas) sem pensar o suficiente, e uma tempestade de broadcast em uma porta de entrada do centro de dados vai acabar com a conectividade de seus escritórios. Não muito bem.


Então, o que você vai acabar fazendo é colocando em camada 3 redes de trânsito para controlar o tráfego que flui através da rede VPLS e restringir camada ampla área duas operações para os dispositivos que realmente precisam de falar nativamente na camada 2 com os seus homólogos distantes.


E se você está pensando que isso é uma abordagem um pouco estranho, por isso que eu fiz, então eu verifiquei com alguém que trabalha com redes VPLS. "Sim, é assim que eu faria isso", disse ele.


A segunda questão é que um serviço VPLS, pela sua natureza, operam mais de uma espécie de camada 3 (IP / MPLS) de rede. Assim, no cenário acima, você está executando camada 3 em um túnel de camada 2 que é estabelecida através de uma rede de camada 3, que fica no topo da camada 2 tecnologias.


Então, sim, ele pode muito bem ser mais lento do que apenas ter uma rede MPLS velho chato no primeiro lugar.



quarta-feira, 6 de novembro de 2013

IPMI em Supermicro servidores vulneráveis ​​diz HD Moore


O business case para uma solução multi-inquilino, baseado em nuvem Recovery-as-a-Service


HD Moore do Metasploit está roendo a segurança do A Interface Intelligent Platform Management (IPMI), desta vez pondo a implementação do firmware do fornecedor Supermicro.


Moore tinha olhado no IPMI, em geral, em julho, momento em que ele apontou para vulnerabilidades na implementação uPNP da Supermicro.







Seu último trabalho na Rapid7, aqui , dá uma olhada mais de perto o controlador de gerenciamento da placa base (BMC) em placas-mãe que usam o firmware SMT_X9_226.


Suas conclusões são de que o firmware inclui uma pequena série de vulnerabilidades: credenciais estáticas, estouro de buffer e travessias de diretório. Tomando-as em ordem:



  • Chaves de criptografia estática (CVE-2013-3619) existe na interface SSL de servidor Web Lightppd eo Dropbear SSH daemon. Os usuários podem atualizar as chaves SSL, mas não as chaves SSH.

  • A interface OpenWSMan (CVE-2013-3620) tem uma senha estática (admin) para o arquivo de autenticação digest, proporcionando um atacante com um backdoor.

  • Vários aplicativos embutidos CGI conter buffer overflows que dão atacantes acesso root para a execução remota de código - essas são listados como CVE-2013-3621, CVE-2013-3622 e CVE-2013-3623.

  • Um diretório ataque travessia existe na aplicação url_redirect.cgi, e várias outras aplicações CGI incluem chamadas ilimitadas para funções como strcpy (), memcpy () e Sprint ().


Como afirmado em julho, diz Moore, existem 35.000 mais interfaces de Supermicro IPMI visíveis a Internet (El Reg supõe a sua fonte é o motor de busca sempre confiável Shodan). ®



Dentro secretos super-chips da Intel: Se você tem milhões, tem a magia


Entrega Email: Ódio e-mails de phishing? Você vai adorar DMARC


Análise Este ano, a Intel anunciou uma mudança estratégica na sua filosofia: se você mostrar que uma montanha de dinheiro, ele vai enviá-lo com chips de instruções do processador personalizados ou alterar velocidades de clock.


Silício sob medida para o centro de dados é a resposta da Intel para facilmente configuráveis, custom-built chips ARM compatíveis : eletrônicos gigantes são capazes de plantas core licença da ARM, parafuso em um controlador de touchscreen, algumas redes sem fio, ou talvez até mesmo algo adequado para um armazém servidor e fabricar o componente conforme necessário. E, obviamente, se é só você fazer e usar o costume system-on-chips, ninguém mais precisa saber sobre como o silício funciona de verdade - uma frustração para os engenheiros de terceiros de baixo nível.







Até este ano, que não tem sido o caminho Intel opera seu negócio de chip de cozimento, todo mundo pode esperar um nível, bem documentado campo de jogo com muita chipsets separados lá fora ligar hardware. Agora, o seu esquema de personalização recém fez Chipzilla reconsiderar como ele funciona com alguns de seus maiores clientes CPU-devorando.


Embora gigantes de chips no passado dado algum dos escolhidos processadores de suas fábricas - aqueles capazes de sustentar maiores velocidades de clock devido a melhores propriedades térmicas - limite para os principais clientes, melhoria de processos já igualou as variabilidades entre fichas modernas do mesmo projeto.


Para dar grandes gastadores, como Facebook e benefícios especiais eBay, Intel teve de começar a inserir adicional - e muitas vezes em situação irregular - características em seus processadores. Esta abordagem é muitas vezes chamado de "a chave de ouro", e pode ser irritante para empresas de fora do círculo mágico de empresas com acesso às instruções, como uma fração do silicone que pagou é bloqueada a partir deles.


No início deste ano a Intel nos disse que foi gravando diferentes recursos ou instruções em silício para alguns clientes. A empresa também criou completamente novas SKUs com poder ou desempenho diferente.


"Um monte de coisas que até à data tem sido modificar diferentes parâmetros - o poder", Jason Waxman, gerente geral do grupo de infraestrutura em nuvem da Intel, disse-nos este mês. "Nós estamos vendo agora os pedidos que estão chegando onde as pessoas querem incluir suas próprias instruções."


Alguns desses pedidos dará Intel "um portfólio mais amplo de personalização", disse ele, e pode incluir qualquer coisa a partir de uma nova propriedade intelectual (IP) para funções que exijam estruturas on-chip adicionais ou modificados. "A faixa tem certamente ampliou", disse ele.


"Estamos trabalhando com a Nuance publicamente na aceleração voz '


Os clientes da empresa pode, por exemplo, pedir para formas alternativas de interface ou anexar eletrônica diretamente para os núcleos do CPU, disse Waxman. "À medida que avançamos para uma metodologia system-on-chip (SoC), temos as ferramentas para fazer permutações [e são] a trabalhar na elaboração de um portfólio mais amplo de personalização", acrescentou.


Alguns destes se estenderá para a reembalagem de silício x86 com outros pedaços de controladores de circuitos e hardware para atender a aplicação do chip, ou alterar o desempenho de um dispositivo.


Na extremidade mais básico da escala, "algumas pessoas dizem, eu só quero mais portas IO, IO eu quero diferente, eu quero formas de ligar e dirigir [dados]. Poderia ser IO para o armazenamento, pode ser desejo de diferentes interconexões, poderia ser mais rápido ou mais baixas larguras de banda de latência Alguns aceleradores representam grandes oportunidades de colaboração -. estamos trabalhando com Nuance publicamente em aceleração voz ".


Para saber mais sobre o que os clientes estão fazendo com o esquema da Intel falamos com um dos principais compradores da Intel de chips personalizados: Facebook.


"Na medida em que podemos perfilar nossa carga de trabalho, podendo solicitar a contagem específicas do núcleo, as taxas de relógio, configurações de turbo para o gerenciamento de chaves estado - Esse é o tipo de coisas que estamos trabalhando com a Intel em" Frank Frankovsky, design de hardware da empresa e chefe da cadeia de fornecimento, disse The Register.


"Todos os aspectos são sobre como maximizar o trabalho útil, a CPU pode fazer por watt por dólar", diz Frankovsky. "A maioria do nosso trabalho tem sido em torno de otimizar o desempenho que podemos obter por watt de cada CPU."


Algumas das mudanças Facebook solicitou da Intel incluem alteração da taxa de CPU relógio, ou mudanças na gestão de energia ou como o poder-estado são gerenciadas.


"Nós não apresentaram qualquer IP exclusivo ou incorporados nosso IP em chips da Intel", disse Frankovsky. Facebook é improvável que ir para o trabalho de desenhar os seus próprios planos de silício, enquanto Intel presta atenção a alguns dos pedidos da rede social, ele indicada. "Eu acho que a maneira que eu penso sobre ele, é se em algum momento não podemos influenciar o produto, então nós seríamos obrigados a ir um pouco mais fundo."


A maioria dos chips personalizados do Facebook estão sendo usadas nas principais servidores web da rede social que lidam com a construção em tempo real de páginas dinâmicas, disse ele. Mas a empresa está planejando usar mais recursos de personalização da Intel no futuro, especialmente se um par de ajustes experimentais de Chipzilla revelar-se útil.


eBay recusou a ser entrevistado para esta peça, mas nos disse o bazar online "está trabalhando com a Intel em um processador chip personalizado e estamos entusiasmados com os resultados até à data".


Para o cache e além


Intel está ativamente trabalhando para expandir os tipos de alterações que podem fazer para suficientemente grandes clientes, e pode até mesmo começar a mexer com o projeto básico de sua CPUs, Diane Bryant, gerente geral da Intel para centros de dados e sistemas conectados, disse-nos.


Este ano, a empresa espera ter 18 CPUs personalizadas para fora do mercado, e pensa que pode ampliar o que, uma vez que as transições para mais projetos system-on-chip. Ele também está tentando penetrar mais profundamente no núcleo de seus chips para personalizá-lo mais.


"Nosso objetivo, porém, é modificar coisas como a cache", diz Bryant. "O núcleo próprio que inclui a hierarquia de cache - que é relativamente fixo Essa é uma capacidade de futuro que está por vir.".


Este desenvolvimento pode demorar um pouco, como a Intel está tendo problemas para obter o suficiente "rendimento" nos caches modificados, Bryant disse.


Quando dissemos do Facebook Frankovsky sobre o esquema de cache, ele se animou. "Parte da caracterização da carga de trabalho que fazemos nos dá realmente uma boa percepção de como estamos exercendo o cache e como os algoritmos de pré-busca valiosos são", disse ele. "Ser capaz de modificar a hierarquia de cache seria uma coisa muito interessante para fazer. Em outros casos, seria um custo proibitivo para construir um nível um cache do tamanho que precisávamos." (Ouviu, Intel? Há dinheiro em cima da mesa por aqui.)


Com a Intel promete mais de uma dúzia de projetos personalizados este ano, e mais como ele se move para uma abordagem cada vez system-on-a-chip, a empresa espera para inundar o mundo com seus chips sob medida.


"Você começa cedo e, em seguida, as pessoas começam a ouvir mais", disse Waxman. "Eles não são apenas o Modelo T. As pessoas estão percebendo que, particularmente para centros de dados em larga escala ... isso está se tornando quase que um projeto focado, é uma prioridade, está se tornando o novo normal para nossos maiores clientes." ®



Supercomputador-maker oferece uma solução de armazenamento a frio Cray-TAS-tic


Entrega Email: Ódio e-mails de phishing? Você vai adorar DMARC


Supercomputador Cray fornecedor está oferecendo armazenamento de arquivos de dados frios, com movimento automático em quatro níveis de armazenamento.


O produto é uma solução de arquivamento de armazenamento em camadas de grande escala destinada ao mercado de Big Data e HPC.







Da Cray camadas Adaptive Armazenamento oferta (TAS) utiliza um software de arquivo Storage Manager a partir de Versity, em que tem um investimento, para fornecer uma interface de sistema de arquivos que abrange quatro níveis de mídia, usando SSDs, disco ou fita.


Os dados são movidos entre as camadas utilizando políticas, com o software Versity ajudando a tornar a localização real dos dados transparente para os usuários que acessam isso - eles apenas ver os arquivos em um espaço de arquivos virtual.


É basicamente a virtualização de arquivo - onde muitos tentaram e falharam antes. Talvez as enormes quantidades de dados envolvidos e consequente custo de armazenamento de alta vai fazer valer a pena esse tempo em torno do bloco - mover os dados desde a criação caro e processamento de camadas de armazenamento para armazenamento de arquivos barato e profunda.


Cray diz TAS "inclui todo o software e hardware, eliminando complexidades associadas com o planejamento, concepção e construção de arquivos em grande escala".


Cray TAS

Nossa visão de TAS da Cray



Barry Bolding, armazenamento de Cray e gestão VP de dados, disse: "Nós temos agora um armazenamento em camadas completa e solução de arquivamento que combina a nossa experiência de escala com tecnologias de fita de armazenamento e bloco comprovada, além de proporcionar a integração com recursos HSM em futuras versões do arquivo Lustre sistema ".


Estamos informados no sistema "vem integrado, pré-configurado e testado em escala com todo o software e hardware". Todo o hardware e software incluído é suportado por Cray.


Existe um folheto TAS (PDF) aqui , mas não fornece nenhuma informação sobre as configurações, disponibilidade e preços. Nem o lançamento do Cray ou seu website . No entanto, "[a] solução TAS Cray estará em exposição no estande da Cray no Supercomputing Conference 2013, realizada 17-22 novembro em Denver, Colorado." Os representantes de suporte deve ter mais detalhes, assim que você vai ouvir mais logo. ®



segunda-feira, 4 de novembro de 2013

HP: Nossos servidores NonStop será rocha sólida - mesmo quando rodando em x86


5 maneiras para reduzir a latência da rede de publicidade


HP anunciou que planeja portar a sua tecnologia de servidor NonStop tolerante a falhas para a arquitetura x86, em um movimento que deve reduzir tanto etiquetas de preços na linha de produtos NonStop e ajudar a HP-se ainda mais distância entre a plataforma Itanium tudo-mas-estagnação da Intel.


HP é, de longe, Itanium fornecedor líder mundial, sendo responsável por mais de 95 por cento das vendas de servidores Itanium do mundo. Mas as vendas do grupo da HP Business Critical Systems - que falcões Itanium HP-UX, OpenVMS e NonStop servidores - estão despencando , com faturamento abaixo de 26 por cento ano a ano, no mais recente trimestre.







Itanium sofreu um duro golpe em 2011, quando a Oracle anunciou que deixaria de produzir software para a arquitetura, o que levou HP processar o gigante banco de dados no tribunal do estado da Califórnia. HP finalmente ganhou a ação , obrigando Oracle para continuar sua linha de software Itanium, mas não antes de muitos clientes potenciais foram afugentados.


HP, desde então, tentou rejiggering as configurações nas sem escalas baseadas no Itanium para obter seus pontos de preço para baixo, na esperança de torná-los mais atraentes para os clientes de médio porte e empresas de mercados emergentes, mas com sucesso limitado.


Agora, a empresa diz que se comprometeu a portar a pilha de software NonStop completa de aplicações, middleware e ferramentas para a arquitetura x86.


NonStop, se você se lembra, é a tecnologia de software de alta disponibilidade integrada de hardware e que foi inicialmente comercializado sob a marca Tandem. HP pegou ele quando adquiriu a Compaq, em 2001, a última empresa ter comprado Tandem em 1997.


Antes da fusão HP-Compaq, servidores NonStop tinha sido alimentado por chips RISC de MIPS, mas a plataforma foi relançado em Itanium logo após a fusão concluída.


HP diz que os futuros produtos NonStop baseados em x86 não irá substituir os modelos Itanium, mas que os servidores baseados em ambas as arquiteturas serão vendidos simultaneamente. O esforço é uma extensão do Projeto Odyssey , a iniciativa que vi pela primeira vez HP começa afiando suas linhas de servidores de missão crítica em território x86 há dois anos.


Não houve menção de que o vendedor iria fornecer chips x86 para as novas máquinas, e até agora a HP não respondeu a consulta 's The Reg. Mas com base em recentes ofertas do grupo BCS, os processadores Xeon parece uma aposta provável.


Exatamente quando os novos sistemas vão aparecer, no entanto, é obscuro. Comunicado de imprensa da HP afirma que o esforço para portar NonStop para x86 já está em andamento, mas que ele só espera que os clientes começar a comprar x86 servidores NonStop "ao longo dos próximos anos."


Entretanto, a HP ofereceu um par de novas entradas na sua gama de servidores NonStop baseados em Itanium a maré clientes over. O NonStop NB56000c é o novo top de linha, um modelo de quatro núcleos que pretende oferecer, tanto quanto o desempenho 1.5X como o mais cedo NB54000c. O NB56000c-cg , por outro lado, oferece uma caminhada desempenho similar em um modelo de "porta-grade" para as empresas de telecomunicações. Ambos os sistemas Itanium estão disponíveis mundialmente a partir de segunda-feira. ®



Google atira outra 450m € em centro de dados finlandês legal


5 maneiras para reduzir a latência da rede de publicidade


O Google afirmou que está planejando passar um extra de € 450 milhões ($ 607m, £ 380m) em seu data center na Finlândia, ao longo dos próximos anos.


Google's data centre in Hamina, Finland

"À medida que cresce a demanda por nossos produtos, do YouTube ao Gmail, estamos investindo centenas de milhões de euros na expansão de nossos centros de dados europeus", Anni Rokainen, Country Manager da Google na Finlândia, disse em um comunicado em conserva.


A Fantástica Fábrica de Chocolate já afundado € 350m no one-time fábrica de papel em Hamina, no sudeste da Finlândia, transformando-o em um centro de dados super-eficiente usando a Baía de água do mar da Finlândia para resfriar os servidores. A água do mar fria é bombeada através da instalação e, em seguida, resfriado antes de ser devolvido ao mar, um sistema Google afirma é o primeiro de seu tipo em qualquer lugar do mundo.







O centro de dados emprega actualmente cerca de 125 pessoas e Google disse que iria estar olhando para adicionar a esse número à medida que expande o centro de dados nos próximos anos.


O primeiro-ministro finlandês Jyrki Katainen disse que os investimentos em TI foram importantes para o país, dado o declínio da Nokia ea fraqueza em suas indústrias de papel e aço.


"A Finlândia precisa de mais investimentos diretos estrangeiros, a fim de melhorar a nossa economia, o crescimento eo emprego", disse ele.


"O governo aceitou a estratégia nacional de promoção de investimentos em dezembro passado. Na estratégia, o sector das TIC, incluindo os centros de dados, tem sido enfatizada como um dos sectores prioritários. Portanto, a decisão de investimento do Google é importante para nós e nós recebê-lo calorosamente. "


Finlândia, assim como outros países do norte da Europa, é um local popular para os centros de dados que pode aproveitar o tempo frio para ajudar com eficiência energética e questões ambientais.


A Microsoft disse que vai investir mais de US $ 250 milhões em um novo centro de dados no país, enquanto o motor de busca Yandex da Rússia está a construir um centro de dados em Mäntsälä no sul da Finlândia. ®



domingo, 3 de novembro de 2013

Quer um centro de dados unificado? Não se esqueça de desfragmentar o admins


Regcast livre: Dispositivos de Gerenciamento de Multi-Vendor com System Center 2012


Um centro de dados eficaz é mais do que apenas alguns racks de servidores com um pouco de rede e armazenamento anexado.


Ele precisa ser versátil, fácil e rápido para flexionar e reconfigurar manualmente e automaticamente, e ele precisa para manter-se com as demandas das aplicações que rodam lá.







Historicamente, no entanto, muitos dos componentes do centro de dados foram adquiridos e instalados separadamente. Como podemos reunir todos esses componentes em um todo coerente? Como, em outras palavras, podemos desfragmentar o nosso centro de dados?


Se ele quebrou, corrigi-lo


Não há nenhum ponto em tentar construir uma cerca com tábuas podres. Não importa o quão bem você pegá-los juntos, você estará jogando caça-the-tartaruga antes de você colocar a sua caixa de ferramentas de distância.


Portanto, antes de começar a considerar como fazer o seu kit trabalhamos juntos, você precisa garantir que os elementos independentes estão à altura da tarefa e configurado de tal forma que eles possuem uma chance de trabalhar como esperado.


Isso é muitas vezes uma questão muito simples de verificar se há problemas óbvios. Ao longo dos anos, tenho visto algumas configurações interessantes: um exemplo foi a LAN centro de dados com servidores e armazenamento conectado via troncos de multi-gigabit, cuja camada 3 funcionalidade foi transferida para um roteador low-end que não podia rota em mais do que um par centenas de Mbps.


Outra era uma configuração de servidor baseado em chassis que agregados centenas de máquinas virtuais sobre um insignificante 4Gbps uplink.


Havia também o tronco dual-Gigabit LACP onde tinham esquecido de permitir LACP em uma extremidade, e uma solução de backup que teria ido duas vezes mais rápido se alguém tivesse configurado alguns parâmetros de rede simples corretamente. (Voltaremos a esse último mais tarde.)


Portanto, antes de fazer qualquer coisa dar um passo para trás e dizer: "Fizemos algo idiota" E se a resposta é sim, corrigi-lo. Não tome para sempre sobre ele, mas pelo menos certifique-se de ter desmarcado a caixa "wally".


Detalhes do contato


Uma vez que as coisas estão um pouco mais sensível, é preciso considerar os pontos de contato entre os componentes da infra-estrutura.


O meu favorito é o lugar onde o VMware ESXi conectar à LAN. Com a minha rede gerente chapéu, uma vez passei uma tarde feliz com o servidor cara eo Sr. Google. No fim de tudo que quadruplicou a velocidade de alguns hosts ESXi LACP-trunking apenas trabalhando metodicamente através da configuração da porta LAN em ambas as extremidades e reconfigurá-lo.


Este é o lugar onde você precisa de seus especialistas no assunto para se unir e colaborar - talvez pela primeira vez. A instância de backup mencionei anteriormente era um exemplo clássico da necessidade de colaboração.


Você precisa da configuração a ser a mesma em todos os componentes: o link do armazenamento para o servidor de backup (se estiver conectado iSCSI), o sistema operacional do servidor de backup, o interruptor e as portas do roteador em cada ponto a partir do servidor de backup para o dispositivo que está sendo feito o backup, os switches virtuais (se você estiver em um ambiente virtual) eo sistema operacional do servidor convidado.


Um erro de configuração e tudo está a ir na velocidade do menor denominador comum. Para obtê-lo direito é necessário o armazenamento, rede e servidor caras para obter suas cabeças juntas e configurá-lo juntos.


Estender o pensamento de todos os pontos de contato do núcleo, em seguida, começando com as mais óbvias. Alguns exemplos são os seguintes:



  • Armazenamento / servidores: obter as calhas e enquadramento ideal e se você estiver usando iniciadores iSCSI baseados em software em uma configuração de servidor virtual, comprar-se algum hardware adaptadores iSCSI com capacidade vez.

  • Armazenamento / rede: entroncamento e enquadramento de novo, e se você estiver usando SAN baseada em comutadores Fibre Channel zona-los corretamente.

  • Servidores / rede: trunking e enquadramento novamente. Validar a largura de banda disponível para os servidores e, se for multiplamente conectada, monitorar o tráfego e ajustar as configurações para distribuir a carga bem. Às vezes, você vai descobrir que uma ligação é martelado, enquanto outros não fazem nada, o que é, naturalmente, ineficiente.


Considere-se também o número de lugares onde os seus servidores e armazenamento tocam a rede. Em uma configuração de servidor virtual não há realmente nenhuma desculpa, por exemplo, para fazer backup de servidores ao longo da sub-rede de produção / VLAN - especialmente se o servidor de backup está em uma VLAN diferente dos dispositivos que estão sendo apoiados. Significa apenas que o seu router está sendo martelado.


Em vez disso cair em uma VLAN dedicada para backups, prumo-lo em suas vSwitches (sem tempo de inatividade necessário) e adicione uma placa de rede de backup dedicada a cada um dos servidores que você está fazendo backup (de novo, geralmente não há tempo de inatividade). E se você está sendo muito sensível você vai fazer backups em nível de hypervisor de qualquer maneira, em vez de os baseados em agentes no sistema operacional convidado de cada máquina virtual.



sexta-feira, 1 de novembro de 2013

HP quer ajudá-lo a montar um Moonshot


Livre Regcast: Nuvem da Microsoft OS


ARM Techcon HP é agressivamente jogando casamenteiro para os fabricantes de hardware, desenvolvedores de software e uma ampla gama de clientes, uma vez que procura estabelecer o seu "fazer com ele o que você vai" Moonshot arquitetura de servidor hiperescala.


"Estamos transformando o modelo de desenvolvimento de cabeça para baixo, e estamos começando com a solução", John Gromala, o diretor de sistemas modular marketing de produto da unidade de negócios da HP Industry Standard Servidor mundial disse ao The Reg nesta semana Techcon ARM em Santa Clara, Califórnia.







"Nós vamos dizer: 'o que é que essa solução quer em termos de como ele é otimizado? E então nós vamos projetar nosso caminho para trás a partir de que a solução para dizer, 'que ele quer mais calcular? Mais tecido? Mais memória? "


Moonshot projeto, como observadores HP vai se lembrar, foi anunciado em novembro de 2011 em sua encarnação "Redstone", com o follow-on "Gemini" sistemas lançado em abril deste ano.


A idéia é preencher Moonshot com o tipo de poder de computação que melhor se adequa a carga de trabalho que você pretende executar - x86 ou ARM computação, processadores de rede, DSPs, armazenamento, ou uma combinação de tudo o que você precisa, tudo em pop-in cartuchos. Vendo como Moonshot encaixa 45 cartuchos de servidores em seu 4.3U auto montável, enchê-lo com (SoC) cartuchos quad-system-on-chip daria 180 servidores por caixa.


No Techcon ARM, Calxeda anunciou que o seu novo 32-bit ARMv7 " Midway "SoC estará disponível em um cartucho de Moonshot e Micro Aplicada disse que seu 64-bit ARMv8 X-Gene será filmado para a Lua também.


Ambos estarão disponíveis para devs para mexer com no HP Descoberta Lab - e esse esforço colaborativo, parte do que HP in fine marketingese chama seu ecossistema de inovação Pathfinder , foi fundamental para que Gomala queria falar.


"Dentro do ecossistema de inovação Pathfinder temos IHVs - os fornecedores de hardware, os fabricantes de chips - e temos os fornecedores de software, e nós podemos realmente começar a emparelhar-se do direito que fazem sentido", disse ele. "Eles vêm e eles trabalham juntos em nossa descoberta Lab HP."


Trabalhando com HP, aquelas pessoas de hardware e software podem colaborar para otimizar sua oferta para diferentes cargas de trabalho. "O fato de que podemos reunir as pessoas de uma forma mais próxima de inovar é o que vemos realmente aumentando o ritmo de inovação", disse Gromala, conseguindo obter tanto o verbo e substantivos de um de 2013 de chavões favoritos na mesma declaração .


"Estamos tentando sair do 'tamanho único" mundo "


O objetivo da Moonshot é proporcionar um lar para uma grande variedade de cargas de trabalho em uma arquitetura de um único servidor, permitindo que ele mude seu caráter, dependendo de qual estão instalados nele. "Estamos tentando sair do 'tamanho único" mundo ", disse Gromala.


Os clientes que têm um papel importante neste processo também. "A parte mais legal do que é que vai estabelecer as bases de base com o hardware e software, e então nós realmente puxar um cliente. Trazemos em seguida, para o Laboratório de descoberta", disse ele.


"Os clientes agora podem dizer, 'Ei, eu quero começar a olhar para as minhas aplicações, como eles funcionam com essas coisas', e vamos definir o tempo em que eles podem entrar na HP Descoberta Lab e fazer que o desenvolvimento, bem como. O velho mundo de começar todo o caminho através do ciclo de desenvolvimento de hardware, acabamento que, trabalhando todos esses pedaços, e, em seguida, entregá-lo para o cliente e depois ver o que está acontecendo. Os clientes podem se envolver muito no início do processo, ", disse ele.


Nem todos os clientes, é claro, é permitido o acesso ao santo dos santos, a descoberta de laboratório, mas não está limitado estritamente à camada superior. Groala nos disse que a HP vai funcionar "muito bem" com qualquer cliente na Fortune 2000 .


Pelo menos tão importante como a dimensão, no entanto, é que o cliente deseja fazer. "Há selecione aqueles que são bons ajustes para trabalhar em estreita colaboração em algo como um laboratório de descoberta", disse ele, "mas vamos pegar clientes específicos que podem realmente tirar proveito de uma determinada aplicação e encontrar alguém que realmente está fazendo um trabalho inovador para a determinada aplicação e levá-los dentro "


E quais os tipos de cargas de trabalho vai estar testando os clientes em vários e diversos sistemas Moonshot? "Ele se divide em duas grandes áreas", disse ele. "Há mais de os horizontais, como serviço web, mas estamos no ponto em que estamos começando a bater um pouco mais do que eu chamaria de soluções verticais."


Entre essas soluções verticais, disse ele, era um sistema de análise de dados geofísicos que está sendo desenvolvido para Moonshot. "É uma energia muito vertical na indústria focada tipo de solução", disse ele, "mas o homem, quando nós vamos em frente e oferecer uma solução para isso, vai mudar completamente o benefício TCO que as pessoas estão vendo nessa área."


Moonshot não foi projetado para substituir os servidores tradicionais, mas sim aumentá-los. "Um monte de aplicativos tradicionais que muitas empresas usam que foram otimizados para Xeon de dois soquetes para anos e anos e anos, aqueles que não vão mudar", disse ele. Por outro lado, "Muitas destas aplicações mais recentes, muitas dessas aplicações do tipo mais scale-out que estão surgindo agora, são os únicos que vão caber Moonshot".


Exatamente quantos desses aplicativos emergentes vão fazer o seu caminho em caixas Moonshot, e exatamente quantos desses Moonshot e siga-nos boxes será recheado com ARM, Intel Atom, e outro poder-sorvendo chippery não será conhecido durante anos. Mas as possíveis implicações para o mercado de servidores pode muito bem ser arrebatadora.


E se você quiser examinar a viabilidade do conceito Moonshot, Gromala e suas tropas aparecer mais do que feliz em ajudar. ®