segunda-feira, 29 de dezembro de 2014

HP quebra de semana Xmas - 'hols pessoal' aka - fonte


HP já teria ligou o interruptor em seus principais locais e funcionários necessários para se despedir de férias entre o Natal e Ano Novo, em um movimento para cortar o trabalho e os custos de funcionamento, uma fonte diz-nos.


Um operador no painel de comando da HP confirmou ao El Reg que os sites principais da empresa será fechado até 05 de janeiro.







O insider disse-nos: "Sites da HP estão fechadas, com AC e aquecimento reduzido a padrões de arrefecimento ou aquecimento de fim de semana; equipes de limpeza estão ociosos; contratantes são enviados embalagem; sistemas de centro de dados são desligados - com admins na esperança de que eles podem ser inicializado com não há falhas de hardware no início de janeiro ", afirmou.


HP tem sido desesperadamente tentando equilibrar as suas contas para um número de anos, com a empresa espera receita em sua divisão Enterprise Services para continuar a diminuir em mais 5 por cento no próximo trimestre.


Em outubro, a empresa anunciou uma cisão entre a sua Impressão e Sistemas Pessoais (PPS) divisão definido para se tornar HP Inc, e os servidores, armazenamento, rede, serviços e unidades de software de reforma como Hewlett-Packard Empresa (HPE).


No entanto, a mudança para fechar loja em Natal é improvável para ajudar a empresa chegar à frente para 2015, conforme o andamento dos projetos é adiada por quase duas semanas.


"O quão bem sucedido deve turnaround da HP antes de ser seus funcionários pode escolher quando tomar as suas férias?" perguntou o nosso insider.


The Register entrou em contato com a HP para comentar o assunto. Vamos atualizar, se ouvir mais. ®



Breaks HP para o Ano Novo quinzena - aka 'hols de pessoal »- fonte


HP já teria ligou o interruptor em seus principais locais e funcionários necessários para se despedir de férias entre o Natal e na primeira semana do Ano Novo, em um movimento para cortar o trabalho e os custos de funcionamento, uma fonte diz-nos.


Um operador no painel de comando da HP confirmou ao El Reg que os sites principais da empresa será fechado até 05 de janeiro.







O insider disse-nos: "Sites da HP estão fechadas, com AC e aquecimento reduzido a padrões de arrefecimento ou aquecimento de fim de semana; equipes de limpeza estão ociosos; contratantes são enviados embalagem; sistemas de centro de dados são desligados - com admins na esperança de que eles podem ser inicializado com não há falhas de hardware no início de janeiro ", afirmou.


HP tem sido desesperadamente tentando equilibrar as suas contas para um número de anos, com a empresa espera receita em sua divisão Enterprise Services para continuar a diminuir em mais 5 por cento no próximo trimestre.


Em outubro, a empresa anunciou uma cisão entre a sua Impressão e Sistemas Pessoais (PPS) divisão definido para se tornar HP Inc, e os servidores, armazenamento, rede, serviços e unidades de software de reforma como Hewlett-Packard Empresa (HPE).


No entanto, a mudança para fechar loja em Natal é improvável para ajudar a empresa chegar à frente para 2015, conforme o andamento dos projetos é adiada por quase duas semanas.


"O quão bem sucedido deve turnaround da HP antes de ser seus funcionários pode escolher quando tomar as suas férias?" perguntou o nosso insider.


The Register entrou em contato com a HP para comentar o assunto. Vamos atualizar, se ouvir mais. ®



quinta-feira, 18 de dezembro de 2014

Europa borracha selos IBM Lufthansa gig terceirização


A Comissão Europeia deu luz verde a IBM para espirrar $ 1,25 bilhão na asa infra-estrutura de tecnologia da Lufthansa.


Como parte do acordo, que inclui um acordo de outsourcing, a companhia aérea irá dividir sua subsidiária, a Lufthansa Systems, em três companhias, descarregando a divisão de infra-estrutura para a Big Blue.







"A Comissão concluiu que a operação proposta não suscita preocupações de concorrência, dadas as sobreposições muito limitadas entre as actividades das partes e a presença de vários jogadores fortes alternativas que permanecem ativos após a fusão", afirmou a UE.


"A operação foi examinada segundo o procedimento normal avaliação fusão", acrescentou.


Cerca de 1.400 Lufthansa Systems funcionários serão transferidos para a IBM como parte do acordo, que foi descrito pela primeira vez em outubro, e é esperado para salvar a companhia aérea € 70m em gastos anuais de TI.


O plano é que a Lufthansa vai terceirizar suas porcas de TI e serviços de parafusos a IBM há sete anos. ®



terça-feira, 16 de dezembro de 2014

IBM e Red Hat ligar para virtualização em sistemas de energia


Red Hat anunciou que seu produto Enterprise Virtualization agora funciona em sistemas de energia da IBM.


O movimento não é uma surpresa colossal: na semana passada, Red Hat revelou uma versão beta do Red Hat Linux 7.1 e incluiu uma versão em execução no recém-revelado da IBM plataforma Power8 . Red Hat Enterprise Virtualization for Power é um hypervisor KVM derivado do que é integrado ao kernel do Linux, um arranjo disse para permitir uma operação mais rápida de VMs do que arranjos concorrentes.







Novos sistemas Power8 da IBM são bestas com núcleos em abundância e aceleração GPU na lateral. Aplicações de Big Data e outros dados pesados ​​esmagando são o alvo, mas mesmo esses tipos de cargas de trabalho, muitas vezes podem se beneficiar da capacidade da virtualização para hardware abstrato. E, claro, ninguém quer a sua lata em marcha lenta nos dias de hoje: ciclos de CPU usado pela ONU são apenas pedindo olhares médios de tipos financeiros que leram revistas aéreas sobre servidores de nuvem baratos.


IBM sabe disso e sabe também que os sistemas de poder não são baratos e os seus clientes querem tirar o máximo proveito deles.


Não admira que jogou um fresco bilhão de dólares em Linux em setembro passado , a fim de certificar-se de que haveria software para tun na plataforma.


A virtualização é uma peça-chave da infra-estrutura computacional, assim Red Hat está segurando claramente a sua parte no trato. ®



segunda-feira, 15 de dezembro de 2014

Inquérito independente de controle de tráfego aéreo britânico pesadelo de TI


O UK Civil Aviation Authority (CAA) e do Serviços de Tráfego Aéreo Nacional (NATS) têm abriu hoje um inquérito independente conjunta na TI cock-up que fundamentou centenas de voos na semana passada.


. Na sexta-feira London espaço aéreo foi efetivamente encerrado devido a uma falha de TI da NATS Fontes disseram ao El Reg isso foi devido a um mainframe IBM S / 390 cair - aquele que executa o sistema de processamento de dados de voo.







Falando sobre o Andrew Marr Show, secretário de negócios Vince Cable ontem acusado NATS de "poupar sobre investimento em larga escala" e correndo "sistemas de computadores antigos, que, em seguida, falhar."


É a segunda vez no ano passado sistemas NATS 'ter ido titsup de uma forma séria. Em dezembro de 2013, 300 voos foram cancelados e 1.472 atrasados ​​devido a uma falha técnica com uma interface touch screen fornecida por Frequentis.


Na época NATS publicou um relatório prometendo melhorar a sua resilence TI e minimizar a possibilidade de uma ruptura grave aconteça novamente.


A mais recente revisão abrangerá as causas do incidente, a manipulação da falha NATS ', e se lições identificadas a partir do anterior cock-up em dezembro de 2013 foram aplicados de forma efectiva neste incidente.


Ele também irá abordar a capacidade de resistência e de serviço que deve ser esperado em toda a rede de tráfego aéreo e as demais medidas NATS deve tomar para evitar falhas tecnológicas.


A CAA disse que vai nomear um presidente independente do painel, que incluirá bods NATS técnicos, um membro do conselho da CAA e peritos independentes em TI, gestão do tráfego aéreo e resiliência operacional. ®



sexta-feira, 12 de dezembro de 2014

Tecnologia cool: Submerso servidores blade fugir do calor


Mantendo servidores legal é um desafio, mesmo em uma dados construído para o efeito centro. Imagine por um momento a dificuldade de fazê-lo como parte de um oleoduto no interior australiano, ou como parte de um posto de comando militar nos desertos do Afeganistão.


Posso dizer por experiência própria que o resfriamento é um problema sério, mesmo durante um verão canadense. Minha cidade natal de médias Edmonton 25 ° C durante o verão, mas fica acima de 30 ° C durante três ou quatro dias por ano.







Isso é mais do que suficiente para me dirigir dentro de casa para se esconder na frente do aparelho de ar condicionado, mas é muito pior para uma grande parte do equipamento que eu tenha instalado do lado de fora.


Equipamento ao ar livre no Canadá muitas vezes vive em caixas de metal pouco horríveis ironicamente chamados "barracões", que não têm qualquer semelhança com qualquer estrutura tão espaçoso.


Eles são, basicamente, uma profundidade total de rack 12U 19in aparafusado ao lado de alguns monstruosidade aço composta por pesadelos e absorção solar. Dentro da caixa sentar 4U de servidor, 4U de networking e 4U de aquecimento, ventilação e ar condicionado.


Com o chiller vai flat out a temperatura não cai abaixo de 60 ° C durante os dias quentes, e fica em torno de 50 ° C por cerca de quatro meses do ano.


Reunião minhas necessidades na minha área local é razoavelmente fácil. Vá apenas algumas centenas de quilômetros ao sul oeste e você correr para o inferno incessante conhecido como Kamloops . Este é um lugar miserável desprovido de umidade onde as temperaturas alegremente empurrar 40 ° C durante semanas a fio e sentar-se ao norte de 30 ° C durante meses.


Australianos e outros loucos deserto-moradia, é claro, rir com a alegria incontida a estas temperaturas.


Nenhum like it hot


À primeira vista, parece que a solução óbvia para estes problemas é substituir as pequenas coisas horríveis galpão com algo melhor. Isso é muito mais fácil dizer do que fazer.


Por razões que envolvem burocratas (e, estou convencido, pactos demoníacos) recebendo gabinetes externos certificados para uso com equipamentos de telecomunicações, em oleodutos ou com várias outras utilidades é a maneira mais difícil do que deveria ser.


A outra parte da equação é que no instante em que começa um novo gabinete que reflete melhor o calor, tem uma melhor chiller ou um escape mais eficiente, alguns yutz decide podemos empinar mais potência de computação para este galpão da próxima geração do que fizemos antes .


Networking juntamente 6.000 km de dutos de óleo é instável no melhor modo de computação em nuvem não é uma opção, e não há uma quantidade verdadeiramente profana dos dados do sensor para capturar, crunch, comprimir e enviar de volta à base.


Nesse meio tempo, alguma coisa tem de olhar para todos os sensores e tomar decisões sobre se deve ou não surtar sobre qualquer coisa, e temos aprendido com a experiência para manter os widgets de tomada de decisão o mais próximo possível dos possíveis pontos de falha possível.


Até mesmo links de satélite ir para baixo, e quando você está 1 mil quilômetros desde os tempos mais próximos principal resposta liquidação são medidos em hectares do ambiente perdido.


Óleo sobre servidores problemáticos


Assim, se os fornos que gentilmente se referem como abrigos não são susceptíveis de obter qualquer mais frio que precisa de servidores que podem lidar com temperaturas mais elevadas.


A primeira resposta que vem à mente é de LiquidCool Solutions, que não fabricam equipamentos de TI, mas licencia patentes (ver PDF aqui ).


Liquidcool afirma ser capaz de rodar servidores "em temperatura ambiente de 50 ° C ou superior, mantendo as temperaturas de junção do núcleo de 30 ° C mais frio do ventilador de refrigeração / ar com base". Isso tem a minha atenção, sim indeedy.


LiquidCool arremessos "ambientes hostis" como um grande caso de uso. Ele afirma ser capaz de reduzir o consumo de energia em 40 por cento ou mais, ao mesmo tempo reduzir o poder para esfriar por uma ordem de magnitude. Tendo em vista o número de sistemas de energia solar com quem trabalho, estou intrigado.


LiquidCool licencia patentes para construir a tecnologia de servidor submerso totalmente fechado. Coloque o seu servidor em uma caixa de óleo, selá-lo e bombear o óleo para fora de um radiador. É um ótimo conceito, mas tenho algumas questões.


Site da LiquidCool contém discussão sobre a resistência a "areia, sal, gases, corrosão e umidade". Ok, isso é legal, mas eu preciso ser honesto e dizer que nenhuma das pessoas que já posou realmente um grande problema para mim. Não que eles não são um problema, mas o verdadeiro problema é o pó de metal.


Driller Killer


Meu inimigo é um soldador. Na verdade, ele é um soldador, steamfitter e eletricista. Ele perfura buracos no meu inferno-galpões. Minúsculos furos pequenos com seus treinos mal pequeno. E ele atribui as coisas para aqueles galpões.


Você seria verdadeiramente chocado com a quantidade de areia que você pode obter em um computador e ele ainda funciona bem. Sal, uréia (sal da estrada para a neve é, de fato ureia) e até mesmo a corrosão pode ocorrer em quantidades assombrosas e servidores modernos apenas continuar trabalhando.


Estou chocado, surpreendido e decidiu divorciar-se o material que eu retire desses galpões em ciclos de manutenção. Tenho visto PCBs eu não posso deixar de vê.


Mas o pó metálico é a morte. Aquele pequeno soldador irritante e sua broca irritante criar pequenas partículas de pó de metal que ficam por toda parte. E este material mata computadores.



Pó metálico é sugado pelos fãs e se instala exatamente onde você não quer que ele se contentar



Ainda pior do que o soldador são explosões. Pipelines ter problemas. Quando eles vão boom - e isso acontece um pouco mais do que gostaríamos - pequenos pedaços de pó metálico obter todos os lugares.


Pó metálico é o câncer digital. Ele não apenas valsa-se ao seu servidor e dispará-la. Ele fica sugado por fãs e se instala exatamente onde você não quer que ele se contentar por causa dos vários campos eletromagnéticos e eletrostáticos em seu chassi.


Você não pode colocar filtros nas entradas de ventilação. Eles serão completamente impenetrável dentro de um mês.


Partindo do princípio de que não há absolutamente nenhuma maneira possível para o pó de metal para entrar no óleo, em seguida, um computador submerso completamente selado pode ser uma solução. Exceto para a parte em que a troca de componentes de computador para fora é um trabalho susceptível de ser dado a Welder McMetaldust.


O conceito de falar dele através da remoção de uma caixa de electricidade a partir de um barril de petróleo no lado de uma estrada movimentada através de um telefone via satélite esquisito é como o início de um romance de Lovecraft perdido.


Certamente não há uma solução melhor?


Água de lovely


Em junho, a HP anunciou a sua Apollo 8000 sistema na conferência HP Discover. O que está no site da HP é principalmente o marketing fluff mas eu tenho sido capaz de reunir alguns detalhes.


Apollo parece estar fechado de refrigeração líquida, não submersão óleo. Tem removíveis trenós computador CPU dual.


Contemple isso por um momento. Tecnologia "desconexão seca" da HP oferece a eficiência de refrigeração líquida, e também a capacidade de nós de hot-swap de um chassis.


Com um pouco de trabalho de um sistema como esse poderia ser projetada para manter o pó de metal maldito três vezes para fora, enquanto até mesmo o mais não-técnico entre nós poderia ser percorrida através trocando um nó sobre o telefone. Eu acho que eu estou apaixonado.


Infelizmente, nem tudo é muito perfeito. Apollo pesa apenas com força rack. Sem 8U maravilhas para mim ainda.


Ainda assim, isso prova que a tecnologia existe, e isso significa que é apenas uma questão de tempo antes que ele desce das alturas de computação de alto desempenho e trabalha o seu caminho para os meus terríveis galpões metálicos pequenos.


Envie no exército


É claro que há um outro grupo que compra computadores que precisam de algum ruggedisation: o militar.


Aqui, Apollo da HP parece quase perfeito. HP afirma ser capaz de ultrapassar os níveis de certificação Energy Star Platinum para eficiência de energia. A implantação militar constantemente precisando de energia será definitivamente grato por isso.


HP também afirma que, graças ao encanamento modular que "pode ​​ser rapidamente operacional", e não em dias ou semanas. Novamente, isso é importante se o seu trabalho é para montar um acampamento, em seguida, levá-lo para baixo e movê-lo em pouco tempo.


Se minhas conversas com Christopher Kusek na VMworld eram qualquer indicação, destacamentos militares do mundo real têm ainda mais problemas com que o pó de metal temido do que os meus sistemas galpão.


Projeto Apollo é voltada para o mercado de computação de alta performance. Ele é projetado para obter mais computadores em um espaço menor, utilizando menos energia do que a concorrência.


Mas eu posso ver um mercado muito mais amplo para isso: a facilidade de utilização em locais onde há 20 anos as pessoas não têm computadores pensamento poderia ir.


Nunca diga-se que a HP não inovar. Agora vamos esperar que ele pode trazer essa tecnologia para o resto do mundo, e rápido. Eu tenho galpões para preencher. ®



quarta-feira, 10 de dezembro de 2014

Criando mais harmonia em torno da computação de usuário final


Top 5 razões para implantar VMware com Tegile


As tensões com frequência surgem entre as unidades de negócio e as equipes de TI como os usuários se tornaram mais informada e opinativo, e buscou maiores níveis de liberdade e flexibilidade em torno da tecnologia que utilizam no trabalho. Neste contexto, a chave para a criação e manutenção da harmonia é priorizar interesses comerciais tangíveis acima ambos os desejos do usuário e é o conservadorismo natural. O tipo certo de compromissos pode ser alcançado para conduzir o máximo benefício.


A voz do usuário está ficando mais alto e mais forte


Houve uma época em que a computação do usuário final em grande parte girava em torno de PCs Wintel implantado e gerenciado pelo departamento de TI. O tipo de equipamento fornecido a um empregado normalmente seria determinado por uma combinação de negócios e necessidades operacionais. Sempre que possível, a normalização seria aplicado para fazer garantir, administração e suporte do ambiente mais fácil e eficiente.


Se você tiver sorte o suficiente como uma pessoa de TI para ser ainda vive neste mundo, então apreciá-lo enquanto dura, porque a natureza da computação de usuário final está mudando rapidamente.


Os resultados de um estudo recente leitor Reg realizada pela Freeform Dynamics captar o impacto relacionado com o trabalho da ascensão fenomenal de smartphone e tablet adoção no espaço do consumidor.


Ao longo dos últimos anos, os usuários se tornaram muito mais informada e opinativo, e muitas organizações estão vendo o crescimento da influência das preferências do usuário e desejos em tecnologia usuário final as decisões relacionadas (Figura 1).


Figure 1 Figura 1

Os comentários a seguir obtidos na pesquisa fornecem um sabor do feedback que recebemos sobre as mudanças que estão ocorrendo:


"Estamos vendo mais trabalho móvel e uma gama mais variada de dispositivos."

"Mais e mais o pessoal quer usar algo que eles estão familiarizados."

"Os usuários estão exigindo marcas específicas."

E resistir a voz do usuário é difícil ou mesmo impossível, quando os gerentes seniores são os que fazem as demandas:


"Os diretores todas pediu iPads, então eles tem-los."

"O custo é nenhuma barreira entre os executivos seniores e os dispositivos que eles querem."

Mas não parar em pessoas simplesmente fazendo lobby para conseguir o que querem.

As equipes de TI não podem mais controlar toda aquisição de tecnologia


Se é em resposta a uma necessidade não atendida, ou uma preferência pessoal ou desejo, alguns funcionários estão ignorando política e processo e aquisição de tecnologia, independentemente do departamento de TI (Figura 2).


Figure 2 Figura 2

Para resumir o que este gráfico está nos dizendo, a maioria das organizações estão vendo a adoção unilateral de tecnologia entre as unidades de negócios e / ou utilizadores a um nível que não pode mais ser ignorado. A amplitude da atividade é digno de nota também. Não é apenas sobre smartphones e tablets, mas também PCs, Macs, software e serviços.


As tensões estão aumentando ea desarmonia está crescendo


Olhando para informações estatísticas, como que apresentou acima não transmitir o impacto sobre relacionamentos, ou a maneira em que a harmonia organizacional é muitas vezes a ser minada. As frustrações são claros em ambos os negócios e de TI lados da casa:


"Se um departamento de TI de tamanho decente não pode apoiar iOS, Android e Windows, talvez os caras que fazem o trabalho deve aplicar-se para novos postos de trabalho."

"Como funcionário, eu vejo a falta de flexibilidade como um indicador negativo da cultura organizacional; é sintomático de uma organização com um ambiente de TI opressivo. "

"A alta gerência tem negaria BYOD, ignorando entrada e avisos de TI, mas os usuários são em sua maioria sem pistas sobre suas reais necessidades. Alguns dispositivos só não vai funcionar em nosso ambiente, então as pessoas ficam com raiva quando não podemos corrigi-lo. "

"Os usuários finais e gestão de negócios perderam qualquer compreensão da segurança e responsabilidade na pressa de ser visto como na moda."

Então, o que pode ser feito para ajudar a resolver o tipo de diferenças que estão surgindo nesta área altamente emotivo?


O truque consiste em romper com os diferentes conjuntos de interesses


Um dos princípios fundamentais que devem ser aceitos, particularmente entre os acionistas da empresa, é que os desejos de usuários e necessidades de negócios nem sempre estão bem alinhados. Na verdade, que muitas vezes pode estar em conflito direto com os outros como esta observação muito perspicaz de um estudo participante resume muito bem:


"As necessidades individuais e desejos devem vir segundo a soluções estar apto para o efeito, rentável e seguro. Olhar fresco e gostando do dispositivo, enquanto agradável, não é exatamente o que os acionistas está interessado. "

Aceitando também que as equipes de TI podem às vezes ser um pouco arrogante de uma perspectiva de controle, potencialmente inibir o progresso, a necessidade de mais compromisso todo é claramente necessário. Ao falar através de opções, no entanto, as discussões tornam-se muito mais fácil se você configurá-los como pano de fundo as necessidades do negócio do núcleo duro. Uma boa ferramenta para usar aqui é algo que chamamos o triângulo de interesses (Figura 3).


Figure 3 Figura 3

Vale a pena ter o triângulo de interesses que sentam-se no meio da tabela ou rabiscou no quadro branco quando as equipes de negócios e de TI se reúnem para conversar sobre prioridades e considerar se as solicitações dos usuários podem ser acomodados. Quando surge um conflito, as necessidades de negócios do núcleo duro deve claramente trunfo qualquer um dos outros dois conjuntos de interesses, mas você pode também identificar áreas de investimento necessário. Pode ser, por exemplo, que uma solicitação de usuário aparentemente auto-serviço é, na verdade, mascarando uma oportunidade importante para aumentar a produtividade dos funcionários. Você também vai se deparar com situações em que a equipe de TI está resistindo a uma proposta, porque a infra-estrutura e as ferramentas não estão no lugar para implementá-lo de forma segura, segura e eficaz.


Se você estiver interessado em adquirir mais conhecimentos sobre esta área importante e fascinante, nós incentivamos você a ler o relatório de pesquisa completo, intitulado " A política e as particularidades dos End Computing Usuário ".



Nginx pontuação $ 20 MEELLLION para lembrar as pessoas que vende material


Guia do Iniciante para certificados SSL


Web-server-maker NGINX tem um problema complicado: o seu software é utilizado por empresas como a Netflix e Dropbox, ele pode reclamar 40 por cento dos top do mundo de 1000 web como usuários, mas que a capacidade para operar em escala extraordinária não está traduzindo em vendas de seus produtos e serviços comerciais.


As coisas por dinheiro, diz CEO Gus Robertson, não é tão amplamente conhecido: as pessoas associam a empresa com o seu servidor de código aberto e não uma pausa para considerar ofertas pagos da empresa.







Um novo US $ 20 milhões a injeção de NEA é a esperança de mudar isso, através do financiamento de expansão para novos escritórios em todo o mundo e geral drum-surra.


Uma sintonia Robertson espera ser ouvido muito e alto é a capacidade do Nginx para falar diretamente com os aplicativos para que menos bate-papo atinge servidores de aplicativos e menos de balanceamento de carga é necessário para direcionar o tráfego dentro de uma rede.


Robertson avalia que há uma redução da frota de servidor e cenário de desgraça aparelho dedicado à espera de ser jogado para fora dentro de muitas empresas. E não apenas operações na web Hyperscale: segundos importa para qualquer aplicação web e NGINX pensa que tem um tiro e acelerando qualquer coisa dependente de HTTP.


O novo dinheiro vai dar à empresa os recursos de que necessita para contar essa história para o mundo.


Ele deve encontrar ouvidos atentos: dificilmente hora e passagens em que o Reg não é lembrado - para o tempo gazillionth - como é importante para sites de negócios on-line para carregar muito rápido e não ser doloroso para usar. Se NGINX pode capturar a atenção de algumas pessoas que ingerem esse mantra, é apoiadores pode apenas ter gasto US $ 20 milhões com sabedoria. ®



segunda-feira, 8 de dezembro de 2014

Por lâminas precisa de um software de gestão empresarial: Aprenda com os testes de laboratório de hardcore do Trev


Internet Security Threat Report 2014


O valor da gestão empresarial associada com lâminas modernas fez-se sentir para mim. Ao mesmo tempo, eu entendo o valor que os sistemas "unblade", tais como os sistemas Supermicro Série Dupla ou Open Compute, pode trazer.


Custo, eo que você pretende fazer com as coisas, são, como sempre, o determinante, mas não há vencedores claros e não há vilões gananciosos que podem ser encontrados aqui.







Eu quero voltar em um pouco no tempo: a julho de 2014, e os preparativos para VMworld. Eu tinha acabado de comprar um novo Supermicro F627G2-F73PT + FatTwin, um de seus modelos de GPU-capable.


Micron lascado em um monte de M500DC SSDs e Nvidia um par de GRID K2 cartões. Supermicro lascado num SSE-X3348T interruptor e meu laboratório estava quase começando a parecer respeitável.


Eu ocasionalmente desfrutar de testar coisas consumidor: alto-falantes Bluetooth , por exemplo. Mas eu tenho sido repetidamente pediu para testar equipamento ligado para a mid-range e de nível de entrada da empresa.


Meus sonhos de responder ao pedido dos meus leitores foram jubilantly eufórico. Eu estava indo para testar SANs servidor, VDI reforçada-GPU e uma lista, desde que meu braço de outras coisas.


Se você busca de opiniões com o meu nome neles, você vai notar uma escassez deles nos últimos meses. As razões são tanto de negócios como intricada técnica, mas uma coisa que se destaca: olhando para trás, o tipo de software de gestão empresarial que acompanha servidores blade high-end teria me salvou meses de esforço e dezenas de milhares de dólares.


Trial by calvário


Para um exemplo de valor nos últimos meses de esforços na criação de protótipos de novas construções e componentes de teste, vamos olhar para o meu teste de cartões de rede da Nvidia ao lado da VMware Horizon View.


Eu finalmente acabou com um sistema que mostrou o quão incrível essa configuração poderia ser, mas a viagem para chegar lá serve como uma grande demonstração de porque os cartões GRID tendem a estar disponíveis apenas em sistemas de pré-enlatados.


Para chegar Nvidia GRID cartões funcionando corretamente você precisa de três coisas: o cartão, um hypervisor que joga bonito com os outros e um BIOS que suporta todo o assunto. Quando você colocá-lo em conjunto, é incrível.


Eu não ligo para o que os pessimistas VDI pensar, Nvidia VDI-powered GRID é uma tecnologia tão bonita que ele queimou uma década de cinismo cansado e lembrou-me porque eu entrei em primeiro lugar.


Na iteração atual que você precisa para obter a combinação de componentes e configurações corretas. Se você quer fazer GPU-to-Virtual Machine passar, então no Supermicro BIOS se certificar de que "acima 4G decodificação" está desativado.


Olhe através deste PDF para o pciHole.start = informação "2048" e aplicá-lo à sua máquina virtual. Não coloque o vib motorista Nvidia na linha de comando ESXi.


Em teoria, o acima permite que você passe um GPU através de uma máquina virtual, e então você pode jogar Espaço Engineers por dois dias sólidos fazer alterações de desempenho, se você quer fazer GPUs totalmente virtualizados.


Agora, vamos adicionar na parte em que, sem o conhecimento de mim, havia um bug nesta configuração específica, de modo que um ESXi 5.5 RTM instalar passaria ambos os GPUs da K2 através de diferentes máquinas virtuais, mas ESXi 5.5 U2 iria funcionar corretamente apenas quando Eu escolhi para restringir o meu passe através de uma das GPUs.


Se eu tentasse passar por tanto, ele seria um fracasso sem erros úteis. Mas eu achei que eu poderia carregar o driver Nvidia sob essa configuração e ambos passam por uma das GPUs, bem como executar o outro no modo GPU virtualizada, apesar do fato de que foi-me dito isso não deve ser possível no momento.


Passei mais de um mês tentando encontrar a combinação mágica exata de configurações da BIOS, hypervisor instalar e configuração de máquina virtual que me deixaria passar por ambas as GPUs.


Bug mania


Além do erro GPU, há um bug unidade de rede Intel para os cartões de 10GbE onboard em minha FatTwin que quase custou a minha sanidade. Certamente me custar clientes, e minha incapacidade de resolvê-lo - e para se desconectar da tentativa de resolvê-lo - tem prejudicado a minha reputação.


Há um pouco razoável de documentação sobre determinado assunto aqui e um exemplo de buck-passagem aqui .


A versão curta é esta: se tudo no meu interruptor 10GbE é 10GbE, tudo funciona bem. Mas há um dispositivo de 1 GbE na rede, em seguida, todos os dispositivos de 10GbE com a Intel NICs irá enviar a esse dispositivo 1GbE não mais rápido do que cerca 500Kps.


Isso vale para cerca de 60 por cento dos dispositivos 1GbE que você se importa para anexar. Para os outros 40 por cento, as NICs Intel parecem funcionar muito bem. Eu não percebi isso.


Para reproduzir o erro carregar ESXi 5.5 U2 em um Supermicro F627G2-F73PT + e ligar tudo isso a qualquer switch 10GbE baseado em Broadcom (como a Supermicro SSE-X3348T). Em seguida, conecte um switch D-Link DES-1016 (a partir do qual seus outros dispositivos 1GbE irá travar.)


Você pode enviar dados do lado da D-Link 1 GbE para o lado de 10GbE na velocidade do fio. Dados em outra direção vai desacelerar para um rastreamento. Trocar o DES-1016 para a placa de rede Intel 82579LM no meu notebook, mesmo problema. Escolha uma vez V2 Wi-Fi router Netgear WNDR-3700, e você terá velocidade de fio em ambos os sentidos. Cheap $ 10 interruptor TP-LINK? Mesma coisa.


Este é um bug de idade. Eu tenho algumas placas de rede Intel 1GbE que fazem exatamente a mesma coisa se você atirar um dispositivo 100Mbit na rede. Apesar de saber de uma iteração anterior desta edição, foi uma semana para tentar descobrir por que meu finalmente-bloody--me obedecer configuração GPU VDI estava realizando um lixo antes de eu twigged que a resposta não estava na caixa, foi em a banda.


Claro o suficiente: $ 10 interruptor TP-LINK mais tarde e Espaço Engenheiros meu regime de testes estava trabalhando suave como a seda.


Aconselhamento Grief


Peço desculpas para o longo preâmbulo ao meu ponto principal, mas eu quero que você, caro leitor, para compreender a profundidade das complexidades técnicas que aqueles de nós que fazemos prototipagem formal de ter que lidar com eles.


Havia provas e tribulações, mas o resultado final foi que agora eu tenho um sistema TESTLAB que faz GPU trabalho VDI maravilhosamente.


Esse mesmo sistema pode ser re-encarregado de esforço de algumas horas para ser um sistema SAN servidor realmente incrível. Eu também pode carregar cartões adicionais PCI-E para testar coisas como A3Cube PCI-E networking 's, e quem sabe mais o quê.


Mas chegar até aqui me custou. Dezenas de milhares de dólares, um pouco dele na frente para cumprir os compromissos para os clientes. Eu tive que, por exemplo, sair e comprar algumas novas placas de rede 10GbE, porque eu não poderia vencer as existentes em forma a tempo de cumprir o prazo.


Eu também tive de afastar os clientes, e para minha vergonha eterna, foram atrás prazo para os outros como Eu tentei resolver o problema após problema.


A quantidade espetacular de tristeza teria ido embora, se estes sistemas tiveram o tipo de software de gestão empresarial que as lâminas high-end enviar regularmente com.


Em um sistema de lâmina, a configuração da BIOS está estampado no nó pelo módulo de administração. Essa configuração vive com o slot, não a lâmina, e você pode armazenar várias configurações.



Você pode ter dezenas de as coisas ao redor para diferentes configurações e faz testes muito mais fácil



A configuração contém não apenas as configurações da BIOS, mas também os endereços MAC e WWN para os nós. Suas instâncias do sistema operacional pode ser vinculado a um determinado endereço MAC e que MAC vinculado a uma determinada configuração.


Você pode ter dezenas de coisas ao redor para as diferentes configurações que você precisa, e faz testes - e revertendo se as coisas derem errado - muito mais fácil.


Quanto tempo leva para carregar um sistema operacional completamente do zero e configurá-lo? Não é por isso que criamos imagens, em seguida, configurações implementáveis, automação, fantoche, orquestração web escala e assim por diante?


Mas e quanto ao hardware subjacente? Aquilo que toca o metal precisa ser configurado como bem.


Em adição ao sistema operativo ou hypervisor que se senta sobre o metal, o BIOS do sistema tem de ser configurada. Sistemas de gestão de banda de base de configuração precisa. Módulos de segurança e criptografia precisam ser carregados com chaves relevantes.


Mesmo placas de rede, discos rígidos e placas RAID têm a sua própria ROM que precisam ser atualizados, as suas próprias configurações para ser gerida e divulgada.


Levei meses para resolver os problemas de configuração com o meu TESTLAB, em grande parte porque ele pode levar uma hora para chegar tudo recarregado, reconfigurado e depois executar através de um teste, e eu tinha centenas de configurações que tinham que ser testados.


Não é tão burra


Para um homem em um TESTLAB, minha configuração fará. Mas muitas empresas redirecionar milhares de nós em uma base regular, e "boa conhecida" precisa ser mais do que uma configuração de escrita à mão rabiscou em um pedaço de papel coberto por uma xícara de café.


Se eu estou correndo Facebook, em seguida, um grupo de OpenCompute nodos despojado a tal ponto que não há nem mesmo uma placa de som $ 2 por nó que não é necessária faz todo o sentido.


Para eles, tudo é feito em software. As chances de uma mudança BIOS para um nó uma vez que se estatelou na abordagem rack de zero. É um balde de computação que agarra um sistema operacional a partir de uma rede e que é tudo o que sempre tem que ser.


Da mesma forma, o meu Supermicro FatTwin faz para um cluster Caringo verdadeiramente glorioso. Caringo executa uma máquina virtual controlador que mãos fora uma versão somente leitura do CentOS mais de inicialização de rede PXE.


Descobre todo o armazenamento nos nós que arrancar isso, formata o armazenamento e adiciona-lo em seu pool de armazenamento. Precisa de mais espaço de armazenamento? Bota mais nós: o armazenamento de objetos tornou-se tão simples como ligar um computador conectado que é projetado para iniciar a partir de PXE.


Mais uma vez, o que é necessário esse tipo de cenários são nós "burras". Eles não fazem nada de especial. Na melhor das hipóteses, eles sediar alguns discos SATA. Este é o futuro do armazenamento em grande escala.


É o presente de provedores de nuvem Hyperscale. Mas, apesar de todo o hype lá fora, não é o princípio eo fim de todo o mercado.


Blades cortá-la


Muitas empresas, a partir da empresa de pequeno porte para as maiores empresas ainda precisam de seus computadores para fazer alguma coisa. Eles precisam de seus servidores para ser mais do que nós de idiotas. Todas essas tecnologias interessantes que a Intel constrói em suas CPUs estão lá por uma razão: alguém queria.


Existem cartões PCI-E que fazem qualquer número de widgets vão bing, dongles USB para software, aplicações OLTP que exigem armazenamento flash-classe MCS e bondade apenas sabe mais o quê.


O que é mais, nós não apenas jogar fora nossos servidores sempre que as alterações de carga de trabalho. Também não são administradores de sistemas - ou aqueles que lhes pagam - disposto a gastar uma hora por nó reconfigurando a coisa.


Quando um determinado conjunto de cargas de trabalho é migrado de uma classe de nó para o outro, os antigos são reutilizadas. Mudanças são testados em um cluster de nós para a nova carga de trabalho, e empurrado para fora de lá para toda a população daquela classe.


Desenvolvimento de protótipos de todos os erros fora de um cluster me custou três meses da minha vida. Isso não pode acontecer em escala empresarial. Assim, apesar da tristeza e melancolia de quem não consegue ver além das diferenças de preços de um fundo de barril nó Abrir Compute e um sistema de lâmina, lâminas estão aqui para ficar.


Eles têm um papel a desempenhar no futuro da TI, e, por enquanto, continua a ser um passo importante. ®



sexta-feira, 5 de dezembro de 2014

Hairy situação? Os servidores blade pode chegar onde outros não podem


Controle remoto seguro para desktops convencionais e virtuais


Qualquer seguidor de revistas de tecnologia de hoje em dia já ouviu falar muito sobre Abrir Compute Projeto (OCP) servidores. Estes são os servidores o mínimo, amontoados em um único chassi e gerenciado centralmente através do software que oferece alta automação e data center escala orquestração despojado.


Em um mundo OCP, a redução de custos é fundamental. O resultado é que tudo está funcionando bem somente em grande escala, e, mesmo assim, onde cada nó é a mesma que a próxima.







Com tudo preparados para baixo ao mínimo, fazendo uso eficiente desses servidores exige que uma equipe dedicada de operações nerds tem a chance de roteiro, automatizar e ajustar cada último item in-house.


No extremo oposto do espectro é o servidor legado: um servidor por chassis, concebido para lidar com qualquer coisa que você pode jogar nele. Esses servidores têm placas de vídeo, sons cartões, portas USB inumeráveis, SATA, SAS e tudo mais sob o sol.


Servidores legados são muito mais caros por nó que qualquer outra opção no mercado, mas eles também são muito mais versátil. A desvantagem é que cada tipicamente requer gestão individual, e eles são a opção menos densa disponível.


Em algum lugar entre OCP e legado temos as "unblades". Estes são sistemas como o da Supermicro gêmeas servidores. Assim como os servidores do OCP, unblades apontar para medíocre a alta densidade e eles compartilham energia e refrigeração.


Unblades são um pouco despojado, mas não tanto quanto nós OCP. Eles não compartilham networking e gestão é semelhante a nós legado: tudo é feito em uma base per-server.


Parece que entre estas três categorias, nós cobrimos a maior parte do mercado, a partir de pilha 'em alta, vendê-los mais barato através de caro, mas versátil. Você poderia ser desculpado por acreditar que não há espaço lá para servidores blade, mas eu acho que você seria errado.


The Big Easy


Os servidores blade são sobre a facilidade de uso, nada mais, nada menos.


Lançar sobre e você terá um monte de comercialização patranhas sobre "servidores blade oferecem um custo operacional mais baixo do que a execução de servidores independentes" apoiados por todos os imagináveis ​​métrica. Blades reduzir dados pegada centro, eles reduzem seus gastos, permitindo uma infra-estrutura de arame uma vez ... E assim por diante ele vai.


Alguns dos que pode ser válido, mas o benefício real das lâminas é muito mais simples de entender. Como uma classe de sistema, as lâminas são muito menos de uma dor na bunda do que qualquer outra coisa no mercado.


O segredo está no software de gestão que é cozido no chassis. Embora implementações variar, como regra geral, as lâminas podem ser contadas para fazer algumas coisas fundamentais que tornam a vida de todos mais fácil.


A primeira é que eles podem atribuir coisas como endereços MAC e WWNs em uma base per-slot. Eles também podem geralmente falham essas configurações em um nó hot spare.



Basta retirar o nó morto, insira uma fresca e você está de volta no negócio



Pense sobre o que isso significa na prática. Se suas lâminas são configurados para agarrar o seu sistema operacional a partir de uma SAN, em vez de partir do armazenamento local, em seguida, tudo que é necessário para garantir que nenhum dado botas de nó com a instância do sistema operacional relevante é para o MAC e / ou WWN do sistema para estar correta.


Se uma lâmina físico morre por qualquer motivo, em seguida, o chassis poderia escolher uma peça de reposição a partir da piscina, atribuir o MAC ou WWN para aquela lâmina e o sistema irá arrancar a imagem do sistema operacional relevante com: basicamente, a alta disponibilidade do VMware, mas para física servidores.


Se você não tem um nó sobressalente, que está bem. Software de administração de lâmina pode ser configurado para atribuir MACs e WWNs a determinados slots no chassis. Basta retirar o nó morto, insira uma fresca e você está de volta no negócio.


Esta facilidade de utilização é a chave para a adopção generalizada de lâminas, e cada vez mais está na base do ethos de designs modernos.


Compartilhando a carga


Se há uma outra razão para usar outros do que a facilidade de uso fornecida pelo software de gerenciamento de lâminas é que tudo em um chassis blade é compartilhado. Se há uma razão para não usar lâminas, é que tudo em um chassis blade é compartilhado. Este é o yin e yang de lâmina.


Similar aos servidores OCP e chassis unblade, lâminas de ter compartilhado elementos redundantes como PSUs e fãs. Ao contrário desses outros, lâmina chassis têm integrado de rede compartilhada e gestão de nível de chassis. Isto é tudo ligado através de um plano médio comum, que, em teoria, serve um único ponto de falha.


Se você é paranóico corretamente sobre os pontos únicos de falha, então você comprou em lâminas com pelo menos dois chassis meio-cheio, e você sempre vai se expandir para que em todos os seus chassis há um mínimo de um chassis pena de espaço livre (ou quente peças nós).


Isso parece caro quando você está falando de dois chassis. É irrelevante se o seu tamanho mínimo de compra é um rack.


Se você pode viver com uma pequena quantidade de risco, você provavelmente vai achar que a incidência de insuficiência chassis em sistemas blade modernos é estatisticamente de forma indiferenciada de zero.


A maioria dos projetos de lâmina tem um plano médio completamente passivo: basicamente alguns silício, alguns traços de cobre e alguns laca, sem componentes elétricos para desgastar.


No caso improvável de que o plano médio morre, desenhos de lâmina modernos têm de campo substituível midplanes. Não exatamente hot swap, mas não o fim do mundo também. Quanto aos outros bits - ventiladores, redes, módulos de administração e assim por diante - você vai encontrar chassi blade ser notavelmente redundante.


Nesse meio tempo, você pode empinar 16 servidores em um único chassis, todos conectados com um interruptor de leste-oeste garantir uma comunicação rápida entre todos os nós do chassis e portos norte-sul de gordura para garantir a conectividade rápida para o topo da chave rack. Todos eles compartilham fontes de alimentação redundantes, refrigeração e assim por diante.


Bare metal


Blades são bem conhecidos para aplicações de densidade: muitas CPUs amontoados em um espaço pequeno. Se você tem o centro de dados para lidar com esse tipo de densidade então escalar aplicações, tais como serviços web de alto tráfego ou analytics de alta intensidade, vai ser bons candidatos para a execução sobre o metal de suas lâminas.


Aplicações de memória com fome, ou aqueles com licenciamento de virtualização, que foi projetado por ogres infernais, também vai encontrar uma casa em lâminas. Normalmente vemos uma panóplia de TI sopa de letrinhas correndo nua no metal: inteligência de negócios, planejamento de recursos corporativos, arquitetura orientada a serviços, gerenciamento de dados de produto, processamento de transações on-line e assim por diante.


As empresas cujos software ainda normalmente é executado no metal incluem Oracle, SAP, Siemens, IBM (WebSphere) e Microsoft (Exchange). Em alguns casos (Oracle) os ogros licenciamento infernais são a razão. Em outros (Microsoft) os desenvolvedores estão presos em um túnel do tempo e permitiram medo de virtualização para tornar-se uma neurose.


Seja qual for a razão, há uma abundância de cargas de trabalho que exigem servidores físicos, mas precisam de um tipo de facilidade de uso, alta disponibilidade e failover que você costuma ficar apenas com a virtualização de gestão. Essas cargas de trabalho não deve ser executado em qualquer coisa, exceto lâminas.


Se você tem um monte de escala automatizado fora aplicativos gerenciados por um sistema centralizado de orquestração, ir duro com OCP. Caringo você pode construir clusters de armazenamento loucura multicasting orientada a objetos de inicialização via PXE bare-bones caixas. Eu construí Linux tornar fazendas ao longo das mesmas linhas.


Mas se você estiver executando cargas de trabalho em que o próprio sistema operacional importa - sua configuração, dados, nível de patch e assim por diante -, então não corra que em despojado engrenagem. Ou executar essas cargas de trabalho em uma plataforma de virtualização bem gerida ou executá-los em lâminas empresariais adequadas.


Se você precisa de aceleração de armazenamento local nas lâminas para suas cargas de trabalho, seus fornecedores devem ser capazes de acomodá-lo. Da HP PCI-E ioDrive2 o Flash Mezzanine Cards são um grande exemplo.


Se você tem cargas de trabalho que necessitam de lotes de armazenamento local, vou encaminhá-lo para um vídeo do YouTube de um HP StorageWorks Blade. Às vezes, vendo torna tudo faz sentido.


Se você realmente precisar de alta disponibilidade, a HP também faz uma lâmina tolerante a falhas . Apesar de caro, é praticamente a melhor coisa de sempre.


Voltar ao backplane


Que o caso para cargas de trabalho de metal rodando em lâminas é tão forte não significa o caso para a virtualização em lâminas está faltando. O argumento de que lâminas de fornecer alta disponibilidade para cargas de trabalho torna-se, em grande parte irrelevante em um mundo de virtualização.


O que fazer lâmina fornecedores através de módulos de administração de chassis e clonagem de configuração, VMware faz no hypervisor. Seu sistema unblade padrão ou mesmo servidor legado você fica tão longe por esse caminho como um chassis full-on lâmina faz.


Blades têm uma vantagem aqui que outras configurações não: que compartilhou backplane de redes. Um chassis blade é essencialmente um cluster em uma caixa. Eles quando todos nós de um cluster estão no chassis compartilhar um backplane rápido gritando para a comunicação intra-cluster e um tronco de gordura-ish para comunicações off-cluster.


No mundo do servidor unblade ou legado, cada nó tem um monte de espaguete para lidar com, e os custos de servidores, além de redes de rede pode facilmente executar além dos custos de ir para lâminas.


Além disso, há ainda que a gestão sexy do gânglios coisa física. É uma poupança de tempo, mesmo quando você ter ido para a virtualização. Isto pode não importa muito quando você tem apenas oito nós para se preocupar. É absolutamente faz quando você tem oito prateleiras


Nuvens em todos os lugares


O futuro será cada vez mais sobre a conectividade no chassis blade. Servidores Webscale estão aumentando a demanda por 40GbE por blade e de alta intensidade cargas de trabalho estão saindo SANs tradicionais e se mudar para SANs servidor all-flash para armazenamento. Isto exige maiores links tronco fora do chassi e melhor networking dentro do chassis.


Nós lâminas individuais (bem como os módulos de rede) precisa se preocupar com os padrões emergentes, como RDMA sobre convergente Ethernet (ROCE), Virtual eXtensible LAN (VXLAN) e Rede de virtualização usando Generic Routing Encapsulation (NVGRE).


Os centros de dados que foram criados na era dos servidores legados de baixa densidade ou sistemas unblade média densidade terá de ser refeito para lidar com sistemas blade muito de alta densidade com a rede cada vez mais poderosos e armazenamento integrado.


A capacidade de consolidar todas as suas cargas de trabalho em maior densidade não significa nada se o seu centro de dados não pode repartir a potência necessária e refrigeração por rack.


Gestão de sistemas blade também é cada vez mais misturados com componentes de gerenciamento Hyperscale. A gestão de um único chassi não é suficiente; mesmo um único domínio de vários chassis é muito pequeno.


Multi-domínio, a gestão multi-chassis que integra diretamente com os sistemas Hyperscale como OpenStack, vCloud e Azure nas instalações permitirá lâminas para desafiar servidores OCP, fazendo nuvens Hyperscale algo que todos podem construir, e não apenas aqueles que podem pagar uma sala cheia de orquestração PhDs.


Para o futuro próximo, haverá vida no conceito lâmina. ®



A Oracle ignora controladores SAS / SATA em novos servidores chamativos


Arrays de armazenamento Flash Inteligente


A Oracle revelou dois novos servidores e um design proprietário que acaba com controladores SAS / SATA de formas a empresa diz que os faz realizar muito, muito, bem quando abastecido cheio de flash.


O básico: as duas novas bestas são chamados a X5-2 e X5-2L. Ambos são assuntos de dois soquetes e usar silício v3 da Intel Xeon E5-2600. A X5-2 é uma caixa de pizza e fator de forma 1U do X5-2L deixa empilhar horizontalmente ou verticalmente em chassis de 2U.







Tão longe, tão chato.


A parte interessante é algo a Oracle chama de "NVM Express" (NVMe) e diz que vai ".... melhorar a largura de banda para cada drive flash por mais de 2,5 vezes, em comparação com SSDs convencionais ... eliminando o controlador SAS / SATA a partir do caminho completamente. "A Oracle diz que está construído" ... quatro pistas PCIe diretamente ao próprio NVM Expresso SSD "e, portanto, pode" fornecer 32 Gb / s de largura de banda para cada unidade ".


Isso não vai funcionar para qualquer SSD velho: você precisa de um SSD da Oracle NVMe-pronto, dos quais quatro se encaixam em um convencional 2.5 no compartimento da unidade.


Look Ma! No SATA or SAS controller

Olha, Ma! Nenhum controlador SATA ou SAS!



NVMe requer um "kit de habilitação" que consome um slot PCIe. A nova tecnologia está instalado em quatro compartimentos de unidade, e ainda pode endereçar até 6,4 TB de armazenamento em cada compartimento.


De se dado ao trabalho de projetar tudo isso porque acredita que este arranjo proporciona o melhor desempenho possível para o seu próprio software Oracle. Os novos servidores são lançados como otimizado para aplicativos Oracle e virtualização.


Otimizações incluem algo chamado "banco de dados inteligente Flash Cache", que "continua recentemente acessados ​​dados quente no armazenamento flash, reduzindo a chance de que o banco de dados precisa buscar os dados de mídia mais lento magnéticos que podem ser conectado diretamente ou residente em um tecido de NAS / SAN. "


Também é possível adicionar SSDs NVMe a um pool de armazenamento híbrido ZFS, e tratar o flash especial Oracle como uma camada.


Esses novos servidores parecem ter a mesma intenção estratégica como muitas outras plataformas convergentes ou hypercovnerged recém-reveladas, ou seja, para fornecer uma plataforma otimizada para determinadas cargas de trabalho. Coisas tiradas da Oracle um passo adiante com NVMe, mas não um passo radical dado SAP é feito com sucesso um caso de hardware HANA especializada. Mas boxen HANA não exigem nada tão exótico como NVMe.


Há um caso a ser feito que o X5-2 e X5-2L, portanto, talvez se assemelham - respiração profunda agora - um minicomputador. Das sortes. Oracle em território semelhante com sua atual silício SPARC, que também é sem vergonha otimizado para o seu próprio software.


A roda gira. E mesmo um relógio parado está certo duas vezes por dia. ®



quinta-feira, 4 de dezembro de 2014

Uma breve história de servidores blade: Do Big Bang ao, er, "unblade '


Guia do Iniciante para certificados SSL


Hoje em dia nós tomamos servidores blade para concedido, mas um monte de peças móveis teve que vir juntos para nós para chegar onde estamos hoje. Traçando sua história pode nos ajudar a tomar melhores decisões sobre como as tecnologias de amanhã vai evoluir.


O desenvolvimento de VMEbus arquitetura em cerca de 1981 foi talvez o início de abordagens tecnológicas que evoluiriam em lâminas. VMEbus envolvido ligar várias placas em um backplane.







Esta abordagem foi construída em cima ao longo dos anos até que o Cubix-ERS (Cubix Reforçada Resource Subsystem) nasceu em 1995. O Cubix foi a primeira tentativa de criar um sistema que atendesse os mesmos objetivos de um sistema de lâmina moderno, mas não foi bem lá.


Os maiores problemas foram que as capacidades de troca a quente foram um pouco limitado e muitos recursos não eram capazes de ser compartilhada. Ele foi, em muitos aspectos mais próximos sistemas "unblade" de hoje, como a Supermicro FatTwin . Steven Foskett tem um ótimo artigo sobre ele aqui .


Padrões de fazer a diferença


Por fim, foi o desenvolvimento de várias normas - notadamente CompactPCI - que permitiu a adoção comercial de servidores com pás. A incorporação de tecnologias, como conexão a quente em CompactPCI permitiu que os sistemas de superar muitas das limitações que atormentaram sua Eurocard baseados VMEbus predecessor.


O barramento compactPCI inicial permitiu a criação de um computador baseado no chassis no qual os cartões individuais poderiam ser adicionados e removidos em muito da mesma maneira como com VMEbus mas usando a sinalização de PCI.


Você poderia pensar nessas cartas como não muito diferente de uma placa PCI em um servidor moderno, com o chassi é o servidor. A diferença era que as placas PCI foram projetados para sair sem muita agitação sobre.


Não foi até o PCIMG versão 2.16 da especificação CompactPCI que o servidor blade moderno surgiu corpo normas liberado. O painel traseiro compactPCI comutação de pacotes Ethernet permitido para ser usado para interligar os cartões no chassi.


Isto significou um servidor que controla um conjunto de cartões conectáveis ​​poderia evoluir para uma unidade de administrador supervisionar um conjunto de servidores de rede independentes.


Por algum tempo chassis blade simplesmente largou o PCI sinalização componente de CompactPCI (e seu sucessor, CompactPCI Express) totalmente, como a interconexão que mais importava era tipicamente Ethernet.


Em uma reviravolta interessante, como Ethernet é cada vez mais visto como um gargalo no data center impulsionado-flash de hoje, sinalização PCI Express podem experimentar um ressurgimento na próxima geração de ônibus chassi compacto PCI Express, para fazer uma A3Cube-like capacidade de comunicação inter-node .


O processo de desenvolvimento de normas foi longa, mas a maioria dos elementos que seriam na versão final eram conhecidos bem antes da sua ratificação oficial em Setembro de 2001.


Christopher Hipp e David Kirkeby aplicada para o servidor blade de patentes em 2000. Eles empurraram para fora o primeiro servidor blade dentro de sua empresa, tecnologias RLX, dentro de um mês do padrão CompactPCI sendo ratificada e foi concedida a patente em 2002.


RLX foi composta principalmente por ex-empregados da Compaq e foi comprada pela HP em 2005, apenas alguns anos após a HP comprou a Compaq. Quando RLX foi vendido, Hipp escreveu um artigo, capítulo na história da lâmina computação fechado .


A peça de Hipp vê os concorrentes para lâminas de RLX (a partir de 2005) ter sido HP, Compaq, Dell, IBM e Sun, a maioria dos que entrou no mercado em 2002 e 2003.


Blades têm o poder


Blades são frequentemente computadores poderosos em seu próprio direito, mas eles não começou dessa forma. As primeiras lâminas foram projetados para não ser tão diferente de Microserver ou physicalisation projetos hoje.


Com processadores fracos projetado mais para baixo consumo de energia e baixa geração de calor, o análogo mais próximo hoje seria produtos como da Supermicro MicroCloud ou da HP Moonshot .



Longe vão os dias em que as lâminas foram construídas a partir de componentes de laptops empurraram nos chassis compartilhado para reduzir os custos de energia



Lâminas de hoje geralmente contém dois processadores e memória RAM quanto puder fisicamente apto na caixa. Eles correm tier-1 cargas de trabalho empresariais e virtualização, e são grandes, poderosos e faminto por energia.


Longe vão os dias em que as lâminas foram construídos essencialmente a partir de componentes de laptops e empurraram nos chassis compartilhado para reduzir os custos de energia para uma única carga de trabalho tão baixo quanto eles iriam. Lâminas de hoje são, acima de tudo um exercício de densidade de computação. Da HP com refrigeração líquida Apollo 8000 sistema de lâmina pode empinar 80 kilowatts em um único rack.


Por sua vez isto gerou uma nova geração de micro-lâminas. O conceito original de "um monte de baixa potência, núcleos fracos" ainda tem os seus adeptos. Mas, em vez de socar laptops partes em um chassis compartilhado agora estamos enchendo o que equivale a smartphones em chassis ainda menor para alcançar os mesmos objetivos.



A computação quântica é tão poderoso que leva dois anos para entender o que aconteceu


Guia do Iniciante para certificados SSL


Em 2012 um grupo de físicos quânticos chineses tirou um sucesso aclamado em factoring à base de quantum, a execução de um algoritmo quântico adiabatic para o número 143, na altura que se acredita ser o maior número de sempre consignado em uma computação quântica.


Agora parece que o papel, aqui , poderia ter esquecido alguma coisa: em um novo papel no Arxiv, Nikesh Dattani e Nathaniel Bryans (Universidade de Kyoto e da Universidade de Calgary, respectivamente, acreditam que a computação aconteceu também fatorar os números 3.599, 11.663 e 56.153.







A diferença entre os dois: o trabalho original chinês aconteceu ao fator não apenas um número (143), mas, na verdade toda uma classe de números dos quais 143 é membro.


Enquanto ainda 56.153 é um número pequeno se comparado com o tipo de factorisation previsto por fãs de o algoritmo de Shor (e temido pelos fantasmas), foi realizado utilizando apenas quatro qubits - o que significa que o trabalho pode ser reproduzida e, portanto, validado em um computador clássico sem esperando um tempo razoável para testar o trabalho.


Vamos começar com o trabalho original. Apresenta-se uma demonstração de que usado cristal líquido de ressonância magnética nuclear - RMN - como o computador quântico, operando a 300 Kelvin com quatro qubits representados como spins nucleares.


(A partir daí, Vulture do Sul tem a confessar ser espancado por a matemática do primeiro trabalho, mas conclui que "esta é a primeira realização de algoritmos quânticos para fatorar um número maior do que 100").


Os autores mais recentes fazer essa afirmação surpreendente: uma vez que as fatorações de quatro qubits podem ser executadas em computadores clássicos, eles poderiam tentar replicá-lo, e é aí que a surpresa vem em: 143, o número originalmente demonstrado, tem uma espécie de "colisão" com os outros números:


"Estes têm precisamente a mesma forma que as equações na fatoração de 143, exceto com diferentes variáveis. Portanto, o Hamiltoniano também é o mesmo, exceto os qubits ... representam posições diferentes nas cadeias binárias correspondentes ... Outros números que nós descobrimos reduzir as mesmas equações incluem 3.599, 11.663 e 56.153 ".


Mesmo melhor, do ponto de vista dos pesquisadores, é que isso representa um salto considerável em relação às tentativas de implementar o algoritmo de Shor (a primeira proposta de utilização de um computador quântico para factorisation).


Até agora, cada tiro em usar um computador quântico para resolver o algoritmo de Shor só poderia ser testado se o pesquisador já sabia a resposta, embora esta abordagem minimização tem factorised 56.153 sem ser capaz de espreitar na parte de trás do livro.


Que leva o mundo a uma distância considerável no sentido de ser capaz de demonstrar o tipo de à base de quantum factorisation que faria criptografia atual eventualmente obsoleta. ®



quarta-feira, 3 de dezembro de 2014

Huawei e Inspur Eletrônica desafio Q3 status do servidor quo


Top 5 razões para implantar VMware com Tegile


O status quo servidor foi abalada no terceiro trimestre de 2014, com os invasores asiáticos enxugando o crescimento e fazer sentir a sua presença.


Huawei e Inspur Eletrônica são esperados para ser inexistente nas receitas, mas deve crescer mais rápido em termos de produtos embarcados, de acordo com as estimativas mais recentes dados do Gartner.







Hewlett-Packard permaneceu cão superior nas receitas e expedição, mas viu perdas em toda a linha - quase pegando IBM, que recentemente vendeu seu servidor de negócios para a Lenovo.


No geral, vendas de servidores em todo o mundo cresceu um por cento, em termos homólogos, para 2.53bn unidades.


Para o terceiro trimestre de 2014, a HP é esperado para fazer as vendas de servidores no valor de US $ 3,3 bilhões, ou 26,9 por cento do mercado, abaixo de 0,9 por cento.


Cisco deve crescer mais rápido, no raking $ 783bn, ou 6,2 por cento do mercado, até 30,8 por cento.


Vendas da IBM entrará em US $ 2.32bn, 18 por cento do mercado, uma diminuição de 17 por cento. Dell (atrás IBM mas à frente da Cisco) apresentará um relatório de vendas de $ 783m, alta de 9,6 por cento.


Mas, quando se trata números de servidores realmente mudou, que é onde os novatos estão limpando.


Gartner acredita HP irá mover 569.426 unidades para o período, uma queda de 14,9 por cento. Apenas IBM é pior: 171.419 unidades, queda de 15 por cento, para 6,8 por cento do total.


Dell é mais ou menos estático, crescendo apenas 1,3 por cento para 19,4 por cento do mercado, ou 490.752 unidades.


No entanto, espera-se que Inspur foguete - crescimento de 81,9 por cento, com 91.244 servidores vendidos - tendo 3,6 por cento do mercado. Enquanto isso, a Huawei é esperado um crescimento de 34,3 por cento, com 93.421 servidores vendidos, levando-a para 3,7 por cento do mercado no trimestre. ®



segunda-feira, 1 de dezembro de 2014

CommBank lança AU $ 5 MEELLION na UNSW laboratório de informática quântica


Guia do Iniciante para certificados SSL


Da Austrália Commonwealth Bank decidiu fazer um AU 5000 mil dólares de doação para a Universidade do Centro de Nova Gales do Sul "para Computação Quântica e da Comunicação.


O dinheiro é destinado a ajudar dois projetos, ou seja, um esforço para "demonstrar emaranhamento em uma arquitetura de computação quântica baseada em silício escalável e, em seguida, para o transporte de forma coerente informação quântica para criar 'qubits voadores' dentro do computador."







CommBank CIO David Whiteing diz que a doação está em sintonia com o apoio do Banco para a indústria australiana, sugere tentativas globais para desenvolver um computador quântico de trabalho são semelhantes aos da corrida espacial e observa que uma máquina quântica iria ter aplicações úteis em indústrias, incluindo finanças.


Os computadores quânticos são esperados para ser ordens de magnitude mais rápidas do que as máquinas de hoje, daí a atração para o Banco e outros possíveis usuários.


Mas porque eles também são conceitualmente um pouco mais complexo, porque em vez da certeza de silício de bit ser zero ou um, um bit quântico - ou Qubit - existe em todos os estados possíveis de uma vez.


Se o Banco Commonwealth, eventualmente, é executado um computador quântico, por isso, vai gravar o seu saldo bancário como todos os valores entre US $ 0,00 e seu saldo real. Tudo de uma vez.


Pense nisso antes de ponderar se os bancos de investimento em computadores quânticos é uma boa idéia. ®



Papai XML Tim Bray aparece a cabeça na nuvem Amazon


Controle remoto para desktops virtualizados


XML co-criador Tim Bray juntou Amazon e estará trabalhando em nuvem Jeff Bezos '.


De acordo com Bray , ele está "de volta nas trincheiras de engenharia em tempo integral" trabalhando em AWS.







Bray anunciou a notícia em seu blog. Enquanto ele não revelou o que ele vai estar trabalhando em baixo na sala de máquinas da AWS, ele é algo de um polímata língua, sua fluência abrangendo Java, Erlang, Lisp, Clojure and Go - para listar apenas cinco.


Ele é um crente em padrões abertos e uma web aberta.


Ele soa como Bray estará trabalhando com uma equipe de expansão AWS em sua casa na cidade de Vancouver, no Canadá.


No passado Bray foi sobre o registro de comentar sobre o estado da computação e, ao fazê-lo, áreas de destaque que ele sente precisam de trabalho.


Computação do lado do servidor está em um lugar feliz e vai continuar a melhorar, mas ele é chamado de computação um "client-side bagunça "para uma variedade de razões, enquanto recordando, JavaScript, CSS e APIs para críticas em browsers.


Bray tinha passado quatro anos na Google, trabalhando como um desenvolvedor advogado especializado em Android e identidade até que ele deixou em março deste ano.


A razão de Bray para sair e depois de integrar a equipe AWS da Amazon parece estar baseada em torno de estilo de vida - que desejam permanecer trabalhando em Vancouver, em vez de juntar-se à nave-mãe Google na sede corporativa da empresa em Mountain View, Califórnia.


Bray é talvez melhor conhecido por seu papel no desenvolvimento de linguagem de marcação extensível (XML), um formato para marcar documentos de uma forma humanista e legível por máquina.


Concluído em 1998 e ratificada como padrão Consórcio World Wide Web (W3C), XML feita documentos universalmente legíveis, independentemente da plataforma.


Bray correu sua própria empresa, Textuality, e foi diretor de tecnologias da web na antiga Sun Microsystems a partir de 2004 até 2010, quando a Oracle comprou a empresa. ®



terça-feira, 25 de novembro de 2014

HP biz dividir mais recente: "Eu estou animado! ' diz CEO, com os investidores trocam olhares nervosos


Controle remoto seguro para desktops convencionais e virtuais


HP realizada tão bem quanto os analistas esperavam para o quarto trimestre de seu ano fiscal de 2014, que é a de dizer que foi mais um trimestre difícil que colocar a tampa sobre o que tem sido um ano tentando para o titan manchada tecnologia.


As receitas do trimestre caíram 2,5 por cento em relação ao período do ano passado, de US $ 28.4bn. Essa soma perdeu expectativas de Wall Street ligeiramente, e trouxe haul total da HP para o ano fiscal de 2014 e $ 111.5bn, que era plana a partir do ano anterior.







Pelo lado positivo, a empresa reportou ganhos totais antes de impostos de US $ 3,2 bilhões no trimestre e US $ 11.3bn para o ano, sendo que ambos foram até quase 5 por cento ao ano.


Que se traduziu em ganhos de US $ 1,06 por ação diluída no trimestre, o que foi bem em linha com as melhores hipóteses de Wall Street. O salário para o ano cheio totalizou 3,74 dólar por ação diluída, que subiu 5 por cento a partir de 2013.


Tudo poderia ter sido pior, e deixe-o CEO Meg Whitman para transformar isso em algo positivo. "Estou animado para dizer que turnaround da HP continua no caminho certo", disse Whitman em um comunicado anunciando os resultados.


Um olhar mais atento para os números, no entanto, revela uma empresa que ainda não está disparando em todos os cilindros, com a maioria de suas divisões de negócios que relatam o declínio das receitas, em vez de crescimento.


PCs para o resgate ...?


Um ponto brilhante no portfólio da HP foi a divisão de Sistemas Pessoais - que, sim, faz PCs. Apesar suavidade em curso no mercado de PC, as receitas do grupo para o quarto trimestre subiram 4 por cento, para US $ 8.9bn. Além do mais, os lucros antes de impostos subiram um impressionante sonoridade de 34 por cento.


Mas as margens não são grandes no negócio de hardware do computador. Apesar de Sistemas Pessoais representaram 31,5 por cento da receita da HP no Q4, só contribuiu 11 por cento da sua receita líquida, de R $ 355M.


Enquanto isso, sua unidade irmã, Printing, estava em um pouco de uma queda. Suas receitas caíram 5 por cento em relação ao trimestre do ano anterior, para US $ 5.7bn, enquanto os seus lucros líquidos foram de apenas US $ 1.04bn, um declínio de 3,8 por cento ano-a-ano.


O resultado foi que os Sistemas Pessoais e impressão combinada arrecadou US $ 14.7bn para os três meses encerrados em 31 de outubro, que era plana do mesmo período um ano atrás. E os seus lucros antes de impostos foram de US $ 1,4 bilhão, o que foi um ganho de 3,6 por cento monótona.


Olhando para todo o ano, os resultados não foram muito melhores. Combinadas, Sistemas de pessoal e impressão viu as vendas de US $ 57.3bn, que era acima de 2 por cento sobre 2013. Seus ganhos líquidos mostrou melhora, porém, subindo 11 por cento, para US $ 5,5 bilhões.


Contagem regressiva para splitsville


É importante olhar para essas duas divisões em conjunto, e não apenas porque HP tem tradicionalmente relatado montantes fixos para eles. Sistemas de pessoal e impressão são os dois grupos que serão cindidos para formar HP Inc. sob plano radical de Whitman para dividir a empresa em duas, com Whitman assumindo o papel de CEO da nova empresa.


Esse plano vai ver o resto dos negócios da HP continuar sob a égide da HP Enterprise. E aqui é onde fica preocupante, porque todas as quatro divisões que formarão essa empresa - incluindo o Grupo de Empresas, Enterprise Services, Software e Serviços Financeiros HP - viu sua receita encolher contra o que eles eram, em 2013, tanto para o quarto trimestre e para o ano inteiro.


Aglomeradas em conjunto, estes quatro divisões trazidas receita de US $ 14.8bn para Q4 e US $ 57.6bn para o ano, que era uma redução de 4,7 por cento e 3,6 por cento, respectivamente, em relação a 2013. Se HP Enterprise fosse uma empresa independente já, teria sido um início pouco auspicioso.


Mas HP Enterprise não existe como entidade própria, no entanto, e ele vai ficar um bom tempo ainda antes que ele faz. Não se espera que a divisão para ocorrer até o final do HP do fiscal de 2015, que vai encerrar outubro próximo.


Ainda assim, os investidores não tinham certeza do que fazer com os resultados mais recentes da HP, que mostram uma empresa ainda lutando para voltar em seus pés depois de anos de erros de gestão. Preço das ações da HP subiram sempre muito sobre a notícia, em seguida, começou a afundar novamente na negociação after-hours. ®



quinta-feira, 20 de novembro de 2014

Sem fins lucrativos ou de caridade? Ganhe um makeover centro de dados de Nutanix


Escolhendo uma nuvem de hospedagem parceiro com confiança


Promo Nutanix, possivelmente maior de inicialização do mundo, está oferecendo US $ 500.000 em infra-estrutura de centro de dados para uma organização sem fins lucrativos ou de caridade.


Qualquer um pode indicar sua causa digna favorito para a Wish Web escala.







Mas começar a se mexer como nomeações fechar esta semana!


A organização sem fins lucrativos escolhida pela comunidade de TI receberá um pacote de reforma do centro de dados web escala de 48 horas, que será totalmente implementado por Nutanix. O prêmio inclui três nós NX-3050, três Licenças Ultimate Software, três anos de apoio Nutanix Platinum Plus, e um serviço de instalação de dois dias no local.


As regras


A ser celebrado Desejo Web escala, as organizações devem:



  • Seja uma organização sem fins lucrativos, organização não-partidária com sede nos Estados Unidos, Canadá, Austrália, Nova Zelândia e Reino Unido

  • Ter um centro de dados trabalhando atualmente que poderiam se beneficiar de infraestrutura convergente web escala

  • Ser capaz de completar e atender aos critérios de avaliação ambiental


O período de candidaturas estarão abertas on-line até sexta-feira 21 de Novembro.


As três organizações finais serão apresentados em um evento virtual na quarta-feira, 10 de Dezembro, onde o público terá a oportunidade de votar para determinar o destinatário do Grande Prêmio.


Para mais informações sobre Desejo Web escala e de nomear sua organização favorito sem fins lucrativos, visite www.webscalewish.com . ®



quarta-feira, 19 de novembro de 2014

Smartphone chip de campeão Qualcomm diz que está armado para a guerra de servidor


Escolhendo uma nuvem de hospedagem parceiro com confiança


Pesado de chips móveis Qualcomm confirmou que planeja fazer uma corrida no mercado de servidores, embora os detalhes permanecem escassas.


CEO Steve Mollenkopf Qualcomm revelou que a empresa está trabalhando em chips para o centro de dados durante uma reunião com analistas financeiros em Nova York na quarta-feira, sem dar quaisquer detalhes específicos do produto.







Presumivelmente, isso significa que a Qualcomm vai participar de várias outras empresas no desenvolvimento de chips baseados em 64 bits ARMv8-A arquitetura ARM Holdings, incluindo AMD, AppliedMicro e Cavium, entre outros.


Qualcomm já é a líder mundial em chips ARM para smartphones, com uma quota de receitas de 58 por cento, segundo a empresa de pesquisa de mercado Strategy Analytics. Ele foi tão bem sucedido, de fato, que o governo chinês acusou-o de ter um monopólio na região, apesar da concorrência local, dos gostos de Allwinner, MediaTek e Rockchip.


O mercado de chips ARM para servidores, por outro lado, está apenas emergindo. Pioneiros Calxeda fracassou quando operam fornecedores de sistemas esquivou de seus projetos de 32 bits. Mas com Red Hat e talvez até mesmo a Microsoft agora a bordo com ARMv8-A, os fabricantes de chips ARM começaram de olho no mercado de data center com vigor renovado.


AppliedMicro já tem um chip ARM de 64 bits que tem feito o seu caminho em servidores HP ProLiant. Enquanto isso, a AMD, que tem chips baseados na arquitetura x86-64 da Intel previamente construída, começou divulgando seu "64-bit Seattle "processador ARM como uma alternativa para os dados de alta densidade que centraliza prêmio baixo consumo de energia sobre o desempenho bruto.


Qualcomm não tem experiência da AMD em processadores para servidores. Mas o verdadeiro truque será convencer os clientes que o braço de tecnologia oferece melhor valor para os servidores que outras arquiteturas de processadores, incluindo x86-64, OpenPower e Sparc.


Durante a apresentação de quarta-feira, Mollenkopf desempenhou um vídeo em que Jay Parikh, vice-presidente do Facebook de engenharia de infra-estrutura, disse que os servidores baseados no Qualcomm daria a empresa "a capacidade de repensar a maneira que nós construímos certas partes da nossa infra-estrutura", embora ele didn ' t comprometer com qualquer compra.


Outros compradores de alto volume, no entanto, continuam céticos de ARM no centro de dados. Durante uma palestra na re AWS: Invente conferência em Las Vegas na semana passada, por exemplo, a Amazon VP e engenheiro distinto James Hamilton disse ao The Reg que, embora ele avalia regularmente tecnologia da ARM, ele sente que é "não muito movendo rápido o suficiente", quando comparado com Intel.


Mollenkopf não disse na quarta-feira, quando ele esperava Qualcomm para trazer um chip de servidor para o mercado, e frisou que levaria tempo para a empresa a construir este novo negócio. Ele disse, no entanto, que ele acreditava que o mercado de processadores para servidores ARM pode valer US $ 15 bilhões até 2020, e que a Qualcomm planeja capturar um pedaço dele. ®



CHAMAR O commish! Irlanda arrastado para Microsoft disputa sobre alegada dados tráfico de drogas


Arrays de armazenamento Flash Inteligente


Sexta-feira passada, a Apple, Oracle, IBM, HP e outros figurões nuvem (representados por DigitalEurope) pediu à UE para ajudar a impedir que os EUA apreensão e-mails armazenados pela Microsoft na Irlanda. Agora a própria Irlanda tem feito o mesmo.


Na terça-feira à noite, as autoridades irlandesas solicitou formalmente que a Comissão Europeia analisar se as leis de proteção de dados da UE tinha sido quebrado pelo governo dos EUA em sua tentativa de forçar a filial irlandesa da Microsoft para entregar informações.







Um mandado foi emitido em os EUA em dezembro último encomendar Microsoft para entregar e-mails supostamente ligados a um caso de tráfico de drogas que foram armazenados em servidores na Irlanda. A gigante de tecnologia recorreu, mas juiz distrital dos EUA Loretta Preska decidiu em julho que a localização dos dados era irrelevante desde que a Microsoft tinha "controle" sobre ele.


Microsoft argumenta que os dados da Irlanda não cai diretamente sob a jurisdição dos EUA, e que, se os EUA querem acesso a ele, ele tinha a opção de trabalhar em conjunto com as autoridades irlandesas, utilizando o Tratado de Assistência Legal Mútua (MLAT).


Parece Irlanda também acha que o os EUA pisou em seus dedos de soberania.


Em os EUA, os terceiros com conhecimento especializado ou insight pode apresentar um parecer ao tribunal, conhecido como "amicus curiae", literalmente um "amigo da corte", oferecendo informação que não tenha sido solicitado por qualquer das partes.


Algumas empresas internacionais já o fizeram, incluindo a Verizon. O governo irlandês pediu à Commish a fazer o mesmo.


Diretor de políticas da Microsoft da UE em Bruxelas, Mark Lange, disse El Reg no mês passado: "Estamos lutando os federais Precisamos de clareza sobre estas questões Queremos ser capazes de dizer aos nossos clientes com a certeza de que os procedimentos legais adequados será seguido no.. caso de qualquer autoridade querendo acesso aos seus dados. "


Ele disse que a situação atual com os EUA exigindo acesso aos dados armazenados em outra jurisdição foi "distorcido".


Microsoft tem até meados de dezembro para apresentar seus mais recentes trabalhos de recurso. ®



terça-feira, 18 de novembro de 2014

SAN quadrilha no salto Nimble em piscina Fibre Channel, mas quão grande será o splash ser?


Controle remoto seguro para desktops convencionais e virtuais


Tornando-se um pouco mais ágil no mercado SAN, Nimble armazenamento é a adição de suporte Fibre Channel para seus painéis CS-série de flash híbrido / disco.


Até agora, estes produtos têm apoiado o acesso a dados sobre o bloco só iSCSI. Adicionando Fibre Channel vai, a empresa acredita, triplicar o seu mercado endereçável.







A gama de produtos foi atualizado em agosto, com mais rápido CPUs Sandy Bridge, ea empresa já ampliou a capacidade de suas matrizes, com mais prateleiras de expansão, disco de maior capacidade, e drives de estado sólido. Não pode ser de até 160TB de piscada por cluster e escalas de capacidade máxima de matéria-1.6PB passado.


16Gbit / s, chamado gen 5, os produtos Fibre Channel da Brocade, Emulex e QLogic são suportados. Tim Stammers, analista sênior para 451Research, disse em uma citação de apoio enlatados que o apoio FC aumentou "a flexibilidade eo apelo de [Nimble de] produtos para grandes empresas e provedores de serviços - para quem Fibre Channel é a forma dominante e de crescimento mais rápido de armazenamento networking. "


Qlogic_2600_HBA

QLogic 2600 HBA



Ele aumenta a superfície de ataque mercado SAN aberta a Nimble e amplia seu ataque sobre os fornecedores de matriz SAN que foram capazes de se esconder atrás de uma cerca Fibre Channel concorrentes. Não mais.


Não FCOE, não iSCSI, mas boa FC físico de idade. Quem teria pensado que um ou dois anos atrás? Apoio Fibre Channel Nimble já está disponível. ®



segunda-feira, 17 de novembro de 2014

Bod HPC SGI racks de cérebros UV, chega a 30 MEEELLION IOPS


Top 5 razões para implantar VMware com Tegile


Como é que 30 milhões de IOPS de um servidor grab 32-socket você?


Aprendemos SGI tomou seu servidor 300H UV, usado em sua "UV para SAP HANA" do produto, e impulsionou o seu desempenho com 64 DC Intel P3700 SSDs , que usam a interface NVMe.







A equipe que trabalha nesta inclui adquiridos da SGI Starboard armazenamento engenheiros. Starboard estava desenvolvendo sistemas de armazenamento híbrido arquivo / bloco unificado antes que ele caiu e foi esvaziado pela empresa HPC.


Há também um novo sistema de UV 30. SGI agora tem quatro "Ultraviolet" produtos scale-up UV servidor:



  1. UV 2000 - uma até 256 socket, 2048 núcleo do sistema com, memória cache global coerente compartilhou uma imagem de sistema único em. Ele usa a interconexão NUMAlink.

  2. UV 300 - com base na 300H UV tal como utilizado no SGI UV para SAP HANA produto. É um sistema único nó baseado em Xeon E7 8890 v2 processadores 15-core, escalável até 32 soquetes (480 núcleos) e 24 TB de memória compartilhada coerente usando DIMMs de 32GB.

  3. UV 30EX - um servidor de quatro soquetes fornecendo até 3 TB de memória em poder de computação. Atualizável para o UV300.

  4. UV 20 - um servidor de quatro soquetes, 48-core usando QuickPath da Intel.


USGI UV 2000

SGI UV 2000



O 30EX UV e 300 sistemas são projetados para análise de dados complexos, visualização e streaming em tempo real. O UV 30 pode substituir o sistema existente UV 20.


O UV 300 desenvolvido executa um único SUSE ou Red Hat Linux instância e tem a capacidade de adicionar Xeon Phi co-processadores ou aceleradores de GPU da NVIDIA. Ele usa tecnologia de sétima geração NUMAlink ASIC para interligar os componentes de memória.


Estamos informados de que pode alcançar perto de 30 milhões de IOPS (4K leituras aleatórias) e 200 GB / s de largura de banda (128K leituras aleatórias). Estamos informados de que há um pouco de trapaça envolvendo otimizações NUMA. Sob o capô, isso aumenta o desempenho a partir de um nível de base de 20 milhões de IOPS / 150GB / s.


Os cartões NVMe tem uma tecnologia múltipla fila. Soquetes de processador pode enviar solicitações de I / O e, em seguida, eo processo interrompe de forma independente. Isso exigiu algum trabalho motorista.


Uma vertente de pensamento entre os engenheiros que trabalham com isso é, entendemos, para ter um armazenamento de backup, talvez usando unidades de disco com telhas em JBODs, empurrando para fora 15-20GB / seg de acesso linear em toda a JBODs, proporcionando assim um flash híbrido / disco sistema com a velocidade perto-flash habitual no próximo disco-preços vantagem. Tal sistema híbrido pode ser relativamente fácil de implementar, pois não há interruptores, matrizes ou HBAs - exceto para o armazenamento de backup (tier 2).


Aqui, novamente, vemos a tecnologia estilo de computação de alto desempenho numa posição favorável para a empresa grande de mineração de dados e de análise. A capacidade de mastigar por vastos conjuntos de dados em tempo real aumentaria a produtividade de cientistas de dados e permitir a análise em tempo real.


Nosso palpite é que se SGI oferece uma tal UV 300 produtos melhorada, que vai custar muito mais do que US $ 100.000. Você deve ser capaz de ver este conceito 300 UV no show de super computação - SC14 - em Nova Orleans nesta semana.


O UV 300 e UV 30EX estão disponíveis para encomenda e começar a ser comercializado antes do final do ano. ®