quarta-feira, 25 de setembro de 2013

HP libera OneView ferramenta admin on preguiçosos, os servidores não cooperativos


5 maneiras para reduzir a latência da rede de publicidade


Administradores de TI, polir as habilidades de jogo on-line porque a HP está chegando para o seu trabalho. Novamente.


A nova plataforma de gerenciamento de OneView para BladeSystems HP Proliant, e Geração de 8 e 7 servidores foi anunciado pela HP na quarta-feira com afirmações ousadas dos tempos de provisionamento reduzido drasticamente e gerenciamento mais fácil do que nunca.







O software tem sido nas obras por cerca de quatro anos e muitas das suas características são baseados em demandas de cerca de 30 clientes que ajudaram a desenvolvê-lo, a HP disse.


Com o tempo, OneView irá "consumir ferramentas de legado, como Virtual Connect Enterprise Management, Insight Control, Systems Insight Manager," HP diretor de convergência de sistemas de gestão Jeff Carlat disse El Reg. "O problema que temos no mundo, com ferramentas de legado é que eles gerenciar dispositivos, contra fazer o que os administradores precisam fazer e permitir que as tarefas."


Estamos quase a certeza de que o gerenciamento de dispositivos é exatamente o que você quer um pedaço de gestão para fazer, mas a HP pegou o vírus de se vestir software em interfaces de usuário fáceis de usar e adicionando características sociais, de modo aparentemente o caminho do futuro é uma mistura de templating e análises ao vivo, com uma gestão típico também.


OneView usa "análises sem agente" para puxar informações de seus servidores. O monitoramento funciona através do lights-out (iLO4) software integrado nos servidores ProLiant Gen8, que encaminha os servidores traps SNMP, sem quaisquer agentes instalados no sistema operacional.


OneView também pode VMs prestação e software para os servidores, e inclui uma tecnologia para permitir que os administradores pegar informações em servidores ou eventos específicos através de um motor de busca Google, como que faz sugestões conforme você digita.


"Você pode, opcionalmente, instalar o Service Management Agentless no OS para enviar dados específicos do sistema operacional adicionais para dentro da OIT, mas HP OneView só se comunica com o iLO4 através da rede de gestão, nunca diretamente para o OS" Bryan Jacquot, as tecnologias principais para Convergente da HP infra-estrutura, disse El Reg via e-mail.


A empresa também criou uma tecnologia de mapeamento chamado MapView que permite que você faça para infra-estrutura no local que Madeira Nuvem faz para Amazon Web Services: mapear o seu equipamento e as conexões entre ele, com um pouco de luz controlar possíveis.


OneView tem uma tecnologia de busca chamado SmartSearch construído em torno Apache Lucene para ajudar os administradores procurar rapidamente para obter informações sobre a sua frota servidor. Assim como o Google, a busca OneView vai oferecer sugestões como o tipo de admins e HP afirma que vai ser capaz de uma latência de 200ms.


Não seria um novo ", orientada para o consumidor," a tecnologia sem um componente social, para que a HP acrescentou em um fórum onde os administradores podem se unir e compartilhar dicas e truques com o outro sobre a melhor forma de lidar com problemas e obter o máximo de suas artes. A diferença entre esta e as inumeráveis ​​outras maneiras de obter essa informação on-line, tais como StackOverflow, é a integração direta de modelos de provisionamento enviados e ajudá-guias para o fórum.


"Há um fórum de TI robusta", diz Carlat. Os usuários serão capazes de acessar SDKs, HP-desenvolvido kits PowerShell, modelos e tal.


O plano final é para OneView para ser usado por TI Bods ao gin-se frotas de servidores em uma pressa, compartilhar esses modelos de provisionamento dentro de sua organização, e - se for o caso - até em fórum da HP também. "Estamos construindo e promovendo um ecossistema em torno deste para que as empresas integrem nas suas cargas de trabalho e integração com ferramentas de terceiros e estamos mesmo a usá-lo internamente para melhorar a integração com o software HP", diz Carlat.


Preços para uma única licença OneView para um ProLiant começa em US $ 799 e varia até 1249 dólares para uma licença autônoma, incluindo a tecnologia iLO Avançado. ®



quarta-feira, 18 de setembro de 2013

A Oracle metades custo da plataforma de middleware Exalogic


Relatório livre ESG: gerenciamento de dados sem emenda com Avere FXT


A Oracle tem metade do custo de seu Software Exalogic Elastic Cloud (EECS), uma oferta que diz é "o único conjunto de componentes de software, ferramentas e documentação necessária para fazer o Exalogic Elastic Cloud Hardware funcional e utilizável como uma plataforma para Fusion Middleware da Oracle e aplicativos de negócios. "


Anunciou em um post no blog , o corte de preço significa "preço EECS foi reduzido de US $ US20k/processor para US $ US10k/processor".







Spokesblokes australianos da Oracle, disse ao The Register a empresa é "incapaz de fazer comentário sobre as mudanças de preços".


Vamos, portanto, tentar preencher esse vácuo.


Os resultados da Oracle, divulgados hoje oferecido terrível notícia sobre o estado de sua divisão de hardware, mesmo que o grupo de sistemas de engenharia fez muito bem. Mas a Oracle enfrenta forte concorrência nesse espaço. Os gostos de Greenplum grupo oferecer uma alternativa de EMC e EMC-spawn VCE também oferece-in-a-box pilha de produtos que tem apenas atualizada .


Depois, há os gostos de Scale Computing, que recentemente aumentou sua oferta nublados integrados. Todos aqueles que ainda precisam de um sistema operacional e, por vezes, uma camada de middleware para obter apps instalado e funcionando, por isso, talvez a Oracle está subcotação eles.


Dificilmente alguém deixa cair o preço de um produto, a fim de vender menos do que, por isso, talvez, a Oracle quer empurrar mais Exadatas fora da porta, em um esforço para estancar o fluxo de tinta vermelha de suas operações globais de hardware. Pode cair o preço, portanto, ser uma maneira de reduzir o custo total de um Oracle nuvem, o melhor para afastar concorrentes. Ou eram clientes interessados ​​no kit, mas se recusando a custo de licenciamento para o que é essencialmente um sistema operacional em um momento tão software muitas vezes pode ser tido para o baixo, baixo, preço de nada?


Talvez Big Red irá revelar o seu raciocínio para o corte em OpenWorld na próxima semana. A 's Register San Francisco hacks será em todo o caso, portanto, não toque nesse seletor! ®



sexta-feira, 13 de setembro de 2013

Corte servidor lidera a pilha para um novo desafio


Incremente sua infra-estrutura


Foi cinco anos desde o dia em que comecei a trabalhar no The Register, e pela primeira vez, só que uma vez lá, vou usar o próprio nome da publicação que eu e minha família apoiou, e dar-lhe o respeito que merece .


Eu vim para El Reg como a Grande Recessão foi abrindo a sua goela escancarada, e foi oferecido um lugar para trabalhar e crescer e aprender - e para ser bem pago pelo privilégio e deu grande autonomia para arrancar. Na minha experiência como editor na área de TI, eu nunca voluntariamente deixou um emprego. Eu costumo ficar por aqui até que a empresa vai à falência ou foram adquiridas ou algo mais dramático acontece, o que me deixa um pouco nervoso, se você quiser saber a verdade.







Então, de certa forma, El Reg deve ser grata por ter sido oferecido um desafio diferente e emocionante neste momento para tornar-se editor-chefe de uma empresa de tecnologia publicação dos povos que juntos HPCwire . Há coisas a-pé nos maiores data centers do mundo. Assim como supercomputadores foram precursores das mudanças tectônicas na área de TI em anos passados, os técnicos nas maiores empresas do mundo e os vendedores que os servem (ou não à sua grande desgraça) estão causando deslocamentos maciços de novo no setor de TI. E isso é mais do que hardware, tão difícil como é para você ouvir isso de mim. O que é intrigante para mim é obter uma visualização em 3D de como todos os elementos do sistema - hardware, software, pessoas, problemas e dinheiro - se reúnem.


Eu não tinha pensando em tomar um trabalho em El Reg cinco anos, quando Ashlee Vance deixou de ir para o New York Times, mas parecia uma boa ideia, dado o estado lastimável da economia. (Lehman Brothers faliu essa semana.) E eu não planejei para este passo na carreira, também. Uma oportunidade veio no momento em que eu estava me sentindo inquieto para a mudança, e eu peguei. Surpreendi a mim mesmo, para ser honesto. E eu confio que.


Para todos os meus colegas de trabalho Reg longo dos anos, o que posso dizer? Aqueles de vocês que tiveram de lutar com minhas frases bestiais, tudo o que posso dizer é que você não está sozinho e seu sofrimento será recompensado. (Eu tenho um monte de pintas para comprar ...) Os caseiros fruitcakes de Natal do escritório estão agora a tradição, por isso não tenha medo, eles vão estar no post, apenas um pouco de tempo para o deboche da festa anual de férias, como de costume, independentemente de onde eu recebo um salário. Essas são sobre a família, e El Reg sempre me tratou como tal. Então, pegue o bolo.


Segurança confortável em servidores, switches, storage e software. . . .

Segurança confortável em servidores, switches, storage e software ...



E para os leitores El Reg, que felizmente pegar todos os erros na lógica, cada erro de digitação, e cada erro, eu só posso dizer que o Inglês não é a minha primeira língua eo problema é que eu não sei o que a minha língua materna é suposto ser . Eu mencionei que tenho um toque de dislexia, também? Começando a fazer sentido agora? Eu não posso comprar os muitos milhões de uma pinta, mas vou fazê-lo neste negócio. Se você vem para Nova York, eu tenho algum homebrew que eu estou disposto a compartilhar. Você terá que fazer o seu próprio bolo de frutas.


Ele tem sido a minha grande alegria de ser seus sistemas de cortar todos esses anos, e expandir-se em outras áreas. Agradeço a todos pela paciência e estamos ansiosos para vê-lo lá fora em breve em outro lugar no Intertubes. (AManFromMars, por favor, entrar e jogar algumas vezes no meu novo show. Cada corte precisa de um comentarista como você para mantê-lo saudável. Ou o que é isso.)


Se você quiser falar comigo, mande um e-mail para tpm (at) guildcompanies.net. ®



O que está nele para os compradores de servidores, agora que Xeon E5-2600 v2 da Intel é aqui?


Incremente sua infra-estrutura


Outono está a caminho e Intel lançou os "Ivy Bridge-EP" E5-2600 v2 Xeon processadores para servidores a tempo de entrar na fila por um pedaço do restante 2013 orçamento de TI nos centros do mundo de dados. Então, como é que estes novos processadores vão empilhar até os "Sandy Bridge-EP" Xeon E5-2600 fichas v1 existentes, e que os clientes podem esperar de fabricantes de servidores que estão tentando ganhar o negócio em um apartamento para o mercado para baixo?


Bem, em primeiro lugar, haverá abundância de disputas e embates.







Os Xeon E5-2600 processadores v2 é suposto ser um "tock" encolher do processo de fabricação, com muito pouca alteração no projeto do processador. Mas, com três variantes diferentes do chip - com seis, dez ou doze núcleos em diferentes layouts de morrer - isso é muito mais um processo de "tock" e um "tick" parcial, com a adição de núcleos em relação ao monolítico de oito núcleos Sandy Bridge-EP.


A boa notícia é que as três variantes do Xeon E5-2600 v2 ficha fichas nas mesmas bases, como os processadores v2 anteriores e têm os mesmos envelopes térmicos, e isso significa que fabricantes de servidores não tem que fazer um monte de engenharia para oferecer o novos processadores. E, por causa das três novas variantes, que têm um cache mais equilibrada e largura de banda da memória principal e desempenho como os núcleos de ampliar, fabricantes de servidores será capaz de direcionar mais precisamente SKUs chip específico para cargas de trabalho específicas.


As diferenças entre as duas famílias de chips para caixas de dois soquetes, no entanto, fazer comparações de desempenho e preço / performance difícil no nível do chip e do sistema. Intel não fornece métricas de desempenho relativos para seus chips, e em grande parte depende dos testes de benchmark de seus parceiros de servidores para contar o retorno para os investimentos de um sistema particular.


El Reg fornecido um desempenho muito áspera e preço / performance comparação entre as famílias v1 e v2 dos Xeon E5-2600 fichas, mas somando-se os relógios agregados em cada chip e dividindo-se que para o custo de cada chip não é muito científico.


Os clientes não compram processadores, exceto nos casos de muitos investidores de alta frequência e alguns clientes de supercomputadores, que sempre precisam de um desempenho superior. Eles compram sistemas, e eles querem saber o que as diferenças de desempenho será no nível do sistema e como o preço pode mudar também.


HP está caindo o Xeon E5-2600 processadores v2 na maior parte de sua família ProLiant Gen8 a partir do get-go, incluindo o ProLiant DL350, DL360 e DL380 rastros, os BL460 lâminas, eo SL230, SL250 e SL270 máquinas hiperescala. Jim Ganthier, vice-presidente de marketing da divisão de servidores da HP, diz que, em alguns casos, o Ivy Bridge-EP SKUs custar um pouco mais, mas que a HP tem uma série de outras "alavancas que podem puxar na configuração do sistema" que pode compensar estes custos.


Uma dessas alavancas é o três-rank registrado DIMM memory stick que tem desenvolvido com vários fabricantes de memória. Esta vara embala 24GB de capacidade de memória de 1,35 volts em uma vara que custa o mesmo que um RDIMM vara 16GB. Essa vara 24GB usa 35 por cento menos energia e oferece cerca de 25 por cento, melhor desempenho do que a vara de 16GB.


"Gostaria de chamá-los mais ou menos o mesmo", diz Ganthier dos preços de máquinas ProLiant usando os processadores de v1 e v2. "O aumento de preço é mínima, mas o aumento de desempenho será bem danado decente."


Quanto aos clientes-alvo, aqueles que usam caixas ProLiant com processadores Xeon 5500 ou mais velhos são os principais candidatos, com suas máquinas sendo mais de quatro anos de idade, neste ponto, e parecendo muito longo no dente.


HP tem kits de upgrade de processador disponíveis para aqueles ProLiant, SL6500 e SL2500 Gen8 clientes, ea SmartSocket criou para a máquina Gen8 fazer colocando em processadores mais simples (sem dobrar os pinos) certamente vai ajudar os clientes que querem fazer um socket trocar. "A maior parte dos nossos sistemas serão os novos produtos", diz Ganthier. "Não há um monte de pessoas que querem se abrir um servidor."


Mais no supercomputador Cray fabricante, Barry Bolding, vice-presidente de marketing, espera muito de atualizações e também para enviar os brilhantes novos chips em máquinas que foram reservados para venda meses atrás, mas que estão sendo construídos para a entrega agora.


Como HP, Cray não está esperando para mudar o preço de um rack de seus high-end XC30 máquinas, que usam sua "Aries" interconexão XC, ou aglomerados CS300 mais tradicionais, que vêm de lado a Appro da casa e que geralmente têm InfiniBand interliga entre os nós. Mas a empresa está esperando um salto muito grande desempenho com base nos SKUs que põe em seus sistemas.


"Estamos muito felizes que esta não é apenas uma velocidade de relógio ou atualização do núcleo", diz Negrito ", mas uma atualização balanceada com cache e dimensionamento da largura de banda."


Nos XC30 supers, Cray suportado apenas as variantes de oito núcleos do Xeon E5-2600 processadores v1 e v2 com os chips, apenas as variantes de dez núcleos e doze núcleos serão suportados. A linha CS300 vai apoiar uma ampla variedade de SKUs que os XC30s, mas, novamente, dada a natureza paralela das cargas de trabalho, os clientes tendem a querer empurrar a contagem de núcleos e não os relógios.


Em geral, Bolding diz que se o seu trabalho é a memória com restrições - como uma aplicação de dinâmica de fluidos pesados ​​- então a dez-core Ivy Bridge-EP é melhor para você. Se você não tem restrições de memória - como a execução de uma dinâmica molecular ou outra simulação em ciências da vida - então o chip doze núcleo vai oferecer melhor retorno para os investimentos.


Então, quanto floppage extra é lá nas caixas Cray utilizando peças top-bin móveis do Xeon E5-2600 Chip v1 para o V2? Se você pegar um rack dos XC30 máquinas, você terá 99 teraflops por rack com os chips v2, em comparação com 66 teraflops para os chips v1, os refrigerados a ar máquinas XC30-AC menos densas terá 33 teraflops para os novos chips e 22 teraflops para os processadores mais antigos. E um rack dos CS300s vai pesar em 41 teraflops para 28 teraflops em comparação com o Xeon E5-cedo 2600s.


A primeira coisa a lembrar como uma regra de polegar é que a CPU representa cerca de 20 a 30 por cento do custo de um sistema, dependendo da arquitectura da caixa. É uma percentagem mais elevada em uma caixa de plain vanilla e um percentual menor em um nó supercomputador que tem algo tão sofisticado quanto a interconexão Áries. Assim, se um processador preço sobe em 10 ou 15 por cento (enquanto a adição de talvez 40 a 50 por cento mais potência), o efeito líquido sobre o preço do sistema é muito menor, talvez apenas de 2 a 5 por cento de aumento do preço no ao nível do sistema.


SGI está dizendo que os clientes esperam algo na ordem de 40 por cento mais desempenho agregado por rack com seus cachos ICE-X, e da mesma forma que os preços no nível do sistema para o seu ICE-X e máquinas Rackable, que foram inicialmente destinados principalmente à operadores de data centers hiperescala mas foram adaptados para rodar Hadoop grandes munchers de dados e armazenamento de dados NoSQL, vai subir um pouquinho. SGI também é desembolsar os novos chips Xeon E5 em seus arrays de disco modulares InfiniteStorage.


Bill Mannel, vice-presidente de marketing de produto da SGI, diz que a regra 80-20 é usado entre os seus clientes, diferenciando o custo de CPU do custo do resto do sistema, e, portanto, não se espera que os custos do sistema a subir por todos os que muito.


O SGI é, sem dúvida, olhando para é a entrega das variantes Ivy Bridge-EP dos Xeon E5-4600 processadores V2, que irá dar o seu 2000, os sistemas de memória compartilhada UV "Ultravioleta" um ganho significativo de performance. Intel ainda não disse quando esperar essas variantes de sua linha Xeon, que são projetados para servidores de quatro soquetes menos dispendiosos, mas que SGI cílios juntos em caixas de dois soquetes usando os links extras QuickPath Interconnect no chip para ligar para sua NUMALink 6 de interconexão do sistema. ®



quinta-feira, 12 de setembro de 2013

Canonical adiciona servidores ARM para control freak Paisagem


Relatório livre ESG: gerenciamento de dados sem emenda com Avere FXT


Comercial distribuidor Linux Canonical é saltar à frente do bloco novo, e atualizou sua ferramenta de gestão da paisagem para a sua distribuição Ubuntu Server para que ele possa gerenciar instâncias do Linux rodando em sistemas baseados em ARM, bem como o ferro X86 já suporta.


Com o apoio da paisagem, a Canonical está ficando em posição de fornecer mão-holding para as empresas que irão testar e então espero que (para ARM Holdings e Canonical tanto) sistemas baseados em ARM deploy para executar algumas de suas cargas de trabalho.







Paisagem traz gerenciamento de pacotes, aplicação de patches, geração de relatórios e aplicação de políticas de segurança. O agente Paisagem executado no espaço do usuário Linux, muito acima do kernel, por isso realmente não dá a mínima de mexer com o bitness subjacente da ARM ou servidor x86 debaixo dela. A mudança para um novo processador com o número de bits diferente é, portanto, uma pressão relativa.


A paisagem atualizado, que tem um número de versão 13.09 quando você instalá-lo dentro do seu próprio centro de dados, mas que não tem número de versão quando Canonical executa-lo em seu nome, o seu próprio centro de dados como uma oferta SaaS, sai na frente do Ubuntu Server 10.13, devido próximo mês. Naquela época, Landscape será mexido com outras características, Federico Lucifredi El Reg diz, ele não entrou em detalhes mais adiante.


Este Paisagem 13,09 liberação é tudo sobre ARM. Especificamente, as máquinas que são baseados em quad-core, 32-bit ECX-1000 system-on-chip (SoC) projetos de Calxeda que estão executando Ubuntu Server agora podem ser gerenciados usando Paisagem, e idem para caixas usando Armada chips Marvell XP, que vêm em versões com dois ou quatro núcleos, com memória de 32-bit de resolução e quatro núcleos com 40 bits endereçamento estendido.


Ubuntu Server também é compatível com o Xilinx processador Zync-7020, que tem dois núcleos Cortex-A9 que rodam a 800MHz e um FPGA todos um mesmo die. E isso significa Paisagem consegue favorito El Reg 's em ferro fracote ainda forte, o conselho híbrido paralelo-16 , que mistura o híbrido Xilinx com os próprios massivamente multi-tubulares processadores RISC epifania de Adapteva para fazer um monte de trituração para esses núcleos ARM .


"Temos vindo a produzir uma versão ARM do Ubuntu para diferentes SoCs para pouco tempo, e isso é realmente uma confirmação de que estamos completamente comprometidos com ARM", disse Mark Baker, gerente de produto de servidor da Canonical, diz El Reg.


Baker não tinha liberdade para falar sobre os futuros SoCs ARM que seriam suportados pelo Ubuntu Server e Landscape, mas não é preciso ser um gênio para descobrir isso. Canonical está se gabando de que é o sistema operacional preferido em "Centerton" Atom cartuchos servidor S1260 com base para o sistema de Moonshot da HP, e você pode apostar que a Canonical está tentando conseguir o mesmo status no futuro nós de servidor Moonshot. Estes incluem cartuchos de servidor com base no "Protocolo de Quioto" X processadores Opteron da AMD, que El Reg te falei no início de Junho , bem como outras três cartas que visto em estado selvagem no final do mês .


Dois cartuchos Moonshot são baseadas em novo de oito núcleos "Avoton" da Intel Atom C2000 , que apenas sopra o Atom S1260 fora da água, um tem um único Avoton e um cartão de futuro irá embalar quatro no card, assim como a HP está fazendo com o cartão X AMD Opteron.


Outro cartão Moonshot abarrota quatro Calxeda quatro núcleos EXC-1000 processadores no cartucho, e ainda um outro tem quatro Texas Instruments Keystone II híbridos ARM-DSP em um único cartucho. Presumivelmente, a HP também está trabalhando com a Applied Micro Circuits para obter o seu 64-bit, oito-core X-Gene chip para servidores ARM, devido, antes do final do ano, no chassi Moonshot, e idem para o futuro "Seattle" de oito núcleos , chip ARM de 64 bits que é esperado de AMD no próximo ano.


É lógico também que qualquer ARM ou x86 nó que é feito para trabalhar dentro do do Aberto da Compute Project " Grupo Abraço "chassis Microserver terá muita atenção da Canonical em relação ao Ubuntu Server e Landscape.


Canonical está sendo prático sobre os sistemas de palermas e musculoso e está precificando seus contratos de suporte vantagem do Ubuntu, que vem com o serviço Paisagem tecida em, mais ou menos de acordo com a capacidade de processamento. Ele custa US $ 700 para um contrato de suporte anual para o Ubuntu Server em um plain-vanilla máquinas x86 de dois soquetes. Em um chassis Moonshot com toda a sua lotação de 45 SoCs carregados, o contrato Advantage Ubuntu irá correr-lhe 6.500 dólares, ou cerca de US $ 144 por nó. ®



quarta-feira, 11 de setembro de 2013

Unisys manivelas Xeon de mainframe glamour acima CMOS ferro legado


Relatório livre ESG: gerenciamento de dados sem emenda com Avere FXT


Mainframe Unisys fabricante tenha finalmente feito isso, empurrando o desempenho de seus mainframes Xeon baseados na família ClearPath Libra, que roda seu sistema operacional MCP, sobretudo os baseados em CMOS máquinas Libra legados, e não demorará muito para que a sua família Dorado de OS 2200 mainframes são mais rápidos em ferro do que os processadores Xeon nativas CMOS, permitindo Unisys para sair do negócio de processador completamente.


Unisys, que é o resultado da fusão da Sperry e Burroughs fabricantes de mainframes na década de 1980, é um especialista de uma espécie de convergência de plataformas. A empresa adotou uma abordagem lenta e deliberada, e cuidado para não só trazer as duas famílias de MCP e máquinas de 2200 OS juntos para compartilhar ferro comum (mas não completamente, porque há diferenças de arquitetura entre o Libra e Dorado máquinas).







A empresa tem também entregue uma linha de máquinas baseadas em Xeon para executar o Windows e depois o Linux que empregava alguns dos chipsets e outras tecnologias de particionamento que foram implantados nos mainframes ClearPath.


Nenhum outro fabricante de servidores misturando várias arquiteturas de servidores fez nada nem perto de tão elegante um emprego em plataformas convergentes como Unisys tem feito. E Unisys tem feito isso, permitindo que os binários em execução em plataformas CMOS a ser portado e executar inalterada em ferro CMOS emulado baseados em chips Xeon, com um desempenho decente.


Unisys começou pequeno e conhecia a Lei de Moore ajudaria sua emulação fechar a lacuna de desempenho com seus motores CMOS ao longo de uma década ou mais.


Na primeira, Unisys trouxe nós de servidor Xeon nas máquinas ClearPath, permitindo-lhes como co-processadores. Em seguida, ele criou uma emulação de hardware que fez um olhar processador Xeon como um CMOS motor de mainframe Unisys e fez-se para as diferenças de desempenho usando o ferro x86 para fazer dados sofisticados e pré-busca de instrução e pretranslation de ganso as oopmhs de que a emulação.


Então, há três anos, Unisys criou seu particionamento seguro para máquinas baseadas em Xeon, chamado s-Par, o que permitiu MCP emulado e OS partições 2200 para ter motores especiais - para acelerar Java, protocolos de segurança, consultas de banco de dados e aplicativos de mainframe traduzido para, dispositivos webby modernos - colocar de lado a lado no mesmo quadro Xeon.


Mas esta semana, com as plataformas MCP e sem ter que se deslocar para os novos "Ivy Bridge-EP" v2 processadores Xeon E5 da Intel, pela primeira vez, um mainframe MCP baseado Xeon tem mais de computação e desempenho de I / O de um máquina CMOS.


Para ser mais específico, a nova Balança 8290, que é uma rotação no Balança 6200 anunciou Outubro passado, tem agora um total de 7000 MIPS de capacidade e a velocidade efectiva de um motor de um único fio emulado no quadro de processamento vem em 620 MIPS .


A máquina Libra 800 com base em motores CMOS teve 600 MIPS motores virtual e um total de 5.800 MIPS de capacidade de processamento. Então, isso é apenas um 3,3 por cento colisão na performance motora, mesmo que seja de 20,7 por cento de aumento na capacidade de desempenho em todo o sistema.


É, no entanto, um grande salto sobre o Libra 6200 séries de ferro, que saiu no ano passado, que tinha um motor MCP virtuais avaliado em 550 MIPS e um total de 4.200 MIPS de desempenho em todo o sistema. A nova Libra 8290 tem 67,7 por cento MIPS mais agregado do que o Libra 6200, e 12,7 por cento mais desempenho de um único segmento em que o motor virtual.


Para realizar esta façanha em exatamente o mesmo ferro, Unisys trabalhou com a Intel para levar os "Sandy Bridge-EP" Xeon E5-2690 motores usados ​​na linha de Libra para executá-los em um modo Turbo Boost permanente e ainda mantê-los na mesma térmica envelope por elementos de desligar dos processadores (tais como as unidades de ponto flutuante AVX) não utilizadas pelo MCP.


Unisys também criou um novo mecanismo de I / O para as caixas Xeon para melhorar o desempenho de I / O e também obtê-lo acima do que o Libra 6200 poderia fazer. Essas máquinas anteriores Libra baseados Xeon E5 já surpreendeu o Libra 800 mainframes baseados em CMOS quando se tratava de I / O, como você pode ver no gráfico de desempenho que acompanha esta história.


ClearPath Libra desempenho de mainframe por gerações

ClearPath Libra desempenho de mainframe por gerações



Neste gráfico, qualquer máquina com um número de três dígitos é baseado em motores de CMOS caseiros e qualquer máquina com um número de quatro dígitos é baseado em Xeon.


Como é geralmente o caso com qualquer servidor, a nova caixa não é realmente destinado a substituir seu antecessor imediato, mas as caixas que são poucas gerações mais velhas e mais ainda bateu para fora quando se trata de CPU e desempenho de I / O. Assim, a máquina de Libra 8290 é realmente destinado a Libra 600 lojas que têm menos capacidade de processamento de Libra 700 e 6.200 lojas.


Libra lojas que são I / O constrangido, mas não MIPS constrangido terá um duro olhar para a nova máquina Libra 8290, que tem mais de quatro vezes a largura de banda I / O como o Libra 600 e mais de três vezes maior do que o Libra 800.


O Libra 6200 e 8290 projetos têm dois módulos de processador / memória em execução MCP, que são servidores de dois soquetes com base nos oito-core, top-bin processador Xeon E5-2690, que gira em 2.9GHz. Cada um dos dois módulos tem 128GB de memória principal, seis discos de 146GB, e entre 10 e 16 portas de comunicação.


Dois módulos de motores especiais, que podem ser fixados à máquina para acelerar cargas de trabalho Java ou middleware, bem como para fazer I / O trabalho para MCP, separado I / O e são baseados em um servidor de dois soquetes usando oito núcleos E5-2680 processadores (que giram em 2.7GHz) com 96GB de memória principal.


Os nós são ligados uns aos outros por adaptadores InfiniBand que hum em 40Gb/sec - e demonstrar um dos usos originais da tecnologia, que deveria ser de cluster nó do servidor direto e fixação de unidades de I / O remotos. Unisys tem esse memorando.


Unisys começou no ferro emulado por MCP em primeiro lugar, por isso é mais à frente em sair chips CMOS com que parte da base ClearPath, ea plataforma OS 2200 tem alguns processadores especiais de E / S e uma arquitetura I / O que é um pouco de um desafio. Por isso vai levar algum tempo antes Unisys pode largar o vício processador proprietária CMOS.


Obtendo as máquinas Libra Xeon acima do desempenho de uns baseados em CMOS não era esperado até o meio de 2014, Bill Maclean, vice-presidente de programas ClearPath dentro da tecnologia, consultoria e integrações grupo de soluções da Unisys, diz El Reg.


Então Unisys é cerca de nove meses antes do previsto em obter o desempenho de mainframe Burroughs venerável empurrado para cima - e sem ter de recorrer a portar a pilha de software Unisys para o novo Xeon E5-2600 processadores v2.


No lado do Dorado da linha ClearPath, que tem suas raízes na Sperry-Univac, Maclean disse esperar um passo incremental desempenho em algum momento de 2014, como a empresa se move para o Xeon E5-2600 processadores v2 para aumentar a computação e desempenho de I / O para OS 2200 cargas de trabalho.


Então, em 2015, muito provavelmente com um futuro "Haswell" Xeon mas Unisys está fazendo nenhum compromisso, a empresa será capaz de fazer uma Dorado baseado Xeon que pode melhor a um CMOS. Como as máquinas Xeon contornar os CMOS, as máquinas CMOS estará disponível por um par de trimestres e depois desativada, diz Maclean. Então, se você quer um Libra 800, é melhor apertar a perna.


As idéias por trás da recente InfiniBand cluster ClearPath Libra e Dorado máquinas estão sendo usados ​​para criar uma nova linha de servidores com o codinome "Forward", que será projetado para executar cargas de trabalho do Windows e Linux. Unisys falou um pouco sobre isso para os clientes em seu evento Universe cliente em Chicago esta semana, outing o nome do produto e liberando alguns boatos sobre a máquina.


Unisys anunciou uma parceria com o servidor Intel em agosto, dizendo em seguida que faria máquinas baseadas no Xeon E5 e processadores Xeon E7 e executando o seu s-Par hypervisor para particionar as máquinas e dar-lhe a alocação de recursos do mainframe Unisys que diz outra hypervisors x86 falta.


Como se vê, a Unisys estará revelando a sua primeira iteração do ferro frente em outubro, e da arquitetura, diz Maclean, pode escalar de centenas de nós de servidores e milhares de partições, com o Windows ou Linux. MCP e OS 2200 acabará por estar disponível como uma opção, como El Reg suspeita. ®



terça-feira, 10 de setembro de 2013

Forja IBM NextScale servidores para HPC e hiperescala cheapskates


Incremente sua infra-estrutura


IDF13 concorrente da Intel, com o lançamento da "Ivy Bridge-EP" Xeon E5-2600 processadores V2 em San Francisco hoje, a Big Blue trotou para fora seus a maioria das máquinas vaidade livres até à data, a linha NextScale.


Os novos sistemas são projetados especificamente para competir com o baixo custo, despojado alternativas de Hewlett-Packard, Dell, Silicon Graphics, e Super Micro, bem como aqueles que estão empurrando caixas com base nas especificações do projeto Open Compute iniciada pelo Facebook mais de há dois anos.







As máquinas NextScale ter alguma semelhança com outros densas, desenhos minimalistas servidor lá fora, no mercado com base em nós de servidor de meia largura, e eles acabarão por tomar o lugar das máquinas iDataPlex que a Big Blue rolou em maio de 2008.


Os sistemas iDataPlex foram criados para perseguir clientes provedores de supercomputação e serviços que estavam olhando para embalar mais de computação em um espaço menor no centro de dados.


Enquanto eles têm sido bem sucedidos, particularmente entre alguns grandes centros de supercomputação, as prateleiras iDataPlex são de tamanho fora do padrão, com base em nós de servidores que são 15 centímetros de largura, em vez de 19 polegadas, o rack também tem duas colunas de lado a lado máquinas por padrão, para um máximo de 84 máquinas, em uma cremalheira, que não é apenas mais magra mas igualmente uma profundidade menor que a cremalheira padrão.


Isto, em teoria, é uma coisa boa, mas prateleiras são um tamanho padrão por uma razão e nada fora do padrão sempre tem um momento difícil. E assim, a IBM está indo com racks padrão de 19 polegadas com o NextScales e está aumentando a densidade, indo com meia largura, nós do servidor full-profundidade, assim como quase todos os outros servidores construção hiperescala está fazendo estes dias.


O iDataPlex vai ser em torno de um bom tempo ainda, como IBM ainda está vendendo servidores blade BladeCenter apesar de suas máquinas modulares FlexSystem foram para fora por um ano e meio. Gaurav Chaudhry, gerente de marketing para a divisão de computação x hiperescala sistema, El Reg diz que a IBM provavelmente vai continuar a vender as máquinas iDataPlex por outros 18 meses mais ou menos.


Uma das razões é a de apoiar as contas existentes com máquinas iDataPlex. Outra é que a IBM ainda não tem integrado de resfriamento de água nos sistemas de NextScale, como tem sido disponível para as máquinas iDataPlex por algum tempo.


Mas existe um plano para trazer blocos de resfriamento de água e tubos para a linha NextScale para os clientes que querem usar os processadores mais rápidos e mais quentes. Muito possivelmente, alguns chips de energia da IBM e, provavelmente, também de gordura co-processadores GPU da Nvidia. Mas Chaudhry foi mãe em nada específico.


Ao contrário do BladeCenter e máquinas FlexSystem, mas como o iDataPlex, antes disso, as máquinas NextScale não tem um plano médio que nós do servidor tirar suas portas I / O em um backplane ou que se articule junto servidores, storage e switches de rede e módulos de passagem, todos os sob uma única estrutura de gerenciamento em um por chassis (ou multi-chassis) de domínio.


Os tipos de aplicações paralelas são executados por centros de HPC, os operadores de nuvem pública, e empresas de criação de nuvens privadas nem sempre precisa de todos os recursos de confiabilidade e gestão destas máquinas full-on, de classe empresarial.


A idéia por trás de aplicativos modernos é que eles escala em vários nós e ter seus recursos RAS inerentes a camada de software e, portanto, não há nenhuma razão técnica para ter tantos controladores de gerenciamento, fontes de alimentação, ventiladores e outros componentes na caixa. A máquina é despojado para o essencial para ser um nó em um cluster com nada schmancy fantasia que adiciona custo.


IBM projetou o chassis NextScale e seus sistemas de energia e refrigeração em seu laboratório de desenvolvimento na Carolina do Norte, mas as caixas são construídas em sua Shenzhen, China, fábrica para obter o menor custo de produção possível dentro da Big Blue. Os nós do servidor para a máquina também será feito na China, eo primeiro nó do servidor disponível para a caixa foi projetada em seus sistemas e tecnologia de laboratório de design do Grupo em Taiwan.


"Nós tentamos ficar longe de construir um carro de luxo", diz Chaudhry. "Este é um carro de corrida de alta performance."


As máquinas foram concebidas explicitamente para assumir SL6500 recintos sistemas escaláveis ​​da HP com as SL230s ProLiant, bem como um número de máquinas sob medida reunidas por unidade de dados da Dell Solutions Center, que tem a participação das vendas de servidores hiperescala mercado dominante nos dias de hoje.


"Nós somos um-para-um com a HP no preço", gaba Chaudhry. Mas a Dell, Super Micro, e os falsificadores caixa OCP são, provavelmente, os que são os mais perigosos concorrentes lucro de matar no setor servidor hiperescala estes dias.


Dito isto, se a IBM está dizendo que ele pode atender HP no preço, e está oferecendo uma plataforma de computação mais padrão que atenda aos requisitos de densidade, esta é uma grande melhoria em relação ao último par de anos.


IBM tem planos de expandir a linha NextScale durante o próximo ano

IBM tem planos de expandir a linha NextScale durante o próximo ano



Que a IBM está dizendo em suas apresentações a parceiros de negócios e no Intel Developer Forum, que será capaz de colocar microservers neste chassis NextScale também mostra que pelo menos algumas pessoas dentro Big Blue quer tentar fazer algum dinheiro nesta parte low-end da raquete do servidor - deve firmar e realmente gerar uma fatia considerável da receita. A IBM tem sido tranquila como a grama crescendo sobre microservers nos últimos três anos.


O NextScale começa com um chassis bare-ossos, chamada de nx1200, e como o nome sugere, tem uma dúzia de nós do servidor de meia largura em um chassis de 6U. Cada nó do servidor tem dois soquetes, assim você pode obter 24 bases de Xeon E5 computação em que 6U de espaço. Isso funciona para quatro soquetes por unidade vertical capacidade para as máquinas NextScale.


BladeCenter H gabinete de servidor da IBM lâmina poderia fazer 14 blades em um gabinete 9U. Porque as lâminas eram tão magro, havia alguns limites sobre as potências dos processadores que podem ser colocados para as lâminas. De qualquer forma, ainda é de apenas 3,1 tomadas por unidade vertical do espaço em rack, e você pode usar qualquer coisa 40-130 watts Xeon E5-2600 v2 peças na caixa NextScale.


O iDataPlex tinha 84 nós em dois racks meio de profundidade, lado a lado, que funcionou a 168 órbitas em aproximadamente o mesmo espaço que um rack 42U, que funciona a quatro soquetes por unidade de rack vertical.


O chassis do Sistema Flex tem 14 nós de servidor de meia largura em um espaço de rack de 10U, com os nós também ser servidores de dois soquetes. A matemática trata de tomadas de 2,8 por unidade de rack vertical para o sistema Flex.


Mas espere um segundo. Lembre-se que a IBM anunciou o nó do servidor de dupla densidade Flex x222 para o Sistema Flex há um mês . Estes são baseados em menos enérgico Xeon E5-2400 processadores v1, mas ainda assim, que dobra-se a densidade de computação para 5,6 tomadas por unidade de espaço em rack vertical.


IBM precisa de adicionar água de arrefecimento para o NextScale para ser capaz de dobrar-se da densidade de computação nessas máquinas para 8 soquetes por unidade vertical, mas nenhuma dessas promessas feitas para o fazer.


A vista dianteira e traseira dos chassis nx1200 NextScale

A vista dianteira e traseira dos chassis nx1200 NextScale



O chassis nx1200 tem até seis fontes de alimentação de 600 watts, que podem ser configurados com redundância total ou poupadores failover, e pode ter até dez ventiladores hot-swap para ajudar a manter os componentes legal. O chassis tem um ventilador e poder controlador bem no meio das costas.


Os nós de servidor de ligação até topo de switches de rack e não há nenhuma rede ou controladores de gerenciamento de chassi na caixa. IBM diz que os clientes provavelmente vai usar Platform LSF, Plataforma HPC, ou xCAT para gerenciar os nós, assim como lojas de HPC fazer. O chassis permitirá que os clientes eventualmente misturar e combinar diferentes gerações e tipos de nós com nós de armazenamento e processamento de co-processador.


O armazenamento de Expansão Native ou armazenamento Nex, módulo terá 32TB de capacidade (oito unidades de 3,5 polegadas SATA com 4TB de capacidade cada) e incluirá um controlador RAID de disco, um cabo SAS volta a um nó de computação, e unidades de disco rígido em uma unidade que é 1U de altura, assim como o nó de computação.


O chassis de expansão PCI Native também é 1U de altura e parece que ele tem espaço para dois Tesla GPU Nvidia ou Intel Xeon Phi co-processadores, que se encaixem no cartões de ascensão e, em seguida, por sua vez ligar para o nó do servidor M4 nx360.


Falando nisso, aqui está o que nó do servidor M4 nx360 parece:


O nó do servidor NextScale nx360 M4

O nó do servidor NextScale nx360 M4



O nó do servidor M4 nx360 tinha quatro slots de memória por soquete do processador e, atualmente, bate para fora em 128GB de capacidade contra os novos brilhantes Xeon E5-2600 v2 processadores da Intel. Isso é memória suficiente para um monte de cargas de trabalho, mas provavelmente não todos eles.


O nó do servidor tem um único slot PCI-Express 3.0 com dezesseis faixas (x16), e curiosamente de acordo com as especificações, como você pode ver acima, tem outro slot avaliado em 24 pistas (x24). Há também um mezanino conector para interfaces de rede x8 I / O, e, neste caso, a IBM está oferecendo dual-port InfiniBand (rodando a 56Gb/sec) ou opções Ethernet (10Gb/sec).


O nó também tem duas portas Ethernet 1Gb/sec soldadas à placa, além de um conector KVM (que é para o teclado, vídeo, mouse, não virtualização de servidores da Red Hat hypervisor). Há espaço para uma unidades de 2,5 polegadas 3,5 polegadas ou dois, o que pode ser tanto discos SAS ou SATA. A IBM também está deslizando em quatro de seus drives de estado sólido de 1,8 polegadas se você deseja obter chamativo.


O nx1200 chassis e nó do servidor M4 nx360 será lançado em 28 de outubro. O módulo de expansão de armazenamento Nex será lançado em 29 de novembro. O módulo de expansão PCI será lançado no próximo ano, e IBM está prometendo mais capacidade de armazenamento, mais, I / O opções, mais processadores, e microservers.


Chaudhry diz que a IBM está considerando adotar servidores ARM e alimentação para a linha NextScale, mas não fez promessas. Um nó Power8-Tesla híbrido poderia começar IBM um lugar melhor na mesa de negociação para promoções HPC onde a compatibilidade de energia é um grande problema ea máquina BlueGene / Q não é apropriado.


Um nó do servidor m4 nx360 carregado com dois Xeon E5-2680 processadores v2 ten-core rodando a 2,8 GHz e 25 MB de cache L3 Sporting tem 64GB de memória principal, dois discos de 2,5 polegadas (capacidade desconhecido), eo cartão mezz InfiniBand; custa 7.709 dólares.


Um nó de base tem dois E5-2620 processadores six-core v2, que tem 15MB de cache L3 e que funcionam em 2.1GHz, além de 32GB de memória e um disco de 3,5 polegadas com nenhum cartão mezz networking, que custa $ 4.409. Red Hat Linux 6, o SUSE Linux Enterprise Server 11 SP3 e Microsoft Windows Server 2012 são suportados no nó, por isso é de hypervisor VMware ESXi 5.1. ®



Intel esculpe-se Xeon E5-2600 fichas v2 para caixas de dois soquetes


Incremente sua infra-estrutura


IDF13 Empresas com cargas de trabalho que gostam de andar em lotes de threads e núcleos vão ser capazes de obter muito mais retorno para uma caixa de dois soquetes, graças ao lançamento do "Ivy Bridge-EP" Xeon E5-2600 processadores v2 por Intel.


Aqueles com aplicações traquinas que gostam de relógios mais rápidos para fazer mais trabalho, assim, o processo de contração está dando o Ivy Bridge Xeon mais cache e microarquitetura ajustes, bem como núcleos de modestamente mais rápidos. Mas como todos sabemos, a escala do relógio é muito mais difícil do que a escala do núcleo e que é finalmente tornando este um problema de software para as empresas a resolver.







A transição para processos de fabricação de 22 nanômetros Trigate para o carro-chefe da plataforma de servidor de dois soquetes de Chipzilla vai começar um novo ciclo de atualização lá fora nos centros de dados e closets do mundo de dados. Ou, que é a esperança de, pelo menos.


Os compradores mais ávidos serão as lojas que têm Xeon muito mais velho 5500 e 5600 sistemas lá fora, que em grande parte incendiou a sua vida econômica e simplesmente não oferecem a densidade de computação e memória e expansão periférica de uma corrente "Romley" plataforma desportiva servidor um processador Ivy Bridge-EP.


Vendas de servidores e as receitas têm sido em declínio nos últimos trimestres. Mas os sistemas x86 têm se saído melhor do que outras plataformas na luta contra a maré baixando causada pela mudança para a computação em nuvem (cloud operadores tendem a comprar máquinas de vaidade-livres e mais barato do que os prestadores de serviços de anos passados ​​fizeram), o aumento do uso da virtualização de servidores, o ritmo ainda incrível da Lei de Moore (que permite uma cada vez maior de mais capacidade de computação por chip), eo nervosismo em certas partes da economia global.


Agora, com o Xeon E5-2600 v2 processadores transporte, nós começamos a descobrir nos próximos trimestres se há demanda reprimida para a capacidade do servidor x86. Se qualquer coisa, o fato de que vendas de servidores x86 eram mais ou menos estáveis ​​no segundo trimestre, por conta da IDC, parece indicar que a demanda está segurando muito bem. Algumas empresas simplesmente não podem esperar para comprar servidores, mesmo que coisas novas e presumivelmente melhor está chegando.


Morre baleado do processador dez-core Ivy Bridge-EP

Morre baleado do processador dez-core Ivy Bridge-EP



O topo de gama Xeon E5-2600 v2 chip de doze núcleo tem cerca de 4,3 bilhões de transistores e tem uma área de 541 milímetros quadrados. Os processadores Ivy Bridge-EP estão indo para embalar um soco muito grande em comparação com os processadores Sandy Bridge-EP que substituem na linha Intel.


Com base nos primeiros resultados de testes de benchmark de fabricantes de servidores que serão divulgados nos próximos dias, executivos da Intel El Reg diz que os clientes podem esperar para o novo Xeon E5-2600 tomada v2 para entregar até 50 por cento mais desempenho e até 45 por cento mais desempenho por watt do que o Xeon E5-2600 v1 linha, que foi anunciado em março 2012. Esses chips também eram conhecidos como "Jaketown" pelos técnicos do servidor de dentro da Intel, e eles chamam o novo chip "Ivytown" às vezes apenas para ser consistente. Um pouco.


Esses números de desempenho são baseados em SPECVirt_sc2013 testes eo retorno para os números watt vêm SPECpower_ssj2008 testes. O desempenho que os clientes irão ver com os Xeon E5-2600 processadores v2 irá variar, é claro.


As características básicas do Xeon E5 v1 e v2 processadores

As características básicas do Xeon E5 v1 e v2 processadores



O desempenho, habilitada pelo encolher dos processos de 32 nanômetros usados ​​nos Xeon E5-2600 processadores v1, é ativado por um saldo de mais núcleos e mais memória cache L3 sobre os chips, como você pode ver na tabela acima comparando os dois famílias chip. Os top-bin Ivy Bridge-EP partes têm 50 por cento mais núcleos, em uma dúzia por morrer, e 50 por cento a mais de cache L3, em 30MB, em comparação com os chips de Sandy Bridge-EP.


A freqüência de base superior e freqüências máximas de Turbo Boost sobre os novos Xeon E5-2600 fichas só subir por 200 MHz, que é apenas um salto de 6,1 por cento na velocidade de clock. Que o aumento da velocidade de clock é basicamente adicionados ao chip para compensar as latências extras em levar o projeto do processador até uma dúzia de núcleos de oito núcleos.


O aumento de desempenho também é ativado por alguns outros ajustes. A memória principal agora é executado em 1,6 GHz para 1,35 volt memória (acima de 1.33GHz) e no 1.87GHz para 1,5 varas volts (acima de 1.6GHz). Os 3,0 controladores PCI-Express correr na mesma velocidade (8GT/sec) e não são os mesmos de 40 faixas de largura de banda que entram os controladores on-morrer como com as partes Sandy Bridge-EP. A memória principal também é dobrado até um máximo de 1,5 TB (mediante a utilização de varas de 64GB nos 24 entalhes em um sistema de duas encaixe).


Diferentes SKUs nos Ivy Bridge-EP linha de apoio diferente QuickPath Interconnect ponto-a-ponto velocidades de interconexão, como fizeram seus antecessores, eo QPI porta contagem é de dois, como fez com os chips de Sandy Bridge-EP. Ambas as famílias de chips suportam HyperThreading, a implementação da Intel de multithreading simultâneo.


SMT virtualiza o pipeline de instrução no processador assim, neste caso, pode conciliar duas correntes de instrução ao mesmo tempo e, portanto, obter um pouco maior quantidade de trabalho realizado do que poderia ter sido possível de outra maneira. (. Desde suas cargas de trabalho são HT-friendly, é claro) Nem toda a velocidade da memória é compatível com todas as fichas - mais uma vez, assim como seu antecessor, o Sandy Bridge-EP.


Aqui está outra coisa nova e interessante. Não há um processador Ivy Bridge-EP, mas existem três variantes diferentes do chip, cada um ligado para cargas de trabalho específicas e cada esportivos números diferentes de núcleos, controladores de memória, tamanhos de cache, freqüências e envelopes térmicos.


Diagramas de blocos dos três Ivy Bridge processadores Xeon E5

Diagramas de blocos dos três Ivy Bridge processadores Xeon E5



A primeira variante tem quatro ou seis núcleos activos e as ligações PCI-Express e QPI, bem como um único controlador de memória com quatro canais. Trata-se, explica Ian Steiner, um arquiteto de processador da Intel em Beaverton, Oregon facilidade, visando tanto de baixa potência utiliza, bem como a carga de trabalho que necessitam de freqüências mais altas.


Este tem 15MB de cache L3 e tem um envelope térmico de entre 40 a 80 watts. Os núcleos, segmentos de cache, links QPI e controladores PCI estão ligados entre si por anéis dobro, assim como foi o caso com o Sandy Bridge-EP.


A segunda variante, que trata da barriga do mercado de servidores de dois soquetes, oferece seis, oito ou 10 núcleos e tem 25MB de cache L3 no dado. Os mesmos toques duplos ligar os principais componentes juntos. Neste caso, as térmicas vão 70-130 watts e, novamente, há uma mistura de baixo consumo de energia e as variantes de maior frequência para atingir diferentes tipos de cargas de trabalho.


O terceiro tipo de processador Ivy Bridge-EP é a besta-on completo doze-core, que vem em 115 watts e 130 watts de opções. Intel matou o 135 watt SKU para servidores, mas há uma parte de 150 watts para estações de trabalho, como no passado.


Este chip tem três anéis que ligam os núcleos e segmentos de cache para outros componentes do dado, e como você pode ver, o controlador de memória também é dividido em dois, mas tem metade do número de canais pendurado cada controlador para produzir os mesmos quatro canais por socket como os outros Xeon E5-2600 variantes v2.


No passado, estes poderiam ter sido duas ou até três processadores diferentes, possivelmente com diferentes órbitas. Mas eles são uma família de processadores todos compartilhando o mesmo soquete, e que é idêntico ao anteriormente Xeon E5-2600 processadores v1 de março de 2012.


A plataforma de servidor de Romley projetado para tirar peças Ivy Bridge-EP

A plataforma de servidor de Romley projetado para tirar peças Ivy Bridge-EP



"O objetivo geral é fazer tudo bem", explica Steiner, e isso não pode ser feito com uma única variante do processador Ivy Bridge-EP. "Estamos interessados ​​em ter alguns de alta freqüência, as partes baixas do núcleo." E a variante média de seis a dez núcleos foi projetado explicitamente por isso teria de cache de 25MB contra seis núcleos - mais uma vez, justamente para atender às necessidades de particular (e sem nome) clientes.


"Este é o tipo de direita no meio. Você tem boa eficiência de energia, você recebe o máximo desempenho e você pode empurrá-lo todo o caminho até 130 watts, se quiser. The twelve-core é mais voltado para desempenho de pico, há apenas 115 watts e 130 watts de ofertas, e não há opções de baixa potência. Mas eu não quero fingir que não é um SKU energia eficiente. Ele pode realmente ser muito eficiente de energia em uma implantação completa do rack ", disse ele .


O núcleo Ivy Bridge-EP é idêntico ao utilizado nos Ivy partes centrais da ponte de mesa do ano passado, e ostenta uma série de melhorias microarquitetura. Steiner diz que a Intel não é apenas focada na melhoria do desempenho de um único fio com cada geração, mas também impulsionar as instruções por clock ea eficiência de energia do núcleo.


"Para encurtar a história, nós adicionamos um monte de coisas para tornar o trabalho melhor desempenho", diz Steiner. O novo núcleo Ivy Bridge tem um ponto flutuante de 16 bits para converter precisão de um único bit, o que não será uma "coisa desempenho enorme, mas é bom para determinadas cargas de trabalho", segundo Steiner.


Os programadores que utilizam as gerações anteriores do Xeon tiveram que escrever rotinas para fazer copy / encher operações, e agora há um conjunto de instruções com o nome complicado de REP MOVSB ​​/ STOSB que significa que programadores não têm de macaco em torno de assembler e eles podem basta invocar estas instruções para fazer copy / preencher. O núcleo também tem agora acesso rápido aos conjuntos de registros por fios de usuário, que é uma otimização, precisamente, para cargas de trabalho de servidores rodando em máquinas com contagens da linha superior.


O núcleo Ivy Bridge também inclui o "Bull Mountain" gerador de números aleatórios, conhecido como SecureKey. Outras fichas de classe de servidor já tinha geradores de números aleatórios, e agora a Intel tenha pego.


O chip Atom C2000 "Avoton" também tem o gerador de números aleatórios, e também ostenta o supervisor da Guarda modo circuitos de proteção de execução do sistema operacional que são incorporados no núcleo da Ponte Ivy.


Você tem que mudar o código do sistema operacional para fazer uso do OS Guard, que protege contra hacks que sequestram execução do kernel, impedindo a execução de páginas de modo de usuário no modo supervisor, tais como o método usado pelo Stuxnet.


Ele é suportado no kernel Linux já, e, presumivelmente, suporte para OS Guard virá para o Windows em algum ponto. (Ele ainda não estava pronto quando a Intel deu seus briefings sobre os novos Ivy Bridge chips para servidores.)



quarta-feira, 4 de setembro de 2013

Intel mostra bastidor 'desagregada' de servidores, armazenamento e networking


Ganhar uma HDTV LED de 40 polegadas Samsung com o Reg e HP!


No "Avoton" Atom C2000 lançamento de chip na quarta-feira em San Francisco, a Intel exibiu vários dos componentes de sua cremalheira Escala Arquitetura trabalhando em conjunto e também anunciou uma parceria com a Microsoft para empurrar a idéia em suas plataformas Windows para data centers e em a nuvem pública Windows Azure.


Intel já explicado em julho que estava tentando "re-arquiteto de data center", e as tecnologias que Chipzilla demonstrou eram a primeira onda de outros que planeja trazer para o mercado de chips para servidores, armazenamento e redes em bits e remontá-las em tempo real como pools de computação, rede e armazenamento no nível do rack.







Isso é diferente de ter armazenamento embutido no servidor ou ligado diretamente a um servidor através de Fibre Channel ou comutadores PCI Express ou através de ligações iSCSI. Com Escala Rack, como El Reg disse antes, o centro de dados é o novo rack e do rack é o novo servidor.


Neste caso, a Intel utilizando alta velocidade, gordura de largura de banda de silício fotónica links para as unidades de processamento de cola para as unidades de armazenamento no interior da cremalheira, permitindo assim que estes componentes ser substituído com facilidade e de forma independente.


A notícia de hoje no lançamento Avoton foi que a Intel deu um nome para os cabos de fibra óptica que tenha projetado em conjunto com a Corning, que sabe uma coisa ou duas sobre o vidro, bem como os conectores e portas que serão utilizadas para atacar servidores , armazenamento e componentes de rede em conjunto. Intel demonstrou os componentes trabalhando juntos pela primeira vez.


Geralmente, os grandes centros de dados têm cabos de cobre de ligação servidores entre si através de top-of-rack switches e, em seguida, cabos de fibra óptica para ligar cada rack para um fim de switch de agregação linha que alimenta para o mundo exterior, ou talvez para roteadores que apontam para outros centros de dados semelhante, se a carga de trabalho está geograficamente dispersa.


Esses cabos de cobre são um grande problema, e usando silício ligações fotônica e cabos de fibra óptica menores dentro do rack vai fazer mais do que apenas permitir que diferentes componentes de um sistema a ser fisicamente distintos e, portanto, independentemente atualizável.


Data Center GM Diane Bryant pesando cabos antigos e novos

Data Center GM Diane Bryant pesando cabos antigos e novos



"Há uma necessidade real de miniaturizar e obter maior eficiência e menor custo", explicou Chris Phillips, que é gerente geral da gestão do programa para Windows Server e Systems Center da Microsoft, que estava na mão para anunciar que a Intel ea Microsoft foram juntar-se para criar a arquitetura de escala nuvem de próxima geração para Big Steve Stephen.


"Com as coisas físicas simples, como cabeamento, você simplesmente não pensar nisso até que você esteja em um centro de dados com 200 mil servidores e 100 mil servidores na mesma. E então você percebe, uau, fios realmente são difíceis. Eles bloqueiam o fluxo de ar, e eles fazer todas essas coisas más com você, e os seres humanos tocá-los e eles parafuso-los. Então estamos entusiasmados por estar envolvido novamente com a Intel sobre a arquitetura e design. "


Intel já iniciou projetos com o Facebook liderada Aberto Compute Project para trazer fotônicos de silício para componentes de rack, e tem um projeto semelhante, mas distinta em curso na Ásia, com Alibaba, China Telecom, Baidu e Tencent chamado Projeto Escorpião.


O novo conector MXC actualmente tem 32 fibras individuais e modelos mecânicos feitos pela Intel revelam que ele irá ser capaz de agrupar até 64 fibras. Cada fibra irá ser capaz de lidar com 25Gb/sec de largura de banda, e, portanto, de um cabo completo será capaz de empurrar e puxar 1.6Tb/sec.


O cabo foi concebido ClearCurve pela Intel e Corning de tal modo que ele pode ser de 300 metros de comprimento, cerca de três vezes o comprimento da corrente de cabos de fibras ópticas utilizadas em centros de dados de hoje, e ainda que a largura de banda empurrar 25Gb/sec em cada fibra do cabo.


O sistema de cremalheira Escala demonstração mistura servidores Atom e Xeon com o armazenamento e um novo switch

O sistema de cremalheira Escala demonstração mistura servidores Atom e Xeon com o armazenamento e um novo switch



No sistema de escala de cremalheira demonstração de que a Intel estava mostrando no lançamento Avoton, tinha dois gabinetes de soquete único-Avoton nós Atom que estavam 2U de altura e que poderia enfiar 42 cartões do processador em que gabinete. Isto é muito mais denso do que a embalagem protótipo sistemas Intel estava mostrando em julho.


A configuração também tinha dois nós de servidor Xeon, cada um com dois meio-largura, nós do servidor de dois soquetes. Os nós de servidores estavam ligados entre si usando os conectores e cabos MXC ClearCurve óptica através de vários módulos de chave fotônicos de silício nos gabinetes de servidor.


A Intel também lançou uma nova opção ASIC, o FM5224, que tem um total de 72 portos em execução na velocidade 2.5Gb/sec que coincide com as placas de rede Ethernet integrada nos processadores Atom Avoton. O interruptor microserver, como está sendo chamado, também tem oito 10Gb/sec ou dois uplinks 40Gb/sec. NEC, Super Micro e Quanta estão construindo interruptores baseados nesse chip FM5224.


Intel também colocar uma matriz de disco plain vanilla na demo e ligou-se para os gânglios servidor através de links Ethernet, eo demo estava a poucos segundos de Jason Waxman, que dirige o Grupo de Plataformas Nuvem, alocar dinamicamente discos para nós do servidor Atom e Xeon e mostrando a largura de banda que vem através das lightpipes.


Além da demonstração Scale Rack, Diane Bryant, que é gerente geral do Data Center da Intel e do Grupo de Sistemas Conectados, disse que a Intel estava lançando um novo controlador de gerenciamento de multi-sistema que seria capaz de gerenciar até oito nós de servidores individuais. Intel criou também um projeto de memória DIMM chamado a Pegada Connector Compress, que permite o dobro da memória a ser amontoados em um slot do servidor. ®



Intel perseguições de equipamentos de rede e de armazenamento a frio com Atoms Avoton


Ganhar uma HDTV LED de 40 polegadas Samsung com o Reg e HP!


Os "Avoton" Átomos para servidores e storage arrays e suas variantes "Rangeley" para dispositivos de rede estão fora e Intel está aumentando os recursos e escultura os SKUs para tentar perseguir o low end de servidores, armazenamento e rede para levar algum negócio longe de outros fabricantes de chips.


A Intel tem o que é preciso para perturbar a hegemonia do poder e da MIPS e assumir ARM fornecedores arrivista? Ele pode capturar essas novas cargas de trabalho ou pegá-los com Atom como as empresas saltar Xeon ou Opteron de processadores mais baratos, de menor potência?







Intel certamente pensa assim ea empresa acredita que os novos Atom C2000 série chips demonstrar seu compromisso para se afastar da computação de propósito geral e para o silício, que é mais adaptado para atender as cargas de trabalho específicas.


"O que temos visto é o surgimento de novas aplicações no low-end de computação, aplicativos que são de leves", explicou Diane Bryant, gerente geral do Centro de Intel de Dados e do Grupo de Sistemas Conectado no lançamento para os C2000s Atom em um evento em San Francisco na quarta-feira.


Como exemplo, Bryant apregoadas Memcached, que é uma camada de cache em memória que as empresas colocam em servidores web e entre os seus níveis de banco de dados para acelerar o desempenho de aplicações web dinâmicas. Memória necessidades Memcached, mas não é tão pesado na computação e escamas bem em muitos nós, por isso é apropriado para microservers.


Armazenamento a frio, Bryant disse, é outra carga de trabalho emergente, onde chips como o Atom C2000 pode jogar bem. Neste caso, você precisa de uma quantidade relativamente modesta de computação com lotes de armazenamento em disco anexado ao nó, que é muitas vezes funcionando em um estado de energia muito baixo.


Armazenamento a frio, como o Facebook, que criou-se o uso de processadores Xeon, é projetado para ter uma tração muito baixa potência, custam menos do que uma matriz tradicional JBOD, e têm uma capacidade muito alta. Facebook armazena 300 milhões de fotos por dia, e tem que mantê-los sempre online para seus usuários.


Mas apenas 8 por cento das fotos que os usuários bilhões-mais do Facebook para colocar seus sistemas nunca são acessados ​​novamente, uma vez que eles são enviados. Se a rede social colocar essas imagens em discos tradicionais, que nunca iria fazer um lucro.


Na área de networking, onde a Intel tem sido ansioso para comer quota de mercado durante muitos anos, os dispositivos necessitam frequentemente de "suficientemente boa" performance, explicou Bryant, mas eles também precisam de integração de componentes, de alta densidade, e especificações térmicas mais agressivos.


Data Center GM Diane Bryant e um Avoton microserver

Data Center GM Diane Bryant e um Avoton microserver



"Há uma oportunidade para estas cargas de trabalho leves, com clara infra-estrutura, otimizado", disse Bryant, que acrescentou que a Intel está se movendo de uma fornecedora de processadores de uso geral para um fabricante de dispositivos otimizados system-on-chip que colocam todos os tipos de coisas no chip que, no passado, ter sido fora da embalagem ou da placa-mãe. E, esta segmentação também inclui ligações para cima e para baixo a contagem core, aceleradores, I / O, térmicas, níveis de confiabilidade e outros recursos sobre o Atom SoC como necessários para clientes específicos e pontos de preços precisas.


Bryant caracterizada a oportunidade abordados pelos Atom C2000 fichas como um "mercado de servidores de vários bilhões de entrada", e foi, obviamente, a falar de dólares lá, e não unidades. Quando pressionado para uma caracterização mais precisa do que o mercado durante a sessão de perguntas e respostas, particularmente para microservers, que não tenham exatamente tomou o mercado de assalto após três anos de muita conversa, Bryant fez uma pequena dança.


E ela lembrou a todos que microservers em particular incluem tanto Xeon e processadores Atom, e vai para o futuro previsível, uma vez que alguns clientes precisam núcleos musculoso para suas cargas de trabalho do que até mesmo os novos núcleos Atom Silvermont.


"Nós ainda acreditamos que é um mercado pequeno", disse Bryant de microservers, eo trocadilho não é óbvia assim que tem nele. "Nós absolutamente deseja atingir isso que é importante, adicionalmente, nos anúncios que fizemos hoje é que existem cargas de trabalho que são baixos calcular que ultrapassam microservers -.. Necessidades de armazenamento low-end, as necessidades de redes low-end Esta é uma área , especialmente em redes, onde não tivemos o alcance. "


Assim, Power, MIPS, e outros chips "proprietárias", como a Intel chama coletivamente qualquer coisa que não tem um conjunto de instruções x86 (como se Chipzilla não possuía isso), olhar para fora.


Intel pode ganhar dinheiro vendendo processadores insignificantes? Bryant não ia abrir os livros para nós, mas ela era clara, como outros executivos da Intel ter sido no passado. "Fizemos os números, e é uma lavagem", disse Bryant. "Estamos felizes em vender Xeons high-end, e estamos felizes em vender SoCs Atom. É uma lavagem."


E, parceiros da Intel estão fazendo fila para tentar vender C2000s Atom nas suas diversas mercadorias também. Os dual-core "Centerton" S1200 Atom chips para servidores anunciou há nove meses, teve 20 vitórias projeto, e até agora Avoton e Rangeley já acumulou 51.


Existem 11 diferentes modelos Microserver saindo de nove fabricantes de servidores, de acordo com Bryant, 11 novos arrays de armazenamento a frio, que também vai usar os chips. Intel tem parceiros que criaram 27 dispositivos de rede diferentes, utilizando os C2000s Atom, e dez deles envolvem conversões de outros chips.


Super Micro também está lançando um servidor SMB baseada no Atom C2000 e Tyan criou uma matriz de armazenamento destinado a clientes SMB com base no chip. É 51 no total. Diferentes variantes do C2000 são destinadas a cargas de trabalho específicas, assim:


Alinhando um Atom C2000 SKU para um dispositivo em um mercado

Alinhando um Atom C2000 SKU para um dispositivo em um mercado



Telecom engrenagem fabricante Ericsson é um desses clientes, e estará usando as C2000s átomo em suas opções de lâmina. A empresa tem sido uma parceira com a Intel nos últimos sete anos, passando pedaços de seu equipamento até Core e processadores Xeon e ao mesmo tempo, trocando vários sistemas operacionais para o Linux. E ter compatibilidade conjunto de instruções é um grande negócio para a Ericsson.


E essa é uma das razões que a ARM, poder, MIPS, e outras arquiteturas de chip vai ter alguns problemas com um processador Intel ser agressivo no espaço de redes com processamento bruto para executar aplicações de rede e Ethernet e InfiniBand ASICs para interruptores e lógica de interface de rede para dispositivos que ligar para os interruptores.


No momento, não há chips para servidores ARM de 64 bits, que são o transporte, para fazer comparações aqui é um pouco duvidosa. E Jason Waxman, gerente geral do Grupo de Plataformas nuvem dentro do Data Center e do Grupo de Sistemas Conectados, estava compreensivelmente muito vago sobre onde as C2000s Atom se comparam com chips ARM de 32 bits e de 40 bits que estão disponíveis hoje e de 64-bit chips ARM que estão chegando ao mercado no final deste ano e início do próximo.


"Nós achamos que para a categoria - o que é eficiente a energia, espaço microserver entrada, rede e armazenamento a frio - do ponto de vista de desempenho e um ponto de vista de eficiência energética, é melhor em sala de aula", disse Waxman.


"Isso não é, aliás, a única coisa que as pessoas se preocupam. Eles também se preocupam com todos os conjuntos de recursos empresariais, que achamos que temos completamente entregue, e também compatibilidade com o seu software. Portanto, estamos bastante confiantes sobre sua posição competitiva em relação alternativas ". ®



Átomos Avoton da Intel dar músculo microservers - e recursos Xeon de classe


Ganhar uma HDTV LED de 40 polegadas Samsung com o Reg e HP!


Com o lançamento dos "Avoton" Atom C2000 chips para servidores, a Intel está colocando a sua segunda geração de 64 bits, processadores Atom de classe de servidor para o campo - e que é sem dúvida o primeiro tal Atom que é verdadeiramente projetado para cargas de trabalho de servidores modernos .


A C2000 tem bastante computação glamour, bastante capacidade de memória e memória integrada, periférica e controladores de rede tudo sobre o dado. É verdadeiramente um system-on-a-chip, semelhante aos Atom e ARM SoC que são comuns em telefones, tablets e outros equipamentos portáteis.







Embora a tecnologia embalado em fichas Avoton, e as variantes "Rangeley" que foram otimizadas especificamente para uso em dispositivos de rede, é tão crocante como de costume, talvez a coisa mais importante sobre os C2000s é algo que você não pode ver as especificações .


E aquela coisa, diz Ronak Singhal, engenheiro diretor sênior no Data Center da Intel e do Grupo de Sistemas Conectados, é a cooperação entre o Atom e equipes de desenvolvimento de processadores Xeon. Muitos engenheiros chave trabalhar em ambos os dias, e os chips serão gravados nos mesmos processos mais ou menos ao mesmo tempo indo para a frente, também.


"Estamos tomando as lições de um projeto e aplicá-lo para o outro", disse ele. "Temos vindo a trabalhar em Xeons por um longo tempo, e tudo o que aprendemos sobre potência e desempenho que podemos aplicar para o que estamos fazendo para o nosso Atom SoC para os servidores.


"As coisas que aprendemos em celulares e tablets em nossas SoCs Atom, aqueles podem migrar até Xeon. Estamos aprendendo a aproveitar as tecnologias muito bem, e nós estamos fazendo a polinização cruzada de pessoas também."


Não fique com a ideia errada. A Intel não gostaria de ter uma linha de produtos complicado. Nenhum fornecedor de TI faz. Mas porque os clientes do servidor, armazenamento e rede estão vindo para Chipzilla com necessidades cada vez mais divergentes e eles querem ter processadores, redes e outros aspectos do sistema sintonizado com precisão para cargas de trabalho - e dentro de um orçamento específico, também - Intel tem pouca escolha senão para ser mais flexível do que no passado.


Morre baleado do processador C2000 Avoton

Morre baleado do processador C2000 Avoton



"O que alguém quer do lado do HPC é muito diferente do que um provedor de serviços em nuvem quer do outro lado, e tende a ser muito diferente do que um dispositivo de armazenamento ou um cliente de comunicações quer", explica Singhal.


"Obviamente, nós queremos satisfazer as necessidades de cada um desses clientes, e vamos criar mais e mais direcionado soluções. O desafio para nós é como podemos criar peças que atendem as necessidades de todos os clientes e fazê-lo de tal uma maneira que não há coerência entre as características e fazê-lo de tal forma que é algo que nós podemos realmente construir. Nós não podemos criar soluções personalizadas para todos no mundo. Nós simplesmente não temos a escala para fazer isso ".


O que a Intel pode fazer, no entanto, é fazer um processador Atom respeitável com muitos recursos Xeon-ish e acrescentar que a mistura de Xeon E3, E5 e E7 chips para servidores, bem como para o paralelo coprocessador Xeon Phi e, assim, ter um portfolio mais amplo de CPUs do que tinha há uma década, quando tinha Xeon e Itanium chips que não eram compatíveis com o binário. (Sim, El Reg sabe sobre o ambiente de emulação x86, no início Itaniums).


O chip Avoton é implementado em Trigate processos de cozimento da Intel atuais 22 nanômetros de bolacha, assim como os iminentes "Ivy Bridge-EP" Xeon E5 fichas v2 será. Ele é de 34 milímetros por 28 milímetros de tamanho. Os anteriores "Centerton" chips Atom S1200 foram gravadas em processos de 32 nanômetros. Esse psiquiatra ajuda Intel empinar muito mais sobre o núcleo, e também permite a Intel para criar projetos mais eficientes em termos de energia.


Avoton visa microservers, que são definidos aproximadamente como caixas de soquete único com slot de memória modesto e expansão periférica, bem como um pequeno espaço físico para fazer subir densidade de rack e, em teoria, um baixo custo por unidade de desempenho de mais gordo e mais padrão dois soquetes máquinas x86.


Em outras palavras, foi dirigido aos mesmos clientes que tinham sido remoendo as anteriores "Centerton" S1200s Atom, bem como os iminentes de 64 bits ARM chips para servidores de Calxeda, Advanced Micro Devices, Micro Aplicada, Marvell, e alguns outros que podem saltar para o jogo (possivelmente até mesmo Samsung).


Rangeley é um puxão de Avoton que gira em torno da Tecnologia QuickAssist (QAT) acelerador no chip, que conecta em Plane Kit de Desenvolvimento de Dados da Intel para os fabricantes de equipamentos de rede para suco AES, DES/3DES, Kasumi, RC4, e Snow3G cifras, MD5, SHA1, SHA2 e autenticação AES-XCBC e Diffie-Hellman, RSA, DSA, e ECC criptografia de chave pública. Este coprocessador QAT pode processar cifras em 10Gb/sec. E pelo jeito, nem todos os chips Rangeley terá este acelerador QAT ativado, para ser mais preciso, apenas quatro dos oito SKUs vontade. A razão para isso é que o acelerador QAT é uma substância controlada e que o governo dos EUA tem controles de exportação sobre ele.


Os chips Rangeley também estará disponível para compra a partir Intel por muito mais tempo do que os Avotons, o que é uma exigência de rede e fabricantes de equipamentos de telecomunicações, e também têm reforçado especificações térmicas e confiabilidade que estes clientes precisam, antes de colocar um processador em suas artes. Equipamentos de rede lá fora, no campo em um ambiente muito mais dura do que o centro de dados típico, embora alguns centros de dados estão funcionando mais quente para economizar na conta de energia elétrica e não seria surpreendente ver os servidores robustos usando Rangeley em vez de Avoton para militares e outros clientes. Intel fornecida não cobrar muito de um prémio para Rangeley.



Diagrama de blocos do processador Atom C2000


Diagrama de blocos do processador Atom C2000 (clique para ampliar)



Como a Intel já havia divulgado, o Avoton e Rangeley processadores Atom C2000 são baseados na arquitetura "Silvermont", que traz a execução out-of-order para o núcleo do átomo pela primeira vez e também acaba com a arquitetura de barramento frontal de idade que a Intel morto nos chips Xeon de volta com o "Nehalem" Xeon 5500S em 2009. A arquitetura Silvermont também se destaca em relação ao projeto Saltwell usado nos átomos Centerton anteriores em que o gasoduto instrução tem latências mais baixas e maior rendimento e esportes mais eficientes e preditores filiais precisas e um gasoduto recuperação mais rápida. Os caches L1 e L2 no chip Avoton também têm menores latências e maior largura de banda.


O núcleo Avoton leva a instrução de 64 bits definido a partir dos 2 processadores Core e tece no SSE4.1, SSE4.2, popcnt, PREFETCHW, AES-NI, e algumas outras instruções dos "Westmere-EP" chips Xeon 5600 . Avoton tem 32 KB de cache L1 de dados e 24KB de cache L1 de instruções. Os núcleos são cookie-cuttered para o dado em pares que têm um cache compartilhado 1MB L2. A C2000 tem suporte para VT-x2 virtualização, mas não suporta a implementação HyperThreading da Intel de multithreading simultâneo para apresentar cada núcleo como dois núcleos virtuais para o sistema operacional. Esse apoio VT-x2 permite tabelas estendidas página, IDs de processadores virtuais e convidados irrestrito e uma instrução chamada VMFUNC permite que o código executado em uma partição convidado para invocar hypervisor funções.


O chip tem dois controladores de memória DDR3, o que pode conduzir memória DDR3 normal rodando a 1,5 volts ou memória menor potência rodando a 1,3 volts; cartões de memória rodando a 1.6GHz são suportados.


Cada controlador possui dois slots DIMM, para um máximo de quatro slots com um total de 64GB de memória principal usando 8Gb chips de memória. O controlador de memória tem realmente 38-bit endereçamento físico e 48 bits de endereçamento virtual, caso você esteja se perguntando. (Só porque tem um chip de processamento de 64 bits não significa que ele tem uma memória completa endereçamento de 64 bits.) Os controladores de memória têm reforçado esfregar memória ECC e outras guloseimas para dar-lhe a confiabilidade da memória de classe de servidor. Estes incluem um DDR scrambler, injeção de erro com o endereço / fonte partida, e uma demanda baseada em hardware e motor de patrulha. O chip tem 25.6GB/sec de pico de largura de banda de memória da memória principal e para os caches L2.


O chip Avoton também tem quatro PCI-Express 2.0 - Não 3.0 - controladores com um total de dezesseis faixas de capacidade. Para os tipos de cargas de trabalho que a Intel está perseguindo, 80 pistas rodando a 3,0 velocidades PCI-Express, como dois soquetes Xeon E5 oferece, hoje, é um pouco demais. Parte da razão pela qual os controladores on-chip PCI-Express não tem que trabalhar tão duro é que o chip Avoton tem duas portas SATA 3.0 e quatro portas SATA 2.0 para ligar para armazenamento físico e um controlador Ethernet integrada, que podem ser configuradas como quatro pistas de corrida em cada 1Gb/sec ou 2.5Gb/sec. (El Reg não estava ciente disso, mas interruptor ASICs da Broadcom, Intel, Marvell, Hewlett-Packard, Cisco Systems e apoiar este modo 2.5Gb/sec, de acordo com Brad Burres, um dos designers do chip Avoton). Este controlador Ethernet on-die é baseado em chip da Intel "Powerville" i350 discreto Ethernet controlador, que foi goosed com o apoio 2.5Gb/sec como foi gravado na Avoton die.


O Avoton também tem um controlador para conduzir quatro portas USB 4.0 e um outro controlador para vários dispositivos de I / O legado.


A plataforma Edisonville baseado no Avoton Atom

A plataforma Edisonville baseado no Avoton Atom



De certa forma, uma Avoton SoC é como um servidor de Nehalem-EP bebê implementado em um único die. Ele tem oito núcleos e 64 GB de memória e, provavelmente, tem mais ou menos o mesmo desempenho de um sistema Nehalem mid-line tinha cerca de cinco anos atrás. (Nós vamos descobrir mais quando Intel libera alguns benchmarks.)


Curiosamente, o chip inclui uma interconexão de estilo Nehalem trave chamado de Agente do Sistema Silvermont, ou SSA, que fornece uma interface ponto-a-ponto para os módulos de CPU de dois núcleos e seus caches L2 compartilhado. Este agente sistema mantém a coerência de cache através dos núcleos e também links para o tecido do sistema On-chip Intel. O IOSF foi criado para todos os SoCs da Intel para o cliente e dispositivos de servidor. Ele tem uma tela de alta velocidade para esses controladores PCI-Express 2.0 e, em seguida, um tecido derivado de velocidade média que os outros controladores na ranhura em fieira.


Isso permite que os slots PCI-Express executar desobstruída por outros periféricos. O IOSF suporta cabeçalhos PCI-Express e regras de ordenação para os sistemas operacionais existentes e outros softwares de armazenamento pode fazer uso desse ônibus, sem modificações. Este ônibus IOSF funciona a 400 MHz, e você pode engrenar-lo para economizar energia, se você não precisa dele para correr tão rápido. "Haswell" Core Intel Xeon e os projetos têm IOSF ônibus, e assim fazer suas recentes gerações de chipsets de servidor Xeon.


Os Avoton chips Atom C2000, os preços não incluído

Os Avoton chips Atom C2000, os preços não incluído



Há cinco processadores Avoton destinadas a servidores e oito processadores Rangeley destinadas a equipamentos de rede que são todos baseados no mesmo núcleo. Eles têm dois, quatro ou oito núcleos ativados e, dependendo do modelo executado em 1.7GHz, 2.0GHz ou 2,4 GHz com Turbo Boost da adição de 200MHz ou 300MHz. (Um chip de Rangeley, a uma execução em 2.0GHz, não tem Turbo Boost.) O controlador de quatro portas SATA 2.0 não está habilitado em todos os modelos da Avoton, eo chip C2350 low-end tem apenas dois núcleos, apenas um canal de memória, e sem portas SATA 2.0, e é assim que a Intel é capaz de obter o seu ponto de design térmico até 6 watts.


Eis como o Avoton and chips Rangeley mapear contra o Atom S1200 e os E3 processadores Xeon v3:



Os chips Avoton e Rangeley contra Atom S1200 e Xeon E3 alternativas


Os chips Avoton e Rangeley contra Atom S1200 e Xeon E3 alternativas (clique para ampliar)



Vai ser muito interessante ver como microservers com base nas fichas Avoton comparar com aqueles baseados nos processadores Xeon E3 em termos de desempenho e retorno para os investimentos. Em tempo, a Intel ainda não tinha finalizado preços para o Avoton and chips Rangeley, por isso não podemos fazer qualquer comparação ainda.


O que podemos dizer é que, quando você soma tudo isso, um segmento Avoton pode fazer o dobro do trabalho como um fio Centerton ou pode fazer o mesmo trabalho por cerca de um quinto do consumo de energia. Quando você dimensiona os núcleos acima de dois com Centerton a oito com Avoton, você pode empurrar muito mais trabalho pela Avoton. Dependendo da carga de trabalho, a Avoton top-bin pode fazer algo entre cinco e dez vezes o trabalho de um Centerton. ®