Magic Quadrant for Enterprise Backup / Recovery
Alguns anos atrás, a Microsoft foi tudo gung-ho para tentar assumir Linux no mercado de computação de alta performance, e fez um bom trabalho com o Windows Server 2008 na elaboração de paridade desempenho em cargas de trabalho tradicionais HPC. Mas agora, na esteira da reorganização maciça pelo CEO Steve Ballmer, os esforços de HPC estão sendo enrolado em uma nova equipe Compute Big.
A equipe Compute Big faz parte da nuvem e Grupo de Engenharia da empresa. Big Compute inclui pessoas da empresa e da divisão do Windows Azure Divisão Cloud e da Microsoft, explicou Alex Sutton, que é o gerente de programas de grupo para Big Compute, em um post no blog .
Big Compute é um termo que foi cunhado para ressoar com Big Data, e em muitos casos a interação com ele. E Sutton ofereceu uma definição para mostrar a distinção entre os dois: "Grandes aplicações de computação tipicamente exigem grandes quantidades de poder computacional por horas ou dias em um tempo Alguns de nossos clientes descrever o que eles estão fazendo como HPC, mas outros chamam de análise de risco. , renderização, transcodificação, ou design digital e fabricação. "
Sutton disse que o pacote de HPC para Windows Server vai ser reforçada no futuro, e que a Microsoft estava trabalhando em novos "cenários de computação grandes" para ser executado no Windows Azure nuvem. Um deles, sugeriu Sutton, será para torná-lo mais fácil de acender um cluster local executando o Windows Server e explodiu vários tipos de trabalhar fora para Azure.
"Você vai continuar a ver novas funcionalidades e novos lançamentos de nós em uma base regular", disse Sutton. "A equipe está muito animado com as novas capacidades que estaremos trazendo para os nossos clientes."
Microsoft tem alguns sistemas baseados no Windows no mais recente ranking Top500 , com dois clusters executando o Windows HPC Server 2008 com um combinado de 460,4 teraflops de desempenho sustentado no Linpack Fortran referência e 38.028 núcleos nas duas máquinas.
Microsoft também criou um cluster virtual e executou o teste Linpack nele novamente. Ele é chamado chamado Faenov , em homenagem ao Kyril Faenov, que costumava liderar os esforços de HPC da Microsoft antes de sua morte em Maio de 2012.
Este cluster virtual Azure é baseado em Gen8 servidores modulares de meia largura SL230s da HP, que utilizam Xeon E5-2670 processadores Intel rodando a 2.6GHz. Ele tem 8.064 núcleos e usa QDR InfiniBand de vincular os nós juntos, que tem 151,3 teraflops de glamour Linpack.
O Tsubame 2 supercomputador é tecnicamente uma máquina dual-boot, com o Windows ou Linux em seus nós, mas nos Top500 rankings ela está listada como uma besta Linux com 1,19 petaflops de desempenho Linpack sustentado extraído das 73.279 núcleos Xeon 5600 e 56996 Nvidia Fermi núcleos que ele contém.
Redmond claramente tinha grandes esperanças para invadir bigtime supercomputação com o lançamento do Windows HPC Server 2008 R2 em novembro de 2009, no supercomputação SC09 extravagância. Na época, a Microsoft estava olhando não só para empregos tradicionais HPC como você vê nos laboratórios nacionais e centros de pesquisa, mas ao lado do trabalho de estilo HPC - agora chamado grande calcular - que permitiria que um cluster de servidores para atuar como um acelerador paralelo para Excel 2010.
Microsoft estimou que havia centenas de milhões de "usuários pesados" do Excel que pode se beneficiar de ter um servidor ou cluster livro offload esmaga a. Não está claro como esse esforço garimpou para fora, mas certamente não se tornou comum ter um cluster back-terminando uma planilha do Excel, na medida do El Reg sabe.
Não há edição HPC mais, mas há um pacote de HPC. Nback em dezembro os add-ons para o Windows que fornecem bibliotecas de matemática e um Message Passing Interface (MPI) pilha de comunicação que rivaliza com o desempenho de seus equivalentes Linux. A atualização de dezembro, a quarta versão deste software, adicionado suporte para o Windows Server 2012 para vários tipos de nós do cluster e para o Windows 8 como clientes e nós de estação de trabalho para a colheita do ciclo.
A Microsoft trabalhou com Mellanox Technologies para afinar o Windows para aproveitar melhor Remote Direct Memory Access (RDMA), que permite a nós de servidores em um cluster para acessar a memória principal do outro sem ter que passar pela pilha de rede do sistema operacional.
Isto reduz significativamente a latência nó-a-nó, que está se tornando importante não apenas para cargas de trabalho HPC tradicionais, mas também para as nuvens de infraestrutura, clusters de banco de dados e infra-estrutura de desktop virtual.
Você pode executar RDMA em InfiniBand ou RDMA sobre Convergente Ethernet, ou RoCE, sobre redes Ethernet, e com o protocolo SMB direto para serviço de arquivos, a VDI workloads levar menos glamour do servidor e você pode obter fatias mais hospedados PC com Windows em um servidor físico.
"Performance e escala permanece em nosso coração", explicou Sutton. "Porque nós somos parte do grupo Windows Azure, estamos dirigindo capacidades como baixa latência RDMA networking no tecido. Temos certeza de que os clientes podem confiantemente prestação milhares de núcleos para executar suas tarefas de computação."
"O Windows Azure está evoluindo para fornecer uma variedade de recursos para Big Compute e Big Data. Casos de memória alta ajudar mais aplicativos são executados na nuvem, e estamos ajustando nossa RDMA e pilhas MPI com parceiros agora."
A equipe Compute Big também irá trabalhar com Microsoft Research e seus parceiros na academia e os laboratórios de supercomputação, diz Sutton, mas ele não entrar em detalhes. ®
Nenhum comentário:
Postar um comentário