quarta-feira, 31 de julho de 2013

Esforços da Microsoft HPC morphs em 'Big Compute'


Magic Quadrant for Enterprise Backup / Recovery


Alguns anos atrás, a Microsoft foi tudo gung-ho para tentar assumir Linux no mercado de computação de alta performance, e fez um bom trabalho com o Windows Server 2008 na elaboração de paridade desempenho em cargas de trabalho tradicionais HPC. Mas agora, na esteira da reorganização maciça pelo CEO Steve Ballmer, os esforços de HPC estão sendo enrolado em uma nova equipe Compute Big.


A equipe Compute Big faz parte da nuvem e Grupo de Engenharia da empresa. Big Compute inclui pessoas da empresa e da divisão do Windows Azure Divisão Cloud e da Microsoft, explicou Alex Sutton, que é o gerente de programas de grupo para Big Compute, em um post no blog .


Big Compute é um termo que foi cunhado para ressoar com Big Data, e em muitos casos a interação com ele. E Sutton ofereceu uma definição para mostrar a distinção entre os dois: "Grandes aplicações de computação tipicamente exigem grandes quantidades de poder computacional por horas ou dias em um tempo Alguns de nossos clientes descrever o que eles estão fazendo como HPC, mas outros chamam de análise de risco. , renderização, transcodificação, ou design digital e fabricação. "


Sutton disse que o pacote de HPC para Windows Server vai ser reforçada no futuro, e que a Microsoft estava trabalhando em novos "cenários de computação grandes" para ser executado no Windows Azure nuvem. Um deles, sugeriu Sutton, será para torná-lo mais fácil de acender um cluster local executando o Windows Server e explodiu vários tipos de trabalhar fora para Azure.


"Você vai continuar a ver novas funcionalidades e novos lançamentos de nós em uma base regular", disse Sutton. "A equipe está muito animado com as novas capacidades que estaremos trazendo para os nossos clientes."


Microsoft tem alguns sistemas baseados no Windows no mais recente ranking Top500 , com dois clusters executando o Windows HPC Server 2008 com um combinado de 460,4 teraflops de desempenho sustentado no Linpack Fortran referência e 38.028 núcleos nas duas máquinas.


Microsoft também criou um cluster virtual e executou o teste Linpack nele novamente. Ele é chamado chamado Faenov , em homenagem ao Kyril Faenov, que costumava liderar os esforços de HPC da Microsoft antes de sua morte em Maio de 2012.


Este cluster virtual Azure é baseado em Gen8 servidores modulares de meia largura SL230s da HP, que utilizam Xeon E5-2670 processadores Intel rodando a 2.6GHz. Ele tem 8.064 núcleos e usa QDR InfiniBand de vincular os nós juntos, que tem 151,3 teraflops de glamour Linpack.


O Tsubame 2 supercomputador é tecnicamente uma máquina dual-boot, com o Windows ou Linux em seus nós, mas nos Top500 rankings ela está listada como uma besta Linux com 1,19 petaflops de desempenho Linpack sustentado extraído das 73.279 núcleos Xeon 5600 e 56996 Nvidia Fermi núcleos que ele contém.


Redmond claramente tinha grandes esperanças para invadir bigtime supercomputação com o lançamento do Windows HPC Server 2008 R2 em novembro de 2009, no supercomputação SC09 extravagância. Na época, a Microsoft estava olhando não só para empregos tradicionais HPC como você vê nos laboratórios nacionais e centros de pesquisa, mas ao lado do trabalho de estilo HPC - agora chamado grande calcular - que permitiria que um cluster de servidores para atuar como um acelerador paralelo para Excel 2010.


Microsoft estimou que havia centenas de milhões de "usuários pesados" do Excel que pode se beneficiar de ter um servidor ou cluster livro offload esmaga a. Não está claro como esse esforço garimpou para fora, mas certamente não se tornou comum ter um cluster back-terminando uma planilha do Excel, na medida do El Reg sabe.


Não há edição HPC mais, mas há um pacote de HPC. Nback em dezembro os add-ons para o Windows que fornecem bibliotecas de matemática e um Message Passing Interface (MPI) pilha de comunicação que rivaliza com o desempenho de seus equivalentes Linux. A atualização de dezembro, a quarta versão deste software, adicionado suporte para o Windows Server 2012 para vários tipos de nós do cluster e para o Windows 8 como clientes e nós de estação de trabalho para a colheita do ciclo.


A Microsoft trabalhou com Mellanox Technologies para afinar o Windows para aproveitar melhor Remote Direct Memory Access (RDMA), que permite a nós de servidores em um cluster para acessar a memória principal do outro sem ter que passar pela pilha de rede do sistema operacional.


Isto reduz significativamente a latência nó-a-nó, que está se tornando importante não apenas para cargas de trabalho HPC tradicionais, mas também para as nuvens de infraestrutura, clusters de banco de dados e infra-estrutura de desktop virtual.


Você pode executar RDMA em InfiniBand ou RDMA sobre Convergente Ethernet, ou RoCE, sobre redes Ethernet, e com o protocolo SMB direto para serviço de arquivos, a VDI workloads levar menos glamour do servidor e você pode obter fatias mais hospedados PC com Windows em um servidor físico.


"Performance e escala permanece em nosso coração", explicou Sutton. "Porque nós somos parte do grupo Windows Azure, estamos dirigindo capacidades como baixa latência RDMA networking no tecido. Temos certeza de que os clientes podem confiantemente prestação milhares de núcleos para executar suas tarefas de computação."


"O Windows Azure está evoluindo para fornecer uma variedade de recursos para Big Compute e Big Data. Casos de memória alta ajudar mais aplicativos são executados na nuvem, e estamos ajustando nossa RDMA e pilhas MPI com parceiros agora."


A equipe Compute Big também irá trabalhar com Microsoft Research e seus parceiros na academia e os laboratórios de supercomputação, diz Sutton, mas ele não entrar em detalhes. ®



terça-feira, 30 de julho de 2013

IBM expande Penguin-amoroso lineup servidor Power


Magic Quadrant for Enterprise Backup / Recovery


Big Blue está adicionando à sua linha de servidores Power Systems Linux somente para incluir as máquinas de quatro soquetes com base na sua Power7 + processadores e com um custo menor do que as máquinas plain vanilla que são capazes de também gerir o seu sistema operacional proprietário IBM i AIX Unix ou.


A IBM também está fazendo promessas que ele acabará por oferecer Linux somente caixas grandes de ferro, presumivelmente, também a preços agressivos para frustrar seus rivais de servidores que também têm aspirações de Linux, especialmente para banco de dados e análise de trabalho.


Com o negócio de servidores Unix cair em todos os três jogadores importantes - IBM, Hewlett-Packard e Oracle - e seu sistema operacional proprietário IBM i não gerar vendas, como aconteceu há uma década, a Big Blue está sob pressão de ramp up de vendas em sua linha Power Systems, apelando para os clientes que implantam as cargas de trabalho em Linux.


A empresa ofereceu Linux somente máquinas e desligando ao longo dos anos, e reanimou a idéia , em abril de 2012, com máquinas de rack de dois soquetes (o rack 7R2 e máquinas modulares p24L) com preço agressivo de memória e capacidade de disco e moderadamente melhor estrondo para o dinheirinho em capacidade de processamento e de licenças do sistema operacional Linux.


IBM adicionou uma máquina single-socket (o 7R1), logo em seguida, e agora ele está disparando a quatro soquetes PowerLinux 7R4 para melhor ir atrás do que US $ 10 bilhões no mercado Linux-on-86 que tinha a companhia esfregando suas mãos no primeiro lugar.


É uma tarefa difícil para empurrar + batatas fritas Power7 contra ferro x86, mas não é impossível, dado algumas das vantagens do processador de energia. Fichas de alimentação da IBM tendem a correr um pouco mais quente do que os chips mais ou menos equivalentes, mas eles têm mais linhas e mais de cache por núcleo e historicamente, tomada por tomada, um chip de potência tem sido capaz de fazer mais trabalho do que um processador x86.


No entanto, devido ao elevado custo de Sistemas de Potência de ferro, que foi comercializado para Unix e clientes proprietário usado para pagar um prémio para todos os componentes em seus sistemas, que era difícil montar uma máquina baseada em energia contra uma caixa x86 e vencer.


Assim, com as máquinas PowerLinux, IBM cortar seus preços para levar essa questão em cima da mesa. E agora, a IBM pode se concentrar na conversa sobre o desempenho de Java, banco de dados e análise de cargas de trabalho e mostrar que a Power7 + alternativa pode tomar em um sistema Xeon e torná-económico, bem como sentido técnico.


O Linux somente servidor 7R4 PowerLinux

O Linux somente servidor 7R4 PowerLinux



O novo PowerLinux 7R4 é baseado no mesmo chassi do servidor que é usado com o Power 750 e Power 760 + + máquinas de médio porte, que foram anunciadas em fevereiro. Todas as três máquinas empinar dois inteiro Power7 + processadores em uma única tomada, em vez de um único Power7 eight-core + chip.


A idéia é dar a máquina midrange mais cache e mais controladores de memória contra um número um pouco menor de núcleos ao mesmo tempo, utilizando-se Power7 parcialmente dudded + batatas fritas que têm apenas quatro ou seis núcleos de trabalho.


O Power 750 + tem dois Power7 quatro núcleos + fichas em cada uma de suas órbitas, enquanto o Poder 760 + tem dois chips de seis núcleos. Estes são chamados de módulos de chip dual, ou DCMs, pela IBM.


O PowerLinux 7R4 é baseada na Power 750 + servidor, e, portanto, tem dois Power7 quatro núcleos + batatas fritas, e eles correm em qualquer velocidade de clock 3,5 GHz ou 4GHz. A máquina vem com dois ou quatro soquetes carregados para cima, para um total de 16 ou 32 núcleos.


Ao contrário das máquinas Power Systems regulares, todos os núcleos são ativados na máquina 7R4 PowerLinux quando os clientes adquiri-lo, normalmente, você paga uma taxa de base para a placa do processador e, em seguida, uma taxa per-core para ativar cada elemento de processamento. O sistema de escalas de até 1 TB de memória principal usando 16GB DDR3 memory sticks e tem de ser configurado com pelo menos 128 GB.


O servidor tem seis slots PCI-Express 2.0 para periféricos e um outro de seus GX + vagas + para pendurar gavetas I / O remotos diretamente fora do complexo do processador através de um link modificada 20Gb/sec InfiniBand. Esses GX + + ranhuras são importantes porque o PowerLinux 7R4 só tem seis baias de 2,5 polegadas para armazenamento local.


Você pode deslizar unidades de disco ou memória flash para essas baías e IBM provavelmente poderia ter acrescentado muito mais discos ao chassis 5U se não precisa do fluxo de ar para resfriar o Power7 + processadores e tudo o que a memória principal.


A máquina vem com quatro portas Gigabit Ethernet e virtualização de servidores PowerVM hypervisor empacotado para ele de graça. PowerVM permite até 20 partições lógicas por núcleo, para um total de 640 partições máximo, na máquina 7R4 PowerLinux.


Os alimentos e as velocidades dos três servidores PowerLinux rackable

Os alimentos e as velocidades dos três servidores PowerLinux rackable



A diferença entre o Power 750 + eo PowerLinux 7R4 se resume a um pouco diferentes rótulos deu um tapa na frente, a restrição sobre o sistema operacional pode ser executado nos boxes, eo preço.


Quanto aos sistemas operacionais, você pode colocar o SUSE Linux Enterprise Server 11 SP2 ou superior ou o Red Hat Enterprise Server 6.4 ou posterior para as máquinas, e isso é tudo. Se você tentar carregar AIX ou IBM i, não vai funcionar.


No momento, a Canonical não suporta máquinas baseadas em energia com a distribuição Ubuntu Server, mas Chuck Bryan, líder da equipe de Linux para Power Systems, diz IBM pensa nisso. "Claro, o Ubuntu é tentadora e ele certamente é popular com as empresas de telecomunicações e prestadores de serviços", Bryan admite.


Mas esse mercado e IBM "S chances nele com máquinas à base de energia não é provavelmente suficiente para seduzir Canonical em acrescentando formalmente suporte para máquinas de Power Systems da IBM ou IBM para pagar Canonical para fazê-lo. Ubuntu 4.10 por 6.10 apoiados máquinas baseadas em energia , principalmente porque a Apple Macs foram baseados em energia.


Do Ubuntu 7.04 em diante, as plataformas de energia têm a sua própria distro de Ubuntu 12.10, mas ele só é suportado através da comunidade. A última versão oficialmente suportada do Ubuntu que corria em servidores baseados no poder foi o LTS versão 6.06, e suporte técnico acabou neste lançamento em 2011.


IBM não está interessado em fazer comparações entre os servidores plain vanilla Power Systems e seus equivalentes PowerLinux e informações detalhadas de preços não estavam disponíveis até o momento para fazer um. Mas Bryan disse a El Reg que a diferença de preços entre o Power 750 + eo PowerLinux 7R4 estava prestes a mesma que entre o Power 730 eo PowerLinux 7R2.


O preço de hardware de base para um 16-core PowerLinux 7R2 era cerca de 28 por cento menor do que o mesmo poder da máquina 730 quando as máquinas PowerLinux estreou em abril de 2012. E quando você configurou as caixas com 256GB de memória e 3.6TB de disco, bem como PowerVM e RHEL 6, a caixa PowerLinux foi uma impressionante de 78 por cento mais barato: 168.369 $ para o Power 730 contra 36.844 dólares para o 7R2 PowerLinux.


A comparação IBM quer fazer é entre as máquinas Xeon de quatro soquetes e suas 7R4 PowerLinux e Bryan diz que, como os sistemas se tornam maiores, a diferença de desempenho entre x86 e PowerLinux gap aumenta.


IBM diz que a 7R4 PowerLinux compete com o ferro x86 semelhante

IBM diz que a 7R4 PowerLinux compete com o ferro x86 semelhante



A comparação acima coloca um DL560 Gen8 máquina de quatro soquetes HP ProLiant usando o Xeon E5-4600 processadores e um ProLiant quatro soquetes DL580 G7 usando Xeon E7-4800 processadores contra o 7R4 PowerLinux usando o Power7 3.5GHz mais lento + núcleos. As máquinas x86 têm RHEL 6 em execução no topo da VMware ESXi hypervisor (o vSphere pacote Empresa 5.1, para ser mais preciso) ea Power7 + máquina RHEL rodando sobre PowerVM Enterprise Edition.


O preço é quase idêntica para estas máquinas. Com base publicados SPECjbb2005 testes de benchmark de Java e extrapolando para trás a partir de processadores 4GHz para os chips de 3.5GHz utilizados na comparação acima, a máquina de poder faz cerca de 20 por cento mais trabalho do que qualquer uma das máquinas de quatro soquetes na tabela.


Claro, a Intel está se preparando para lançar "Ivy Bridge-EP" Xeon E5 e "Ivy Bridge-EX" processadores Xeon E7 antes do final deste ano, ea diferença de desempenho, sem dúvida, de perto.


Além de focar na venda ambulante as máquinas PowerLinux para suportar cargas de trabalho Java (incluindo clusters Hadoop, por sinal), a IBM também estará empurrando o seu próprio software Cognos analytics no 7R4 PowerLinux em particular. E, apenas para se divertir e ter uma corrida em alguns clientes da Oracle, a IBM está também amplia agora sua parceria com a EnterpriseDB, a commercializer de banco de dados relacional de código aberto PostgreSQL.


"Em um ambiente onde a Oracle está descontando tão alta quanto 95 por cento fora de seu 47,500 dolares por núcleo, podemos trazer EnterpriseDB em cerca de metade do preço", diz Bryan, falando de uma configuração voltada para o 7R4 PowerLinux.


E, diz Bryan, EnterpriseDB tem feito um monte de trabalho para afinar o motor PostgreSQL para aproveitar os quatro threads por núcleo do POWER7 e Power7 + batatas fritas e também ajustado o banco de dados para contenção de bloqueio e outras questões de ganso o desempenho do banco de dados rodando em ferro Poder. IBM e EnterpriseDB estão trabalhando em alguns benchmarks que pit a combinação do PowerLinux 7R4 e banco de dados Postgres Além disso Advanced Server e estes resultados devem estar disponíveis no próximo mês ou assim.


IBM também quer que os clientes que procuram colocar os seus próprios bancos de dados DB2 ou Informix em Linux para dar a 7R4 PowerLinux um looksee antes de decidir kneejerk para um sistema x86 ou olhando dados homônimo da Oracle. DB2 e Oracle são praticamente equivalentes nos preços para as suas várias edições - especialmente se ambos estão envolvidos no negócio.


O servidor 7R4 PowerLinux estará disponível no dia 23 de agosto. ®



All-flash Hitachi conjunto pega de prata na corrida de referência - por um triz


Magic Quadrant for Enterprise Backup / Recovery


Uma construir todo-flash de série do Hitachi VSP afirmou o segundo maior SPC-1 de referência, o mais alto para um array de armazenamento tradicional.


Os testes SPC-1 aferir o desempenho de matrizes de armazenamento fazendo aleatória ler e escrever operações de I / O típicos de aplicações críticas de negócios. Um VSP all-flash, utilizando a tecnologia Flash acelerada da Hitachi, alcançou 602,219.47 SPC-1 IOPS a um custo / IOPS de US $ 2.86. O custo / IOPS é calculado dividindo o preço lista da configuração testada pelo número de IOPS. Poucos clientes vão pagar preços de lista para essas matrizes de alta qualidade e por isso, embora o número SPC-1 IOPS é um número objetivo estabelecer comparações de desempenho eficazes entre diferentes matrizes, o valor do custo / IOPS não é.


O sistema de armazenamento mais rápido do planeta no SPC-1 Da Kaminario K2 é um array, que utiliza DRAM em vez de flash ou unidades de disco rígido para armazenar dados. Seu preço de tabela é relativamente baixo $ 490,760.00 nos dando um $ 0.40/IOPS figura aparentemente surpreendentes. A Hitachi VSP usado tem um preço de lista de US $ 1,712,620.95.


Um IBM Storwize V7000 [PDF] , usando drives de estado sólido, produziu um número 1.50/IOPS $ 512,043.99 e SPC-1 IOPS.


Temos produzido um gráfico comparando SPC-1 números de IOPS de diferentes matrizes. É uma dor de ler o texto então clique no gráfico para uma versão maior e, portanto, mais legível:


Hitachi VSP conjunto todo-flash SPC-1 do ranking

SPC-1 IOPS rankings ... clique no gráfico para ampliá-las.



Hitachi prefere uma comparação com um top-end IBM DS8870 série [PDF] que fez 451,082.27 SPC-1 IOPS em US $ 10.81/IOPS, o VSP é confortavelmente à frente disso.


Hitachi também contrasta seu resultado VSP com a de um 3PAR P10000 série HP V8000 [PDF] que marcou 450,212.68 SPC-1 IOPS e US $ 6.59/IOPS. Não desanime embora - HP OEMs a partir Hitachi VSP. ®



segunda-feira, 29 de julho de 2013

Intel quer reconstruir os centros de dados inteiros com seus chips e tubos


Requisitos Checklist para escolher um Cloud Backup e Recovery Service Provider


Análise Se a Intel realmente quisesse, poderia construir toda a infra-estrutura do centro de dados com praticamente todos os componentes necessários exceto as unidades de disco, memória principal e sistemas operacionais para servidores, storage e switches. E com um estiramento, seu Wind River Linux provavelmente poderia cobrir essa última parte.


Mas esse não é o plano de Chipzilla para a casa de vidro. Em vez disso, a Intel quer vender um conjunto cada vez mais diversificado de componentes para quem montar engrenagem e assim dobrar sua receita e lucros do centro de dados.


Isso, em poucas palavras, é o plano da Intel para re-arquiteto do centro de dados, divulgados na semana passada em San Francisco pelo alto escalão em seu Data Center e do Grupo de Sistemas Conectados. O plano definido pelo gerente geral anterior do grupo, Kirk Skaugen, era dobrar o faturamento para a parte da Intel que vende batatas fritas, chipsets, placas-mãe e outros componentes destinados a servidores, storages e equipamentos de rede para US $ 20 bilhões até 2015 .


Ficou claro que a rede e armazenamento iria jogar pesadamente nesses esquemas. E, como se vê, assim que faz um redesenho fundamental de como os elementos de computação, armazenamento e redes são organizadas.


Em um nível, a Intel está se movendo para integrar mais e mais componentes em seus processadores de servidor para criar os chamados System-on-Chip (SoC), com um nível de integração de componentes que é mais típico do que a encontrada em laptops, tablets, e smartphones. Essa integração pode reduzir o consumo de energia.


Conseguir um sinal de fora de um chip e para outro e de volta é muito caro em termos de uso de energia, mas passando um sinal através de um único chip ou dentro de um pacote com vários chips leva muito menos suco. A integração que vem com SoC também dá à Intel (e de outros fornecedores de tais componentes, e existem muitos, particularmente aqueles divulgam unidades baseadas em processadores ARM) um alvo mais fácil para aterrar em software, porque o componente da matriz é muito reduzida em relação ao pondo indivíduo componentes em uma placa de circuito impresso e ligando-os.


Ironicamente, a Intel está explodindo o servidor; dividi-lo em componentes modulares para computação / memória, rede e outros tipos de I / O e armazenamento, essencialmente, a conversão de um grupo de servidores em um rack em uma piscina de computação, armazenamento e rede.


O rack, nesta nova visão, torna-se o novo servidor, e do centro de dados é o novo rack. O novo centro de dados será. . . multirregional e invisivelmente assim, presumo. (Ou talvez SkyNet ou os Cylons. É difícil dizer.)


Intel data center principal Diane Bryant

Intel data center principal Diane Bryant



"Estamos no meio de uma grande transformação na maneira que é fundamentalmente usado", Diane Bryant, gerente geral do Data Center da Intel e do Grupo de Sistemas Conectados, disse durante seu discurso, que delineou as tendências tecnológicas mais amplas que a Intel vê chegando e como ele vai reagir a eles com diferentes tecnologias.


Nos primeiros anos dos centros de dados - quando eles foram chamados de casas de vidro por causa da maneira reverente em que mainframes e minicomputadores foram tratados - a idéia foi tudo sobre automatização de processos de back-end da empresa que foram tratadas por pessoas até que ponto o uso dessas novas de moda usando sistemas e seus softwares.


Essa transformação não começou na década de 1990, como Bryant sugeriu em sua apresentação, mas na década de 1960 com vários mainframes em grandes empresas e acelerou a um conjunto mais amplo de usuários menores através do minicomputador e revoluções Unix na década de 1980 e 1990.


À medida que os anos 1990 foram chegando ao fim, a empresa de software de planejamento integrado de recursos, que movimentou não apenas as operações de back-office, tais como contabilidade, folha de pagamento, e tal, mas também da cadeia de abastecimento, armazenagem, distribuição grossista e gestão de clientes, tornou-se a norma em muitos empresas, que até então tinha feito um monte de codificação de aplicações caseiras. Esta mudança para aplicativos ERP é a principal razão pela qual o mercado de software empresarial é aproximadamente duas vezes maior que o mercado de hardware da empresa.


Pela década de 2000, explicou Bryant, com a comercialização da Internet, a grande mudança foi a redução de custos na empresa, obtendo todos conectados. Essa conectividade barato ea onipresença dos protocolos Internet permitidos para redes públicas e redes privadas de vincular de forma integrada, para que as empresas poderiam ligar para seus parceiros e seus clientes, fazendo coisas como vendas e marketing on-line e dirigir o custo de fazer negócios.


Aqui na década de 2010, Bryant diz que estamos no início de uma era "human-centric" da computação, que é focada na prestação de serviços rápida através de computação em nuvem e dispositivos de estilo inumeráveis. Isto não é de mainframe screen-scraping e aplicativos Unix para rodar em um desktop do Windows.


"TI não é mais apoiar o negócio. Na verdade é o negócio. Ele está sendo usado para entregar os resultados de negócios", declarou Bryant.


"Este é o novo ciclo virtuoso de computação, e para ser honesto, isso é o que nos dá uma enorme confiança em nosso centro de negócios de dados Como mais e mais dispositivos vêm online -. Haverá 14 bilhões de dispositivos até 2016, com 5 bilhões de ser consumidor dispositivos e 9.000 milhões, sendo dispositivos machine-to-machine - eles exigem uma conexão de volta para o centro de dados ".


Intel estima que para cada 600 telefones que estão ligados, no valor da capacidade de um servidor inteiro tem que ser demitido para cima (e espalhados pela Internet) para mantê-lo alimentado. Cada 120 tablets exige a pena de capacidade de outro servidor, e assim que faz cada 20 sinais digitais e cada 12 câmeras de vigilância. Armazenamento e capacidade de rede terá de ser adicionado a esses servidores, é claro.


A outra coisa que tem Intel animado sobre seu negócio de centro de dados é que a penetração dos principais novas tecnologias é muito baixo, assim como o uso de mainframes e minicomputadores era exótico na década de 1960 e 1970.


Bryant disse que com base em suas próprias pesquisas de clientes corporativos durante o primeiro trimestre, apenas 6 por cento das empresas estavam usando grandes ferramentas de análise de dados para tomar decisões, mas 85 por cento deles sabia que eles têm de fazê-lo.


Na frente da nuvem, uma pesquisa IDC do ano passado mostra apenas 9 por cento das cargas de trabalho empresariais estão na nuvem pública e pesquisa de Intersect360 de 2011 mostra que apenas 12 por cento das empresas de produção nos estados de uso de clusters de servidor Estados e design distribuído e software de simulação para criar, testar e melhorar seus produtos. E isso é com 82 por cento dos fabricantes dizendo que eles sabem que podem fazer melhor se eles instalaram clusters e de software.


O truque para o centro de dados é permitir que os sistemas de escala e de fazê-lo a baixo custo, e é isso que muitas das tecnologias que Bryant e sua equipe visualizado eram tudo.


Como um exemplo de como a Intel tem ajudado a impulsionar essas transformações antes, Bryant disse que quando a Intel entrou na raquete supercomputador em 1997, um ano depois de entrar formalmente o negócio de servidor, ele foi dominado por vários sistemas caros vetoriais e escalar com memória proprietária ou sistema interliga .


E desde aquela época, como o processador x86 passou a dominar o Top 500 sistemas de supercomputação do mundo, os supercomputadores têm visto um aumento de 1.500 X no desempenho com um aumento de apenas 4X no consumo de energia, houve uma redução de 100 vezes o custo de o processamento de uma operação de ponto flutuante ao longo desse tempo.


Uma década atrás, os processadores em grande parte parado ficando mais rápido, embora as unidades matemáticas são cada vez mais amplo o tempo todo, eo número de núcleos em um soquete e sistemas em um cluster está a aumentar progressivamente.


Intel está se dirigindo mais cargas de trabalho no centro de dados e na borda da rede

Intel está se dirigindo mais cargas de trabalho no centro de dados e na borda da rede



A crescente diversidade de cargas de trabalho que a Intel está perseguindo é uma alavanca para o crescimento do negócio de data center da Intel, e que é separado do ciclo virtuoso entre a proliferação de dispositivos e entrega de aplicativos on-line e-to-machine máquina de comunicação que irá conduzir demandas de capacidade em centros de dados.


Mas há questões que têm de ser confrontados, ea principal delas é que a infra-estrutura de TI ainda é muito frágil e ainda precisa de muita interação humana. Nenhum destes é bom para uma operação que está sendo executado em hiperescala.


"Nós podemos resolver estes problemas e podemos fazê-lo por re-arquitetura do centro de dados, e que é precisamente o nosso plano", disse Bryant. "Nós vamos mover a infra-estrutura de estático para dinâmico, vamos fazê-lo com software, e vamos fazê-lo para os servidores, redes e armazenamento."


Na frente do servidor, o que a Intel quer fazer é quebrar a computação, memória, armazenamento e I / O elementos em um sistema livre de um ao outro e eles reaggregate-los na mosca em piscinas de capacidade que os aplicativos podem exigir fatias de como necessário .


Em alguns casos, os aplicativos serão executados em bare metal e levar pedaços inteiros de CPU e memória, e em outros casos eles serão executados em cima de hypervisors de virtualização de servidores. (E, se a Intel já tem tempo para comprar ScaleMP, aplicações podem se estender por vários nós de servidores físicos e olhar uma imagem de sistema único para um sistema operacional como.)


A partilha de memória e de computação não é tão separados como este gráfico indica - ainda

A partilha de memória e de computação não é tão separados como este gráfico indica - ainda



No momento, uma aplicação é limitada ao que está dentro da caixa, explicou Bryant, mas para ser muito justo de aplicações têm sido desde projetado para escalar horizontalmente, e muitas vezes na Web, aplicativos e camadas de banco de dados de forma independente um do outro.


O que pode ser dito sobre os servidores, então, é que a configuração de um servidor físico está bloqueado em pedra, e, muitas vezes, se você quiser mais memória ou I / O, você tem que atualizar para um novo processador, mesmo se você não precisa de processamento extra capacidade.


Isso pode ser bom para a empresa que compra um servidor a cada três, quatro, ou cinco anos para dobrar debaixo de uma mesa ou esconder em um armário, mas não vai funcionar para um operador de centro de dados hiperescala com dezenas a centenas de milhares de servidores em um data center.


"Este é um movimento em direção a um verdadeiro servidor de software-defined", disse Bryant.


(E agora estamos oficialmente ficando cansado de todos a falar de um qualquer coisa "definido por software", mesmo que a descrição é verdadeira.)


O mesmo tipo de administração e capacidade questões de planejamento que têm assolado os servidores ao longo de décadas - Bryant cita dados da IDC, diz que a utilização média ainda está abaixo dos 50 por cento, depois de muitos anos de projetos de virtualização - são tão ruins em armazenamento.


Por um lado, existem muitos tipos de armazenamento no data center - bloco, arquivo e objeto - com algumas aplicações que querem o seu armazenamento localmente nos servidores em que eles fazem da computação (acho Hadoop) e outros, não se importando muito se os dados está em uma rede de área de armazenamento ou sistema de arquivos de rede (acho que aplicações de banco de dados).


A natureza do trabalho de computação deve conduzir a escolha do tipo de sistema de armazenamento, e assim deve o quão quente, quente, frio ou que os dados são. E os problemas são mais complexos do que apenas a criação de uma SAN e ligar tudo nele.


Esqueça o SAN, armazenamento vai ser uma mistura de local e central

Esqueça o SAN, armazenamento vai ser uma mistura de local e central



O grande problema, explicou Bryant, é que cada desenvolvedor de aplicativos nunca quer de armazenamento para ser um gargalo para a sua aplicação. E então o que eles fazem? Eles excesso de provisão como um louco.


"Há um enorme descompasso entre o que é solicitado eo que é necessário", disse Bryant, referindo-se a seus próprios anos como CIO da própria Intel. "Precisamos chegar a um lugar onde o aplicativo solicita o armazenamento de que necessita, se é objeto, arquivo ou bloco."


Intel já escalou seus conceituais switches físicos e virtuais no Open Compute Summit, em abril, e Bryant falou sobre as principais tecnologias que vão para essas caixas.


A notícia na semana passada no Re-arquitetura do evento Data Center foi que a Intel foi-se colocando-definidos por software de rede (SDN) switches e ferramentas de gestão em piloto em seus próprios centros de dados. Não está claro se a Intel está usando interruptores comerciais com base na sua própria "Trail Seacliff" switch físico e "Trail Sunrise" switch virtual ou se tem uma parceria com um de seus clientes que está usando chippery da Intel para fazer os switches.


Intel quer dados e fatia e automatizar os interruptores como a indústria tem feito com os servidores

Intel quer dados e fatia e automatizar os interruptores como a indústria tem feito com os servidores



Dois anos atrás, a Intel definir suas vistas ajustadas em redes de data center, e adquiriu a Fulcrum Microsystems Ethernet negócio de chips eo chip InfiniBand QLogic, switch e negócios adaptador para ser um jogador nesses dois espaços.


Em menor grau, Chipzilla comprou o "Aries" Dragonfly interconexão de Cray para ter algo para vender-se na estratosfera, onde as máquinas de supercomputação escalar para centenas de racks. Mas Carneiro não é imediatamente aplicável para o centro de dados, mesmo que não apresentar algumas possibilidades interessantes.


A Intel também tem aspirações em redes fora do centro de dados, disse Bryant. Especificamente, a Intel quer começar sua Atom e processadores Xeon em estações rádio-base na margem de redes de telecomunicações para as estações rádio-base podem executar aplicativos e dados em cache, entre outras coisas.


"Por anos, temos falado sobre telecomunicações como sendo o tubo idiota, e isso fundamentalmente elimina essa preocupação com a borda sem fio", disse Bryant. "Isso só muda o jogo."



sexta-feira, 26 de julho de 2013

Equipes NEC tag com HP em servidores high-end x86


Nuvem de armazenamento: Menor custo e aumentar o tempo de atividade


Japonês TI fornecedor NEC expandiu sua aliança tecnológica com a HP para cobrir seus futuros sistemas x86 Odyssey projeto e também para chutar um pouco de ajuda com os esforços de desenvolvimento e testes.


Isso não é surpresa. Como HP, NEC ainda tem um negócio vendendo servidores baseados em Itanium que executam o HP-UX variante do Unix, mas precisa se expandir para além das ofertas que quer ficar em linha com a HP, que está trabalhando no aumento dos procedimentos de Linux e Windows e funcionando los em estilo Superdome servidores Xeon E7 como uma alternativa.


Todas as grandes empresas de servidores Unix estão vendo clientes redução de marcha em investimentos na de 25 a 35 por cento gama mais quartos para os últimos anos, e isso é bastante alarmante. Mas a HP não vai puxar o plugue em breve no HP-UX ou a sua integridade e Superdome 2 linhas e, portanto, NEC vai ser capaz de obter caixas rebadged de Meg grande, e, ao mesmo tempo que a localização para HP-UX para o mercado japonês e tem seu próprio valor acrescenta. Então, HP-UX na integridade e na Superdome 2 máquinas da HP ou da máquina NX7700i da NEC será em torno de muitos anos, facilmente para a próxima década.


No entanto, o mecanismo que será maneira aí disponível no final desta década, pode ser bastante longo do dente, na verdade.


Os processadores "Kittson" Itanium, o que todos esperavam para sair em 2014 ou assim, são quase certamente o último da linha de chips Itanium, embora a HP ea Intel não vai admitir isso. E se você quer ser honesto sobre isso, o oito-core "Poulson" Itanium 9500 processadores lançados em novembro de 2012 está muito parecido com o último da linha Itanium, mais ou menos.


O plano final do ano passado era colocar o Kittson Itanium em uma tomada comum com o processador Xeon E7 e implementar Kittson em um processo de 22 nanômetros, como todos os outros Atom e chips para servidores Xeon será gravado neste ano, e que seria verdadeiramente um novo processador. Mas, em janeiro deste ano, a Intel voltou atrás nesses planos , e agora está dizendo que Kittson será tomada compatível com as Itaniums existentes e ser feita com os mesmos processos de 32nm usados ​​para fazer os Itaniums Poulson.


Em outras palavras, o chip Kittson é realmente um chip + Poulson.


Perante tudo isto, NEC quer ter um caminho de atualização para seus próprios clientes de servidores Itanium executando HP-UX, e isso significa fazer bom com a HP para que ele ainda pode obter peças em caixas Itanium e alinhando-se com o Projeto Odyssey plano que HP chocou quase há dois anos.


De acordo com esse plano, a HP está cozinhando variantes Xeon de sua integridade e Superdome 2 máquinas. A máquina de Integridade de codinome "HydraLynx" foi originalmente previsto para este ano, mas que está à procura duvidosa porque a Intel não é esperado para chegar "Ivy Bridge-EX" em processadores Xeon E7 parceiro OEM mãos até o final do ano. Isso significa que OEMs como a HP não pode obtê-los qualificados e certificados em seu ferro até início do próximo ano, na melhor das hipóteses.


As máquinas de integridade foram lançados inicialmente em abril de 2010 e usar processadores Itanium da Intel e chipset "Boxboro", que funciona tanto com Itanium e Xeon E7 processadores, e eles usam o QuickPath Interconnect (QPI), links para tomar de dois a oito soquetes e chicotear-los juntos em uma única imagem do sistema.


A outra caixa Odyssey é genericamente chamado de "Dragonhawk", e basicamente leva o servidor Superdome 2 pás e SX3000 chipset caseiros da HP para fazer uma caixa de lâmina maior que se estende por 8, 16 ou 32 soquetes. Ele realmente bustos fora do topo da BladeSystem c7000 com uma lâmina de 10U wonking que implementa uma barra de interconexão caseiros que tem o seu patrimônio em supercomputadores convexa e antes PA-RISC e Itanium máquinas Superdome.


HP levantou o véu um pouco na primeira instanciação do sistema Dragonhawk em maio em um sistema de codinome "Kraken" e afinado como uma caixa especialmente para a execução do SAP HANA in-memory database. Esta caixa de Kraken vai usar os iminentes Xeon E7 chips baseados na arquitetura Ivy, e terá até 12 TB de memória em uma única imagem.


Com esse pano de fundo, chegamos agora à expansão da aliança HP-NEC.


As duas empresas vão continuar a sua cooperação com o sistema operacional HP-UX, que começou em 1995, ea atual safra de ferro baseados em Itanium. A NEC também continuará recebendo "clássico" de ferro BladeSystem também. NEC faz sua própria Express5800 rack e servidores em torre e não tem necessidade de sócio para as máquinas ProLiant equivalentes da HP. Mas, olhando para frente, o negócio agora inclui os futuros sistemas Odyssey projeto, explica Jim Ganthier, vice-presidente de marketing da divisão de servidores da HP.


A aliança, que abrange a região da Ásia / Pacífico e Japão, verá NEC e HP colaborando em como trazer as capacidades de missão crítica do sistema operacional HP-UX e as plataformas Itanium para as caixas Odyssey rodando Linux e Windows.


Obviamente, com o Linux ser uma plataforma open source, é mais fácil para criar add-on software de alta disponibilidade para ele, bem como contribuir para o kernel do Linux que torná-lo mais robusto.


HP não foi clara sobre o que gostaria de ver adicionado ao Windows ou como ele planeja trabalhar com a Microsoft para fazer isso, mas agora NEC está ajudando no esforço. As empresas estão se alinhando sua engenharia, técnicos e equipes de testes para endurecer Linux e Windows como parte do acordo de re-aumentou.


Ganthier não era a liberdade de dizer que a relação de produção seria entre HP e NEC nas futuras caixas Odyssey, mas ele disse que, no passado, a HP tem fornecido plataformas de servidor de base, e NEC, em seguida, colocar em seus próprios acessórios, deu um tapa em seu próprios emblemas, e vendeu-os.


NEC poderia, é claro, criaram seus próprios servidores Express5800 usando um derivado de sua "Azuza" e chipsets "Asama", que foram usadas para criar 32 soquetes Itanium 2 máquinas de uma década atrás. NEC vende oito soquetes Express5800 máquinas baseadas no chipset Boxboro e "Westmere-EX" Xeon E7 processadores da Intel, mas estes não serão dimensionados na medida em que as caixas Odyssey da HP.


Os termos financeiros da aliança não foram divulgados, mas as probabilidades favorecem não havendo dinheiro a ser trocado em tudo. HP é sem dúvida feliz por ter NEC vendendo seus produtos na região da APJ e ajudando a fazer parte do trabalho de regionalização software. ®



quinta-feira, 25 de julho de 2013

Microsoft promete impulso Linux para Windows Server e do Centro R2 duo


Nuvem de armazenamento: Menor custo e aumentar o tempo de atividade


Microsoft prometeu o Windows Server 2012 R2 e System Center 2012 R2 será o "melhor" plataforma para executar Linux na nuvem.


Lojas da Microsoft partida da fé e executando o Linux vai ter uma experiência "consistente" em pé de igualdade com os seus amados do Windows, Redmond prometido.


A gigante do software fez a promessa para persuadir Linux amantes de construção de nuvem para usar o Windows e Hyper-V, ao invés de ir all-in no Linux com a Canonical ou host Linux com VMware.


Vice-presidente corporativo do Windows Server e System Center Brad Anderson disse em um post no blog que a Microsoft está "empenhada em ser seu parceiro em nuvem".


Isso significa que o Windows Server 2012 R2 irá rodar o Linux sem problemas com "suporte end-to-end que é versátil, flexível e interoperável em qualquer ambiente, com qualquer sistema operacional guest".


As próximas duas R2s contará com correções, bem como novas funcionalidades que irão "enfrentar várias questões-chave necessários para trazer o Linux para a mesma base como o Windows", quando em execução no Hyper-V, o motor de virtualização da Microsoft.


Você também será capaz de fazer backup e gerenciar instâncias do Linux viver, sem levá-los off-line, diz Anderson.


Server da Microsoft e da equipe Tools fez a promessa, enquanto a alimentação fora recursos Linux-friendly sobre a próxima Server e System Center.


Eric Chapple, sócio gerente do programa de grupo do Microsoft Windows Server e System Center equipe, ecoou a mensagem do Anderson:



Para oferecer aos nossos clientes uma infra-estrutura de nuvem, um conjunto de ferramentas de gerenciamento do sistema, e um conjunto de paradigmas para transformar seu data center com a nuvem, sabíamos que precisávamos para garantir que o Windows é a melhor plataforma para executar cargas de trabalho Linux, bem como aberto componentes de origem. Com o Windows Server 2012 R2, System Center 2012 R2, e na nuvem pública com o Windows Azure, os profissionais de TI têm agora essa garantia.



Microsoft hospitalidade


Windows Server 2012 R2 vai ver as atualizações para Linux Integration Services (LIS) que permitem adicionar e remover automaticamente convidados Linux; permitem que você espalhar as interrupções em mais de uma CPU virtual, e permitem que você execute despejos de memória durante a execução no Hyper-V - todos os recursos disponíveis para Windows - enquanto o desempenho de vídeo 2D supostamente foi melhorada para corrigir problemas anteriores de desempenho.


"Daqui para frente, a Microsoft vai continuar o ciclo de melhorar os Serviços de Integração Linux para combinar novos recursos do Hyper-V", disse Chapple.


As atualizações de estender para o Red Hat Enterprise Linux 5.9 e 6.4, SuSE Linux Enterprise Server 11 SP2 e SP3, Ubuntu Server 1204, 12.10 e 13.04, CentOS 5.9 e 6.4, o Oracle Linux 6.4 e GPU Debian / Linux 7.0.


System Center 2012 R2, por sua vez, adiciona a capacidade de fazer backup do Linux VMs hóspedes em execução no Hyper-V, bem como a capacidade de tirar um instantâneo do sistema de arquivos consistente da VM para backup. Isso significa buffers do sistema de arquivos Linux são automaticamente eliminadas através da integração com as LIS para o Hyper-V. Chapple disse que isso era análoga à consistência aplicação via gravadores VSS que estão disponíveis para VMs do Windows.


Em outra parte, o blog requentada trabalho passado que o servidor da Microsoft e da equipe Tools tem feito para melhorar o desempenho do software open-source, como o apoio do PHP no projeto do Windows e trabalhar com a comunidade Linux no Hyper-V motoristas.


OK, você não pode ser fiel. Mas você pode se sentar e conversar com a gente?


Suporte para suítes de gerenciamento de servidor Windows open-source e Linux e tem sido um longo caminho para a Microsoft, um caminho que começou a descer com relutância, mas tornou-se realista sobre a necessidade de completar.


Desde o final dos anos noventa para o início da década de 2000, a Microsoft fez campanha vigorosa contra o Linux e open source, com uma campanha de "obter os fatos", que arremessou TCO e uma boa quantidade de FUD a crescente concorrência.


Mas os clientes não responderam - muito pelo contrário - lojas fiéis do Windows começou a correr Linux, além do Windows. Além disso, os clientes não são da Microsoft começou a pensar seriamente em ir Linux em vez do Windows.


Microsoft foi confrontado com a realização gritante: trabalhar com Linux e open source ou ver os clientes existentes e novos perdidos para rivais plataforma para sempre.


Conversão da empresa começou em 2005, com uma demonstração de Red Hat Enterprise Advanced Server 3 rodando em beta SP1 do Windows Virtual Server na Microsoft Management Summit desse ano. A jocoso presidente-executivo Steve Ballmer na mão durante o MMS demmo comentou : "Tanto quanto isso machuca os meus olhos, eu sei que é um recurso importante para a tecnologia de servidor virtual para nossos clientes."


Felizmente para a Microsoft, o inimigo não é mais fonte de Linux ou aberto. Armado com Hyper-V, o inimigo é o VMware, e agora combina com a Microsoft para ter a aplicação livre e seus rivais OS funcionar sem problemas em conjunto dentro do Windows.


Revelados pela primeira vez em junho de TechEd como parte da onda da Microsoft "Blue" de atualizações, o par R2 são devidos antes do final do ano de 2013. ®



quarta-feira, 24 de julho de 2013

Flash laje laboratório tagarela: NVMe-friendly PCIe manchado em cartões de HGST


Requisitos Checklist para escolher um Cloud Backup e Recovery Service Provider


Blocos e arquivos Samsung e Micron anunciaram PCIe de flash cartões de memória compatíveis com NVMe - e agora hardware da WD subsidiária HGST foi certificada como conformant com a especificação.


O surgimento dos três sinais de produtos que a nova tecnologia especificação NVMe está se tornando a forma padrão de software para controlar e acessar de forma eficiente drives de estado sólido PCIe-conectados: a norma permite que o sistema operacional hospedeiro para executar um motorista que gerencia todos os dispositivos compatíveis com NVMe montada. A alternativa é carregar vários drivers específicos para partes específicas de hardware flash, que é uma bagunça.


A HGST e cartões Samsung receberam os polegares para cima pela Universidade de interoperabilidade laboratório de New Hampshire, em maio. Mas HGST não anunciou quaisquer produtos flash PCIe com ou sem compatibilidade NVMe.


Ela tem uma linha de SAS de interface 12Gbit / s Ultrastar drives de estado sólido , no entanto. Ele também está recebendo o VeloBit tecnologia flash HyperCache cache como resultado da WD VeloBit compra .


Em cima disso HGST terá software cache do STEC e linha de Kronos e S1120 PCIe produtos, se a aquisição Stec da WD vai em frente. Os resultados de laboratório indicam que HGST já tem um produto cartão PCIe flash com uma interface NVMe. A adição de tecnologias VeloBit STEC e fará que a oferta, quando se vai à venda, ainda mais forte.


Podemos certamente ansiosos para Intel, LSI e SanDisk hardware NVMe-conformant em breve, todos os três estão na organização do NVM Express e tem PCIe interesses Flash Card. Assim também é a EMC e é bem provável que seu produto VFCache se tornará NVMe-conforme. PCIe de flash fornecedores vão se acotovelando para chamar a atenção dos clientes. ®



terça-feira, 23 de julho de 2013

Querido diário, novos modelos girando, $ 630m da WD, v bom dia - Seagate


Nuvem de armazenamento: Menor custo e aumentar o tempo de atividade


Seagate anunciou sua unidade empresarial de 2,5 polegadas com esteróides em flash adicionado já está disponível para todos. IBM usa esse disco híbrido em seus servidores System x.


Enquanto isso, a Seagate também ganhou $ 630m da rival Western Digital em uma batalha sobre alegações WD abusado segredos comerciais da Seagate: um árbitro premiado Seagate a soma nove dígitos em 2011, mas um tribunal distrital joguei fora. Na quinta-feira [ PDF ], o Tribunal de Apelações em Minnesota reverteu a decisão. Os advogados da WD pode tentar derrubar decisão desta semana, é uma quantidade enorme de dinheiro.


Hoje, o Seagate está chamando o seu novo produto a empresa Turbo Solid-State Drive híbrido (sshd). Seu disco de 600GB gira a 10.000 RPM e tem um cache de flash de 16 GB onboard. A empresa alega que, "com base em testes de desempenho preliminar [PDF] o uso de ferramentas de benchmarking do sistema padrão, uma versão 10000 RPM apresenta IOPS sobre 2X melhor do que um 600GB 10.000 RPM disco rígido padrão [PDF] ". Isso é 1,027.76 SPC-1C IOPS contra 448,46 IOPS, 2,3 vezes mais rápido. Ambas as unidades no teste usado 10.000 RPM da Seagate, 6Gbit / s SAS, 600GB de 2,5 em componentes da unidade de disco.


Seagate também afirma que sua empresa Turbo SSHD é até 3x mais rápido do que 15.000 unidades RPM padrão de acesso a dados aleatórios.


Ainda não vi nem ouvi falar de discos híbridos de classe empresarial similares de Toshiba ou WD-owned HGST. Assista a este espaço.


Disk-drive vazamento "roteiro"


Por último, a comunidade de armazenamento on-line Myce afirma que tem suas mãos em uma unidade de gráfico roteiro Seagate, embora o diagrama parece ser cerca de seis meses de idade.


Existem três categorias de unidades corporativas cobertas, performance, capacidade e valor, de acordo com o gráfico que vazou.


Na área de desempenho, o Cheetah 15K.7 15.000 RPM unidade de 3,5 polegadas dura até o final do ano, mas sem atualizações de produtos programados. Em seguida, o foco muda completamente para discos de 2,5 polegadas com a Enterprise de hoje Turbo SSHD identificável como o Ironman codinome. Há também um produto 6Gbit 1,2 TB / s SAS, que é o produto de disco 10K.7 Enterprise Performance.


Na área de capacitação da empresa, temos uma constelação de 2,5 polegadas 2TB devido no final de 2014, e um Constellation 6TB de 3,5 na unidade previsto para meados de 2014. Parece haver um Constellation intervir ES.3 Megalodon devido em meio-de-final de 2013 e em cena até a aparência do carro 6TB. Essa é, possivelmente, o Constellation ES.3 atual ou mais recente produto TeraScale, tanto no 4TB


O setor tem um valor Constellation 5TB CS também previsto para meados de 2014, antes da unidade 6 TB chega.


É relatado que a Seagate se recusou a comentar sobre o gráfico, a prática normal em tais situações. ®