quarta-feira, 26 de março de 2014

Por trás do Facebook Abrir computação folhas papa 'Friends' para criar empresa de armazenamento óptico


4 razões para terceirizar seu DNS


Facebook Open Compute guru Frank Frankovsky está deixando para fundar uma startup de armazenamento óptico com foco em dados frios.


Frankovsky é o homem que transformou o Facebook em um comprador caixa barebones mercadoria de servidores, que ele e sua equipe projetados e disponibilizados a todos através do Projeto Open Compute. O projeto foi anunciado em 2011 e já teria salvo Facebook US $ 1,2 bilhão em custos de hardware.







No Facebook, ele foi vice-presidente de design de hardware e as operações da cadeia de suprimentos e efetivamente executou uma operação margin-matança de marca fornecedores de servidores mainstream com efeitos de longo alcance, como, sem dúvida, a IBM vender seu negócio de servidores X786 para a Lenovo .


OCP está trabalhando em arrays de armazenamento e é esperado para chegar a uma variedade nova e significativamente menor preço. Ele está olhando para a rede com um conceito chave aberta - atente Cisco.


Abrir Compute Frank Frankovsky

Frank Frankovsky



GigaOm relata que Frankovsky está formando uma startup olhando para o armazenamento de dados frios em mídia óptica, utilizando lâminas de disco que poderia ser numerados nos 1,000 s.


Em janeiro, o Facebook lançou um sistema de rack jukebox Blu-Ray para armazenar dados de arquivo, como fotos antigas, que contou com:



  • Torre rack 42U com capacidade de 1 PB

  • 10.000 3 camadas discos de 100GB Blu-ray

  • Robótica para transferir discos para discos e de volta

  • Latência 17-18 segundos acesso a dados

  • Taxa de leitura 240MB/sec agregado

  • 50 anos de durabilidade de dados


Para obter os custos de armazenamento óptico para baixo para o nível de fita de arquivo vai exigir um aumento na densidade de armazenamento de mídia óptica. Frankovsky acha que existem maneiras de aumentar tanto a densidade e taxa de transferência.


Sony e Panasonic tem planos para estender a capacidade Blu-ray de 300GB em 2015 e ir mais longe para discos de 500 GB e 1 TB em um período de tempo indeterminado. Os dois fornecedores prever sistemas de grande escala que utilizam cartuchos de disco óptico para armazenar dados de arquivo de forma mais eficaz que as bibliotecas de fitas.


Frankovsky continua como o presidente do conselho e presidente OCP, mas como um membro independente.


Com seu histórico de inicialização ainda sem nome do Frankovsky - Optical Rift? (Nós jest) - deve ter relativamente pouca dificuldade em levantar capital semente para desenvolver um protótipo de sistema. ®



terça-feira, 18 de março de 2014

SQL Server 2014 código de liberação da Microsoft: Primeiro olhar


Acesso de alto desempenho para armazenamento de arquivos


Em memória de banco de dados, uma melhor integração com o Windows Azure, e nova tecnologia de indexação para aplicações de data warehousing de alta performance - há muito o que gosta em SQL Server 2014, liberado para os fabricantes na terça-feira.


Mas enquanto a Microsoft tem estado ocupado e feito alguns trabalho pesado, o código que serão disponibilizadas em 1 de Abril tem algumas arestas flagrantemente irregulares.







Vamos enfrentar o melhor bocado primeiro.


O motor de banco de dados in-memory codinome Hekatron é a característica mais atraente, graças ao desempenho dramático aumentar ele pode oferecer - até 30 vezes, de acordo com a Microsoft. O recurso já está em desenvolvimento há cinco anos, gerente do programa de liderança Kevin Liu disse aos jornalistas em uma recente SQL Server 2014 workshop.


O motor de banco de dados é um novo código que acessa os dados diretamente na memória, usa um alto nível de concorrência, e compila procedimentos para código nativo para uma maior optimização armazenado. A cópia dos dados é transmitido para o disco para a persistência, mas você pode desativar isso para o máximo de desempenho, se você não se preocupam com a perda de dados.


O benefício de desempenho é real. Mesmo em uma máquina virtual em execução no modesto Azure (quatro núcleos, memória 7GB) eu vi o tempo para inserção de 100 mil pedidos, cada um em sua própria transação, declínio de dois minutos e 54 segundos a 36 segundos depois de ligar a tabelas na memória.


Outra vantagem é a integração. Você pode misturar na memória e tabelas baseados em disco em um banco de dados, embora a consulta em ambos é ineficiente.


Há limitações embora. O mais grave é uma longa lista de palavras-chave T-SQL que não são suportados para tabelas em memória, incluindo a identidade, original, junção externa, em, tipo, comandos comuns distintas e outros, Triggers e campos BLOB. Soluções alternativas são sugeridas, mas isso significa que um esforço de portar a fim de tirar vantagem.


SQL Server 2014

SQL Server 2014: todas as características, mas eles podem ser usados? (Clique para ampliar)



Há algumas outras limitações para esta primeira versão. Um deles é a recomendação de que os dados em memória não exceda 256 GB.


"Tenha certeza, isso é algo que vai bater-se drasticamente na próxima versão", disse Liu.


A outra é que "a recomendação para hardware é duas tomadas" para evitar problemas com o NUMA (Non Uniform Memory Access) que afetam o desempenho.


O melhor ajuste para o uso de tabelas em memória é o lugar onde a lógica do negócio é em procedimentos armazenados e comunicação cliente-servidor não é muito falador. Os aplicativos que implementam a lógica de negócios em código externo não são ideais.


A Microsoft também está fazendo um grande negócio de nova integração Azure. Há vários cenários possíveis. Você pode montar arquivos de banco de dados que estão em armazenamento Azure, a latência torna este inadequada em muitos casos, embora o SQL Server irá armazenar em cache os dados mais ativo -, mas pode ser útil para o arquivamento.


De uso mais amplo é a capacidade de backup para armazenamento Azure, que agora está embutido. No Management Studio, você pode selecionar a URL como um destino de backup, que solicita as credenciais Azure. Há também uma nova ferramenta de backup gerenciado, visando a organizações menores, que será automaticamente bancos de dados de backup para armazenamento Azure. Você só precisa configurar as credenciais e do período de retenção de dados.


Outra característica Azure é a replicação de bancos de dados SQL Server em execução no Azure VMs. Um Add assistente Azure Replica configura sempre em disponibilidade.


SQL Server 2014 resource governor

O Administrador de Recursos permite limitar recursos para usuários específicos (clique para ampliar)




Prepare o seu centro de dados para enfrentar o futuro


Acesso de alto desempenho para armazenamento de arquivos


Quando você está tentando convencer sua empresa a gastar um monte de dinheiro em uma nova instalação, você pode estar certo que vai querer ter certeza de que a instalação possa suportar o negócio para os próximos anos.


Dado que a bola de cristal de tecnologia média é de tempo nublado na melhor das hipóteses, como você evoluir o seu centro de dados, protegendo contra um futuro potencialmente imprevisível?







Há dois aspectos importantes em que pensar, a fim de garantir o futuro de sua instalação. A primeira é ter certeza que você pode continuar a atualizar o hardware, sistema operacional e software que está sendo executado. O segundo está pensando em como você pode conectá-lo em cada camada para outras coisas.


Future-prova


A primeira parte é bastante simples. Quando consideramos atualizar a plataforma nos perguntamos se podemos instalar algo novo sem despender muito esforço. A atualização pode ser do mesmo fornecedor ou um diferente.


Em um nível de armazenamento, temos uma variedade de tecnologias - Fibre Channel, iSCSI e FCoE sendo o núcleo de três - e todos têm caminhos discerníveis para o futuro.


Na arena do servidor, as várias arquiteturas de CPU são bastante robusto. Nós não vemos VAX e MIPS mais, a série IBM Power será uma preocupação constante, e da família Intel e seus clones são a certeza de ser de longa duração, desde que você tenha se afastado o mais breve possível a partir de 32-bit CPUs Onto processadores de 64 bits.


Agora que a SCO tem finalmente ido de barriga para cima, nós temos a abundância de sistemas operacionais - Windows, Linux, IBM i e assim por diante - com um futuro promissor pela frente (e se você ainda estiver executando o SCO, você merece tudo o que você obtém).


E nos fundamentos da infra-estrutura de rede, temos que superar toda a loucura da década de 1990: temos finalmente resolvido 100VG-AnyLAN e ATM para o desktop, IPX e DECnet e nós aceitamos que o IP over Ethernet é o caminho a percorrer.


Trabalhando juntos


Agora vamos olhar para integração e interoperabilidade, começando com o armazenamento.


Há mais de uma maneira para proporcionar uma interface entre o hardware do servidor e do hardware de armazenamento.


Mesmo se, por exemplo, você usar um dedicado Fibre Channel SAN, você pode muito bem ter a opção de executar-se iSCSI usando o hardware que você já tem - ou, talvez, com um investimento mínimo em algumas NICs iSCSI-otimização.


Se você atualmente não tem essa opção, veja como você pode adicioná-lo, porque você é muito provável que precisar dele em breve. A beleza da coisa é, porém, que a evolução é simples de implementar.


Agora para os servidores. No nível do servidor físico, a vida é tranqüilizador fácil. Ou você é baseado em Intel ou você não é. Se estiver, o principal passo a tomar (além de dar atenção, meu conselho mais cedo para se certificar de que você está usando exclusivamente hardware 64-bit) é entender os processadores físicos que você tem.


Virtude da virtualização


Isso porque a virtualização de servidores acontece acima, não, o hardware do servidor para que ele não se importa muito se você tem, digamos, um cluster IBM e um cluster HP ao lado do outro.


Se você estiver executando um movimento vMotion (envio de um servidor de host físico A a série B física sem interrupção), o emblema na parte frontal da caixa na verdade não importa. O que importa é o que você tem capacidades disse ao hypervisor os processadores têm subjacentes.


Se um servidor virtual espera uma característica particular de um processador de estar disponível e você tenta movê-lo para uma CPU sem esse recurso, ele irá dizer-lhe para obter enchido (ou se você tem sido rude com ele naquela manhã, ele vai se mover e em seguida, bater).


Mas contanto que você tenha certeza que você sempre configurar o hypervisor com o hardware denominador comum mais baixo, você está deixando a sua escolha de servidor aberto.


Se você não é baseado em Intel, que são susceptíveis de ter um trabalho mais fácil de lidar com incompatibilidades de hardware, porque você vai estar trabalhando dentro de uma mesma família (por exemplo CPUs série IBM Power).


Compatibilidade entre versões e variantes de fato ser mais fácil do que trabalhar com, por exemplo, processadores Intel e AMD em servidores virtuais.


Nunca teve problemas movendo-se de um dispositivo de alimentação para outro, ou de um dispositivo da Apple para o outro? Não, eu não pensei.


A compreensão mútua


Ao nível do sistema operacional, a interoperabilidade e à prova de futuro são realmente muito simples, porque tudo está sentado na rede Ethernet baseado em IP que mencionei anteriormente.


Todos os sistemas operacionais populares têm a capacidade de se comunicar uns com os outros e até mesmo explorar protocolos proprietários de cada um. Mais importante, esta capacidade constantemente fica melhor ao invés de pior: olhar para a capacidade do Linux para integrar com o Active Directory, por exemplo, e como ela evoluiu ao longo dos anos.


Não existem problemas, então.



O ponto de dor primária para centro de dados à prova de futuro é a rede



Assim, o armazenamento, servidores e sistema operacional foram todos bastante simples de lidar, ea razão para isso é simples: o ponto de dor primária para centro de dados à prova de futuro é a rede.


Dentro do centro de dados, os conceitos que precisam implementar na rede são de longa data e, geralmente, bem entendido - IP, Ethernet, Spanning Tree, LACP, OSPF, BGP, listas de controle de acesso, controle de admissão e assim por diante. É quando damos um passo fora do nosso centro de dados privada que as coisas ficam complicadas.


A nuvem paira


A nuvem é muito à frente no momento. Muitos diriam que nuvem é simplesmente um mundo novo para um velho conceito de serviços e aplicativos hospedados ou gerenciados, e que iria ser em grande parte direita.


O que quer que nós o chamamos, no entanto, estamos, inevitavelmente, vai querer ligar os nossos centros de dados para serviços e aplicações externas mais e mais, o que significa que precisamos, agora, a ser certificando-se de que temos a estrutura certa para fazer isso. Então, precisamos olhar para o seguinte.


Pontos de desembarque para os sistemas externos: se você se conectar a um serviço externo que você vai querer pousar em um firewall, ou pelo menos um roteador configurado com força, possivelmente com capacidades de pouso NAT ou VPN construído em desde o primeiro dia. Isso é porque pode ser necessário para atender a faixas de IP remotos sobrepostos os locais.


Otimização Link: serviços mais e mais remotas têm a capacidade de otimizar sua conectividade para eles, desde que você use a tecnologia certa (para serviços de armazenamento exemplo nuvem que usam optimizadores Whitewater da Riverbed, para que tudo que você precisa é a caixa da direita no seu fim) .


Federação serviço de diretório: muitos serviços externos são capazes de integrar-se com o seu serviço de diretório, mas pode ser necessário para estabelecer uma porta de entrada para fornecer essa integração (por exemplo, somente leitura de conectividade em sua base de dados do Active Directory via ADFS).


Camada 2 extensão de rede: tecnologia que túneis de camada 2 tráfego sobre uma WAN IP, de modo que você pode ter um segmento de camada 2 magicamente se estender por vários sites, mesmo que não haja nenhuma camada 2 conectividade nativa entre os dois.


O problema é que alguns desses conceitos ainda não tem um método de implementação óbvio.


O primeiro deles é absolutamente fácil, porque o NAT é bem compreendido e um ponto de desembarque VPN é provável que seja baseado IPSec.


Off the beaten track


Da mesma forma o terceiro, porque o Active Directory é bastante comum de ser apoiada pela maioria dos terceiros. Para aqueles que não apoiá-lo, você pode usar o mesmo hardware e software e apresentar um fluxo de LDAP em paralelo.


Otimização da ligação é um pouco mais difícil, no entanto. Em nosso exemplo, nós mencionamos hardware Riverbed, mas você não pode simplesmente bater em um gateway Whitewater e assumir que você será à prova de futuro.


Não há garantia de que o provedor de armazenamento externo que você selecionar no próximo ano vai usar hardware compatível. Da mesma forma em extensões de rede local, o conceito é tão novo que não há realmente um produto óbvio para ir com no momento.


A linha inferior é padrões, é claro: se há um padrão (ou um de facto um no caso do Active Directory), em seguida, ir para ele.


Arquiteto sua rede para que você possa bater em um ponto de desembarque para um serviço externo e executar um servidor virtual e jogar com ADFS. Mas quando você tiver feito isso, afastar-se dos padrões um pouco e mergulhar um dedo do pé na água do "popular, mas não-padrão".


Como não lhe custa quase nada em dinheiro ou tempo para tentar, por exemplo, conexão via VPN para serviços em nuvem da Amazon, só para dar um giro de modo que você estará bem posicionada para adotá-lo dentro de alguns meses, quando a empresa decide ir para ele.


Conclusões


Dentro de seu próprio centro de dados, então, é relativamente simples de fazer-se à prova de futuro: apenas não tomar decisões tolas e comprar quaisquer produtos de rede Betamax estilo wacko.


O truque é perceber que o futuro vai realmente envolver o seu centro de dados que está sendo conectado a uma ampla variedade de serviços e aplicações hospedadas externamente e estar em posição de fazer algo sobre isso.


Na verdade, não, nada disso. O truque é dar aos tipos de negócios um grande grelhar sobre o tipo de coisas que eles acham que pode querer fazer no futuro, estabelecer, pelo menos, a conectividade de núcleo e requisitos de integração que possam em breve trovão no horizonte, e fazer algo sobre isso agora . ®



quarta-feira, 12 de março de 2014

DelphiX: Ei agora, estamos a anfitriã banco de dados com as Postgres


4 razões para terceirizar seu DNS


Inicialização do banco de dados de virtualização DelphiX adicionou suporte para PostgreSQL como a empresa espera ampliar o apelo do seu software de snapshot-on-esteróides.


A empresa lançou a versão 4 de sua tecnologia na terça-feira com a ambição de tornar-se as principais empresas de ferramentas usar para provisionar, controlar, instantâneo e administrar vários bancos de dados - da mesma forma como VMware tornou-se a eminência parda de sistemas operacionais virtualizados.







Código do DelphiX permite que os administradores duplicar bancos de dados como Oracle, SQL Server e agora Postgres, e spin-up instâncias virtualizadas para a recuperação, teste e desenvolvimento, e outros fins. A tecnologia vem com snapshots integrados, bem como controles de reversão que são acessíveis através de uma interface web fácil de navegar.


A tecnologia reduz o tempo que leva para clonar, manipular e bancos de dados de reversão, mas não tem um efeito significativo sobre o número de operações de entrada e saída por segundo de um sistema é capaz de, enquanto isso está acontecendo, nós entendemos.


Ele também reduz a sobrecarga de armazenamento global, compartilhando blocos redundantes entre cópias, armazenando somente os pontos de variação entre diferentes bancos de dados. Em princípio, isso significa que a piscina indigesto de dados em um sistema que não muda não será desnecessariamente replicados em engrenagem de uma empresa.


Embora os puristas recorda que muitas matrizes de armazenamento de topo, como a EMC VNX ou FlexClone da NetApp, vem com recursos integrados snapshotting e assim por diante, DelphiX pensa sua experiência de banco de dados dá-lhe a vantagem sobre os fabricantes de disco-box.


Snapshots são "um elemento fundamental da filesystrm DelphiX mas também combinar isso com a consciência profunda de banco de dados", explicou o diretor de tecnologia da companhia Adam Leventhal. "Não é apenas o encanamento até primitivas de banco de dados, mas a compreensão do log suficientemente."


Críticos não tão rápido! Poderia dizer: Que tal pular DelphiX inteiramente e utilização de arrays de flash em estado sólido em vez disso?


Leventhal anteriormente funcionou a estratégia de memória flash na Sun Microsystems e Oracle, por isso ele acha DelphiX é "complementar que competitivo", para estas matrizes.


"Nós reduzimos o espaço de armazenamento em massa, mas não fazer muito para reduzir a carga de trabalho IOPS", disse ele. Combinando DelphiX com flash, as empresas podem obter a aceleração de flash, mas economizar em armazenamento, tornando-se um upgrade de baixo custo a partir do disco.


"Uma matriz de todos os flash que é 5x US $ / TB de armazenamento em disco como de repente se torna metade do preço de armazenamento em disco, quando combinado com DelphiX - com substancialmente melhor desempenho", Leventhal observou no ano passado .


Outros novos recursos incluem "provisionamento multi-plataforma", que permite que administradores de converter uma instância Oracle do Unix para o Linux para facilitar a migração de dados em sistemas típicos x86.


"Ao converter um banco de dados Oracle a partir de um sistema Unix para a plataforma Linux é um processo muito oneroso", explicou Leventhal. "Nós automatizar a execução dos utilitários padrão do Oracle para fazer essa conversão. Se você tem um banco de dados de 1 TB, a cópia resultante, mesmo com tecnologia avançada de armazenamento e compressão vai ser centenas de GB. Com DelphiX nós sabemos que é um banco de dados, saber sobre conversão de uma plataforma para o outro, para que possamos unir os blocos de Unix e Linux blocos. "


É devido a recursos como este, juntamente com outras adições tais como análise de desempenho e vários ajustes internos que incentiva DelphiX a acreditar que, apesar de arrays de armazenamento estão crescendo cada vez mais rápido e mais capaz, sua tecnologia de snapshot-on-esteróides podem ser uma boa aposta para administradores interessados ​​em lidar com a expansão do banco de dados.


O DelphiX base 4 Motor custa cerca de US $ 160.000 por ano para oito CPUs virtuais ea gestão de um tipo de banco de dados. Se os administradores querem ter acesso a novos recursos, como a migração Unix-to-Linux eles terão de saltar para a Modernização do motor do DelphiX que começa em $ 240.000. ®



terça-feira, 11 de março de 2014

Toshiba bebê OCZ lança casaco aberto, descobre PCIe pisca-pisca para o mundo


Transformando o seu negócio com armazenamento flash


Nova filial Toshiba OCZ tem um novo cartão de memória flash PCIe, o Z-Drive 4500, completo com as credenciais corporativas sólidas - e nenhum de o hype era Ryan Petersen.


Isso era produzido o Z-Drive R5 com um notional 3 milhões de IOPS e 12 TB de capacidade .







Esse produto desapareceu da lista OCZ e agora temos o novo Z-Drive 4500, em relação ao seu precursor R4 .


Aqui está um rápido run-down do Z-Drive 4500 características:



  • Toshiba 19nm de flash MLC

  • Capacidades 800GB, 1.6TB e 3.2TB

  • para 252.000 IOPS 4K de leitura aleatória, mas apenas 76.000 IOPS de gravação

  • A seqüencial máximo 2.9GB/sec ler largura de banda e 2.2GB/sec ler largura de banda

  • PCIe Gen 2 x8 e x16 interface fatores de forma completa e meia altura

  • LSI SandForce controlador SF0-2582

  • TRIM e apoio AES 128-bit

  • 2000000 horas de MTBF e garantia de 5 anos


Toshiba OCZ Z-Drive 4500

Toshiba OCZ Z-Drive 4500 flash card PCIe.



O R4 (R-series 800GB - Capacidade de 3.2TB) fez até 410.000 leitura aleatória e escrever IOPS, com até 2.8GB/sec seqüencial ler e largura de banda de escrita. Uma variante CloudServ armazenados até 16 TB de dados com até 1,4 milhões de IOPS e 6.4GB/sec largura de banda. O 4500 é ligeiramente mais rápido quando os dados seqüencialmente de streaming, mas tem menor número de IOPS do que os não-CloudServ R4.


Mas Toshiba / OCZ diz que o 4500 tem latência consistente ", independentemente da entropia de dados" e uma garantia de 5 anos. Os números de resistência são:



  • 680TB escrito para o produto 800GB

  • 1.300 TB escrito para o produto 1.6TB

  • 2.500 TB escrito para o produto 3.2TB


Ele também tem software de Aceleração do Windows, chamado WXL, que "realiza estatística 'out-of-band' de processamento para armazenar em cache de forma inteligente os dados mais freqüentemente acessados ​​no Z-Drive 4500 flash. Um cache de warm-up e análise mecanismo também é destaque permitindo importante e exigente empregos analíticas para ser carregado no Z-Drive cache do Flash 4500 de antecedência. "


Virtual Controlador arquitetura do produto (VCA) "virtualiza dispositivos SSD em uma matriz massivamente paralelo de memória." Os 4.500 trabalhos com "VXL Virtualização de Software da OCZ distribuição de recursos de cache flash on-demand através de máquinas virtuais (VMs)."


Poderíamos supor que, com este produto e suas possibilidades de desenvolvimento, a Toshiba tem menos necessidade de um produto PCIe Violin Memory desenvolvidas; tão bem como o novo CEO da Violin é colocar o negócio de cartão de velocidade para a venda, com o fechamento do negócio se não for vendido até o final do trimestre.


Toshiba / OCZ diz que a unidade tem um projeto arquitetônico mais robusto do que o anterior OCZ Z-Drive R4. Leia um resumo do produto pdf aqui e acessar a página do produto aqui .


Toshiba / OCZ não divulgou informações sobre preços e disponibilidade. Checamos alguns sites distribuidor OCZ como Ingram Micro e AVNET e não encontrou o produto listado. ®



segunda-feira, 10 de março de 2014

Toshiba: Nossa 2,5 incher faz o mesmo trabalho que um de 3,5 incher


Avaliando o custo de um ataque DDoS


Toshiba vê a vida em unidades de 2,5 polegadas rápido ainda, e tem acompanhado de perto os saltos da HGST ao anunciar um modelo de 600GB girando a 15.000 rpm.


Há também pontos de capacidade de 300 GB e 450 GB, neste 24 x7 empresa operação conjunto de produtos da unidade.







As duas unidades são bastante semelhantes. Toshiba AL13SXB tem um z-altura 15mm, o que significa que acreditamos, 3 x platters 200GB com uma densidade de área 341Gbit/in 2 ou superior. Ele tem uma interface 6Gbit / s SAS e apresenta 512N e 4K comprimentos setor com emulação 512e. A unidade flui para fora de dados seqüenciais de até 228MiB / s, ou 243MiB / s para os modelos do setor de comprimento. Há uma versão de auto-encriptação AL13SXQ.


A HGST Ultrastar C15K600 tem uma interface mais rápida 12Gbit / s e um cache de 128 MB em comparação com o 64MiB da unidade Toshiba. Tem também uma citado 528Gbit/in 2 densidade de área.


Ambas as unidades têm um MTBF 2000000 horas (HGST) ou MTTF (Toshiba). Como HGST, Toshiba dobrou a capacidade de uma unidade da empresa anterior, em seu caso, o produto MK01GRRB / R.


Em seu material anúncio Toshiba faz o ponto que sua nova rpm 2,5 incher 15K é igual à capacidade de uma unidade de 15K de 3,5 polegadas em um fator de forma menor a necessidade de menos energia e permitindo que mais fusos a ser amontoados em um gabinete rack. Novamente, como HGST, a Toshiba está vendo uma retirada do mercado de unidades empresariais de 3,5 polegadas e sua substituição por, ambos dizem, discos de 2,5 polegadas, ou, como todos sabemos, drives de estado sólido, que são mais caros por GB, mas muito mais rápido responder, especialmente para dados aleatórios.


Toshiba diz 15K unidades de disco rígido são e continuarão a ser o esteio de operações de armazenamento de missão crítica da empresa para que pensávamos que acrescentar "por um tempo ainda." ®



quarta-feira, 5 de março de 2014

Dentro de laboratórios de engenharia do Facebook: céu Hardware, HP inferno - Fotos


Transformando o seu negócio em uma economia digital com memória flash


10 anos de desenvolvimento de hardware do laboratório Facebook Facebook ou é um paraíso, uma oportunidade de negócio, ou um inferno, dependendo do seu ponto de vista.


Se você é um nerd hardware que ama brincar com as artes do centro de dados, arrancando pêlos estranhos, e geralmente cortando o custo de sua infra-estrutura, em seguida, o laboratório é um lugar maravilhoso, onde seus sonhos são fabricados.







Se você é um executivo da HP, Dell, Lenovo, Cisco, Brocade, Juniper, EMC ou NetApp, o laboratório é susceptível de incutir um sentimento de frio, medo úmida, pois neste laboratório uma pequena equipe de funcionários diligentes Facebook estão trabalhando para fazer servidores e armazenamento matrizes-e agora interruptores de rede - que minam os seus próprios produtos.


Enquanto isso, se você representa os fabricantes de componentes asiáticos como a Quanta ea Foxconn e Wiwynn, é provável que você saborear uma viagem para o laboratório, pois é aqui que o Facebook projeta sua engrenagem "Open Compute", os desenhos de que, eventualmente, coloca à disposição a comunidade em geral. Quando estes projetos são publicados, as empresas asiáticas são geralmente os que vendem os projetos - ao custo dos lucros de HP, Dell, Lenovo, e assim por diante.


Obviamente, El Reg teve que fazer um tour e por isso, no início deste mês, levou a Caltrain até a sede da rede social para pedir Facebook algumas perguntas, a primeira das quais foi: que negócio é que uma rede social tem projetar e construir seu próprio centro de dados hardware?


Muitos, ao que parece.


Embora Facebook pode parecer um aplicativo trivial em si mesmo, a escala em que opera - mais de um bilhão de usuários, dezenas sobre dezenas de petabytes de armazenamento, três centros de dados ao redor do mundo (e um em construção), cada um contendo (El Reg estima) centenas de milhares de servidores - significa que ele teve de repensar a forma como ele compra e consome hardware para manter os custos baixos.


A principal visão da rede social teve é ​​que suas cargas de trabalho podem se encaixar em cerca de cinco tipos diferentes e, portanto, só precisa ter cinco variantes diferentes de servidores em toda a sua frota gigantesca.


Estas SKUs tendem a ser limitados por um único gargalo, com capacidades de memória RAM ou Flash o ponto de tropeço para os servidores de banco de dados, a capacidade de HDD para servidores de fotos, a velocidade da CPU para a engrenagem Hadoop, e assim por diante.


"A principal razão para a evolução do nosso hardware SKUs é o principal componente", explica o chefe do Facebook de infra-estrutura Jason Stowe.


fbl4s

Um dos distintos servidores trenó aberto de computação do Facebook



Por esta razão, o Facebook sempre teve uma motivação clara para projetar servidores que podem ser facilmente atualizável, sem a necessidade de removê-los a partir do centro de dados ou executar a manutenção complicada. Isto levou a sua concepção de um servidor baseado em trenó (foto) que faz manutenção rápida possível, mantendo os custos baixos.


"O que nós pensamos sobre a maioria em todos os nossos hardware é o que é o gargalo crítico que estamos construindo para," Stowe explica. "Eu acho que para realmente os últimos quatro anos mais ou menos nós temos sido muito bom em ser um dos primeiros a adotar uma nova peça de tecnologia quando há uma mudança significativa."


Onde os sonhos são feitos


Uma das principais maneiras Facebook alcançou essa velocidade é com o seu laboratório de hardware, o que lhe permite refinar projetos existentes e chegar a novo chassis para tirar proveito de tecnologias diferentes.


Ao incentivar a experimentação, o Facebook permite que seus funcionários protótipo rapidamente idéias, permitindo-os a repensar como eles organizar e configurar o hardware como eles vêm com casos específicos para o gigante das redes sociais de uso.


fbl4s

A placa de desenvolvimento do servidor que está sendo testado



Como o Facebook desenvolve seus servidores será por ordem de placas de desenvolvimento (foto) a partir de parceiros de hardware para ajudá-lo a testar o hardware. Às vezes ele vai deixar as pessoas curiosas em adotar projetos Abrir Compute projeto de teste as placas-se, embora a partir do que nós entendemos isso não é uma política oficial.



terça-feira, 4 de março de 2014

Data Center Mundo: É um trabalho duro de se refrescar aquelas prateleiras quentes


4 razões para terceirizar seu DNS


Mostrar relatório No Excel Centre, em Londres, na semana passada, a co-localização de um tipo diferente estava em evidência com Cloud Expo Europa e Centro de Dados Mundial compartilhando floorspace sob o mesmo teto.


Foi a primeira vez que os dois eventos tinham executados simultaneamente e, à primeira vista, co-habitação parecia fazer muito sentido.







No entanto, vagando de um lado para o outro era como atravessar a mente eo corpo da existência física e mental de um centro de dados com geradores colossais em uma extremidade e na outra, um conjunto de tampos de mesa e bancos de bar com assessores em grande quantidade em bater em nuvem serviços.


Advanced Diesel Engineering generator

É maior do que você pensa: um dos muitos geradores no show, este da Diesel Engenharia Avançada



Houve um conjunto muito mais acontecendo no meio, mas a coragem parecia estar ausente. Você não gostaria de encontrar HP ou IBM tentando vender-lhe um servidor ou 60 aqui, no entanto, eles certamente estar interessado em ajudar você a tinta um acordo sobre serviços.


No entanto, a fusão das duas entidades certamente ajuda a colocar alguns projetos corporativos em perspectiva. Mudando de dados na nuvem é uma coisa que é dado como certo, mas às vezes há algum trabalho pesado sério envolvidos para trazer recursos juntos em ambientes eficientes ou baixo custo dados center.


Crown Oil diesel polishing before and after

Diesel polimento é um grande negócio em Data Center Mundo: Crown Petróleo leva-lo para os produtos de limpeza



Encontrei-me com um companheiro gerente do centro de dados e em breve nos encontramos pressionando a carne com rostos familiares no Sunspeed, uma empresa de logística especializada . A empresa vai mudar o seu hardware de data center, em prateleiras povoadas, se quiser, para qualquer lugar do planeta, tudo deu certo, precisamente para manter o tempo de inatividade para um mínimo. Alguns anos atrás, a empresa mudou-470 instalações até quatro centros de dados para uma instituição financeira, uma empresa que teve mais de dois anos para ser concluído.


Claro, os meninos grandes vão oferecer serviços semelhantes, mas muitas vezes são os operadores de nicho que pode entregar de forma mais ágil que fazem estes eventos que muito mais útil e interessante.


Iceotope liquid cooling rack

Características de refrigeração líquida de Iceotope encamisados

módulos de rack - clique para ampliar a imagem



Certamente, o resfriamento é uma área que atrai cerca de diversas abordagens, alguns, como Excalibur Energia foco 's sobre a atualização e otimização de sistemas existentes, ao invés de simplesmente trocar kit velho por novo. Em um projeto, a empresa renovou chillers no Aeroporto de Manchester - a redução do consumo de energia em 4.000.000 kWh / ano - em grande parte devido à amplificação da pressão do líquido (LPA) técnicas.


No entanto, virar uma esquina e Iceotope , que acaba de receber um investimento de 6 milhões de libras, tem o orgulho de apresentar um relatório sobre o seu sistema de refrigeração líquida em torno Novec fogo de supressão de fluido da 3M - atualmente aquecer salas da Universidade de Leeds.


Iceotope conta com prateleiras de refrigeração especialmente equipados que são projetados para acomodar o equipamento existente. Calor não precisa ir para o lixo, mas aproveitando este subproduto de computação de alta densidade exige algum compromisso e clareza de visão.


Sobre este ponto, a Comissão Europeia financiou iniciativa CoolEmAll olha para melhorar a eficiência do nível de design. Parte do projeto envolve o desenvolvimento do (SVD) Toolkit que permitirá modelar centro de dados para revelar como as de posicionamento físico, refrigeração, aplicações e cargas de trabalho pode ser configurado para melhorar a eficiência energética de simulação, visualização e Apoio à Decisão.


CoolEmAll Christmann hardware testing

Testes de hardware CoolEmAll Christmann e imagens térmicas



A partir desta, um conjunto de energia eficiente esquemas de hardware será disponibilizado a partir dos resultados deste projecto de 30 meses. Já a bordo é fornecedor de TI alemão Christmann, que é efetivamente a construção de um centro de dados em um rack para auxiliar no projeto e processo de monitoramento.


Escusado será dizer que, se você andar até Keysource, você encontrará há um app para isso. O Data Center diária é uma iOS brinde e Android app para auxiliar o cálculo de custos de energia no centro de dados, em conjunto com um conversor prático para trabalhar fora do rack disponibilidade de espaço para uma determinada área.


Keysource Data Centre Daily app

Data Center Diário app Keysource: projetado para aliviar a sua carga



Claro, você provavelmente poderia trabalhar para fora a maior parte deste no verso de um envelope, mas Keysource , um projeto de centro de dados, construir, equipamento de manutenção e gestão usou um pouco do seu próprio know-how com base em numerosos projetos próprios para chegar com figuras realistas. O aplicativo não exige qualquer informação de que vai assustá-lo fora desde o início, mas se você quiser um relatório mais detalhado sobre as suas entradas, você pode solicitar um.


Como sempre, seminários abundam em feiras eo foco de muitos estava explicando conceitos, desmascarando equívocos e agitando a bandeira para as tecnologias emergentes. Uma coisa estava clara, no entanto: a nuvem amadureceu a algo que não é tanto uma alternativa como uma preferência crescente. Haverá mais sobre esta tendência quando publica um relatório em Cloud Expo Europa amanhã. ®