terça-feira, 31 de março de 2015

AWS falhanços out maciça D para vaporizar grandes plataformas de dados


Big data é um conceito muito bem, mas quando se encontra com o mundo real de comprar kit para executá-lo sobre as coisas podem ficar desagradável, porque o custo dos equipamentos necessários para triturar grandes quantidades de dados pode ser muito considerável.


Alguns fornecedores de dados grandes fazer uma virtude de oferecer seus próprios servidores especializados para o trabalho e os gostos da VMware oferecem maneiras de criar servidores clusters virtuais você pode girar até a fazer alguns dados esmagando quando o espírito move. Alguns operadores de nuvens e / ou provedores de serviços gerenciados combinar as duas abordagens para oferecer aluguel de equipamentos grandes de dados virtuais.





Todos esses modelos agora começar a diversão de competir com a Amazon Web Services (AWS) m, que acaba de criar um novo tipo de instância para o seu serviço de computação elástica (EC2), concebidos para "processamento de vários terabytes conjuntos de dados".


As novas instâncias D2 executados em CPUs Intel Xeon E5-2676 v3 em 2,4 GHz (estourando a 3.0GHz) e vêm em quatro tamanhos, conforme explicado na tabela abaixo.


















































Nome da Instância Contagem vCPU RAM Armazenamento de instância Desempenho da Rede Lido no Disco

(Com 2 MiB Blocks)
Linux On-Demand Preço
d2.xlarge 430,5 GiB6 TB

(3 x 2 TB)
Moderado437 MB / segundo$ 0,690
d2.2xlarge 861 GiB12 TB

(6 x 2 TB)
Alto875 MB / segundo$ 1,380
d2.4xlarge 16122 GiB24 TB

(12 x 2 TB)
Alto1.750 MB / segundo$ 2,760
d2.8xlarge 36244 GiB48 TB

(24 x 2 TB)
10 Gbps3.500 MB / segundo$ 5,520

A instância d2.8xlarge joga em Non-Uniform Memory Access (NUMA) e todos os novos tipos incluem a otimização loja bloco elástico. AWS quer que você use Linuxes mais recentes sobre estes casos, de preferência a sua própria distro, a fim de acessar as velocidades de acesso de armazenamento mais rápidos (graças a novos bits dentro Xen). As novas instâncias D2 dar grandes usuários de dados uma alternativa interessante. Não vai ser por muito tempo, é claro, antes de Google, Microsoft ou um nicho trunfos especificações desses novos sondas. Mas isso não vem ao caso, porque a mera disponibilidade de instâncias de nuvem dedicada a este tipo de aplicação define os gatos entre os pombos em mais um mercado. ®



segunda-feira, 30 de março de 2015

AMD abre kimono no chip futuro um pouco mais


A melhor maneira de proteger os segredos corporativos é anunciá-las em uma conferência de tecnologia no Japão, razão pela qual palavra está apenas chegando de fevereiro da AMD revelar de um roteiro clustering.


Consumidor e liderança de negócios comercial Junji Hayashi disse à oficina PC Cluster Consortium em Osaka que os 2.016 núcleos de CPU liberação (um ARMv8 e um AMD64) terá suporte multithreading simultânea, para sentar-se ao lado do multithreading agrupado de famílias de processadores Bulldozer da empresa.





Hayashi também disse na conferência da empresa de planejamento de um ciclo de atualização de dois anos para as Unidades de Processamento Acelerado em suas GPUs, com uma meta de desempenho em 2019 de múltiplos teraflops para aplicações HPC-alvo.


Em 2017, a empresa quer ser capaz de enviar um 200-300 W Thermal Design Power (TDP) GPU HPC, com memória de alta largura de banda, a empresa espera ser nove vezes mais rápido do que a memória GDDR5 e 128 vezes melhor do que DDR3.


A empresa também está a avançar com a sua estratégia de SkyBridge, anunciou maio 2014 , na qual ARM e x86 SoCs será pin-compatível, por isso os tomadores de placa-mãe só precisa trabalhar um único design.


Hayashi reconfirmou que primeiro "computação Ambidestro" produtos passarela da AMD vai chegar este ano.


Fonte original do Japão aqui . ®



Feds algemadas por supostamente embolsando Bitcoins do souk Silk Road


O Departamento de Justiça dos Estados Unidos acusou dois agentes federais de roubar centenas de milhares de dólares em Bitcoins durante a investigação Silk Road.


O ex-Drug Enforcement Administration (DEA) agente Carl Força e ex-agente do serviço secreto Shaun Bridges foram acusados ​​de roubo de propriedade do governo; fraude eletrônica; lavagem de dinheiro; e um conflito de interesses, de acordo com documentos judiciais apresentados na Corte Distrital de San Francisco EUA.





Ambos Força e Bridges trabalhou na investigação Silk Road, que culminou com a condenação de Ross Ulbricht, que foi considerado culpado de executar o mercado subterrâneo sob a alcunha Dread pirata Roberts (DPR).


Os agentes supostamente entrou em choque com a lei em 2013, durante o qual eles estavam tentando encontrar e laço DPR. Bridges supostamente roubou 820 mil dólares em BTC, enquanto Força é acusado de embolsar pelo menos 235.000 dólares.


Force, enquanto trabalhava disfarçado, criou uma conta no Silk Road que seus superiores estavam cientes. No entanto, de acordo com a segunda-feira DoJ queixa [PDF] , ele secretamente criou várias outras identidades não autorizadas pelo DEA, e os usou para embolsar BTC de Ulbricht.


Oficialmente, a Força trabalhou disfarçado como "Nob", um traficante de drogas do fingimento e da figura do crime organizado. Segundo os promotores, em meados de 2013 Nob disse DPR ele poderia obter o Silk Road chefe identidade falsa para 400 BTC (então no valor de $ 40k) e informações privilegiadas para 525 BTC (então no valor de $ 50k) a partir de um agente corrupto fictício que trabalhou no DEA.


É alegado Ulbricht deu Forçar os 925 Bitcoins, que o agente transferiu para uma carteira pessoal. No entanto, Force escreveu em seu relatório oficial de que o dinheiro para a informação privilegiada não foi recebido, é reivindicado. Força também trocou e-mails com Ulbricht usando a criptografia PGP, mas não entregar a sua chave privada, levando os investigadores a acreditar que o agente foi deliberadamente escondendo a 525 transação BTC de seus chefes.


Bem como a conta de Nob, Force também disse ter criado mais dois perfis no mercado: ". Death from Above" "Empregada doméstica francesa" e


Ooh-la-la


De acordo com o DoJ, empregada doméstica francesa tomou um pagamento de US $ 100.000 em BTC de DPR em troca do nome de uma pretensa administrador Silk Road dada pelo Mt Gox CEO Mark Karpeles às autoridades. DPR queria saber se os investigadores estavam se fechando sobre ele e seus associados, e estava disposto a pagar por informações da empregada doméstica francesa. Não está claro se a empregada doméstica francesa repercussão efectiva, todos os detalhes, mas ela alegou Força recebeu um pagamento de 770 BTC.


"Death from Above" fez uma tentativa frustrada de extorquir US $ 250.000 de DPR com ameaças de violência, é alegado. Death from Above ameaçou matar o chefe souk de drogas a menos que o dinheiro foi pago, e afirmou saber que DPR realmente era, segundo os promotores. No entanto, a força foi longe de base: ele achava que outro suspeito - alguém que não é Ross Ulbricht - foi Dread pirata Roberts, e quando Death from Above revelou esta identidade para Ulbricht, o chefe de mercado sabia que ele mesmo era segura, é reivindicada.


DPR nunca pagou o dinheiro, e da Força vazou informações sobre o caso sensível a uma fonte externa, o DoJ alega.


As supostas falcatruas não param por aí: Força é acusado de ter usado o seu papel na DEA para se tornar diretor de conformidade do câmbio CoinMKT - e então usou essa posição para congelar e assumir o controle de uma carteira contendo 297 mil dólares em BTC, que ele então esvaziado em sua própria carteira. Força é também disse ter forjado uma intimação DoJ para convencer empresa de pagamento Venmo para descongelar sua carteira pessoal, e solicitou um outro agente para encobrir o incidente.


Bridges, por sua vez, é acusado de aceitar 820.000 dólares em Bitcoins de vendedores da Rota da Seda, e convertê-lo em dólares transferidos para a sua própria LLC. Os recursos foram coletadas quando um cúmplice de DPR foi apreendido em uma picada de drogas, e virou-se sobre o acesso a sua conta de administrador Silk Road - conceder acesso a carteiras dos vendedores.


Essa conta de administrador apreendido, referido como "CG", mudou-se de fundos a partir de um número de vendedores da Rota da Seda através de outra carteira, acredita-se ter sido controlada por Bridges.


Depois de saber do roubo, DPR teria pedido Nob ter CG mortos - o desaparecimento de CG foi posteriormente referenciado por força em sua tentativa de extorsão falhou, é reivindicado.


A denúncia acusa Pontes e Força de conspirar para roubar Bitcoins de vendedores, e movê-los para uma carteira de propriedade de uma empresa de fachada controlada pelo Bridges.


Força foi preso na sexta-feira, enquanto Pontes entregou-se às autoridades na segunda-feira. Ambos apareceram diante de um juiz mais cedo hoje. Pontes se demitiu do Serviço Secreto no início deste mês, e da Força saiu em maio do ano passado. ®



Um dia tudo isso pode ser seu: Seja Facebook, sem estar Facebook


Projeto do data center é um negócio caro, custando US $ 1,2 bilhão a Apple por um par de plantas de carbono-neutro "próxima geração" na Irlanda e Dinamarca. Mesmo menor média do centro de dados do Joe pode custar mais de US $ 1 milhão de uma vez as opções, tais como as redes de hospedagem múltipla, sistemas de climatização e outro tal kit crítica é instalado com redundância, segurança e milhares de outras coisas que só os designers de data center pensar antes do tempo .


Complexidade é o inimigo da eficiência e unidades custa up. Neste ponto, um monte de empresas perceberam que tinha que haver uma maneira mais fácil e mais barato do que fazê-lo sem pagar imposto sobre os prémios fornecedor fora da parte traseira. Felizmente, nestes tempos modernos, há: o movimento de computação aberta.





Projeto do data center é geralmente extremamente proprietária, zelosamente guardado por fornecedores como se fosse um segredo comercial. Na realidade, reduzindo os custos significa menos despesas de capital e uma melhor linha de fundo, em termos simples.


Google e Amazon não vão dar o seu molho secreto para qualquer concorrente potencial, mas o Facebook tem , open-sourcing seus projetos de hardware com o Projeto Open Compute em 2011. Abrir Compute ainda está em sua infância, mas tem um monte de promessas para , organizações baseadas na nuvem grandes-intensiva de dados e.


Aqueles da utilização fora da camada de hiper-escala de computação web estará pensando: "Sim, e daí? I 'não há Google ". Mas Abrir Compute poderia acabar ajudando mesmo o menor dos jogadores de computação intensiva.


A mais recente onda de modelos de computação têm set-ups hardware vendo mudar de piscinas de alta potência de CPU com massas de tecnologia redundante para baixo consumo de energia, unidades discretas esperados a falhar, com outros nós, tendo a folga, enquanto uma nova instância é girada em cima um novo nó.


Este novo projeto de infra-estrutura pode ser visto na Moonshot da HP e de outros sistemas similares, produzindo System-on-a-Chip (SOC) da infra-estrutura com base que podem ser trocados à vontade, ou seja, os usuários não precisam mais unrack um grande servidor ou retirá-lo para corrigir um problema e tornando a tecnologia barata o suficiente para quase ser descartável.


Parte da visão aberta Compute é também apoiar as marcas white-label, ajudando você a construir a sua própria infra-estrutura de baixo para cima, removendo assim o prémio de fornecedor.


Esta estrada não é viável para ninguém, exceto o maior de fornecedores. Tecnologia de periféricos tais Apoio também será exigente e solucionar problemas que se torna muito mais difícil, já que não há vendedor para voltar a cair. Um número de fornecedores - incluindo HP, Dell, Quanta e muito mais - produzir servidores de computação abertas em várias configurações que são altamente configurável e gerenciável, projetado para uma finalidade: Os nós de cálculo abertas. Isso evita ter de rolar eficazmente o seu próprio projeto de computação.



sexta-feira, 27 de março de 2015

Dupla mais jovem da Supermicro é uma verdadeira donzela de gelo em silêncio


Blog Sysadmin Supermicro lançou o primeiro de sua nova linha de dupla série unblade * servidores e El Reg aproveitou a oportunidade para lhes dado uma boa direita chutar.


Os 2028TP-DC0FR e 2028TP-DC1R modelos cruzaram nosso laboratório e aqui está o que é o que com os 2015 Twins.





Como seria de esperar ao projetar uma linha de sistemas semelhantes em sua maioria, a 2028TP-DC0FR e 2028TP-DC1R são basicamente a mesma coisa. As diferenças brutas são de que os esportes 2028TP-DC0FR a placa-mãe X10DRT-PIBF com uma porta 56Gbps InfiniBand por nó e do esporte 2028TP-DC1R o X10DRT-P, com suporte para um cartão GPU por nó.


Estas diferenças são, naturalmente, muito grande, e eu vou aprofundar-los mais em profundidade mais tarde. Há, no entanto, em vez de um monte de coisas que são semelhantes entre essas unidades e que carregam comparação com as gerações anteriores da linha gêmea.


Bits, bobs e engrenagens de plástico


Em julho de 2014 eu comprei o cluster de césio para o meu laboratório , a 4 nó, otimizado para GPU Supermicro F627G2-F73PT + . Eu escolhi um CPU bastante daninho, 128 GB de RAM, quatro unidades de ferrugem 10K e SSDs 2x por nó. O objectivo deste sistema era para me permitir testar cartões excelentes K2 GRID da nVidia, bem como vários hyperconvergence, armazenamento de objetos e servidor ofertas SAN unconverged.


Césio não foi minha primeira Twin - e com certeza não será a minha última - mas é absolutamente a minha principal. Foi pressionado em uma série de papéis, além de seus parâmetros de design original e é um representante sólida da geração de produtos gêmeas que imediatamente precederam a par Estou actualmente a rever. Nos seis meses que tem sido em serviço, césio me serviu bem ... e ele também tem sido um grande exemplo dos tipos de cantos Supermicro tem tradicionalmente cortadas no desenho de seus servidores.


Sim, tanto quanto eu gosto Supermicro, não é nenhum segredo que a qualidade de construção da HP e da Dell tem sido consistentemente melhor praticamente para sempre. Dentro de um dia de trasfega de césio, um dos pequenos presilhas de plástico que são usados ​​para puxar os trenós de nós para fora do chassi tinha quebrado. O kit de trilhos me deixou triste, a fiação até o cartão de GRID foi um dia frustrante e meia e pelo menos duas vezes eu tenho uma bandeja de hot swap atolado até o suficiente para que eu tive que puxar toda a unidade hotswap fora do nó e colocá-la de volta para fora com uma chave de fenda.


Para este dia o cluster Caesium executa de forma brilhante.


Tem ótimas térmicas, não é particularmente alto e eu não tenho que gastar mais dinheiro para permitir que o IPKVM em IPMI interface de gerenciamento Lights-Out da Supermicro. (Vá para o seu quarto, HP, e pensar sobre o que você fez.) Apesar do desempenho sólido sistema, na verdade, fazer qualquer coisa com o hardware - trocando uma unidade, placa PCI-E, DIMM, etc - é um pesadelo. Até agora, não há mais do que um pouco do meu sangue dentro desses nós.


SuperIPMI screenshot

IPMI screenshot. Clique para o tamanho não-cortadas full 'n' detalhes versão



Ouvindo as massas Uivantes


Agora, eu de fato ouvir você gritando ", mas Trevor, esta é uma revisão dos 2015 2028TP-DC0FR e 2028TP-DC1R Twins, e não algum antigo modelo 2014! Você está certo, é claro, mas eu queria definir o cenário um pouco Se o 2028TP-DC0FR e 2028TP-DC1R são indicativos de toda a série 2015 Twin -. e eu não tenho nenhuma razão para acreditar que eles não são -, então os 2.015 gêmeos verdadeiramente um salto geracional a partir dos modelos 2014.


As guias de trenó de plástico barato que se quebram e resultaram em me cortar minha mão aberta várias vezes tentando retirar um nó com um par de alicates longos em ponta de agulha? O bit de plástico quebrável é agora alguma forma de metal. A valorização realmente menor, mas, acredite ou não aquele que faz a diferença. Fiação interna das unidades é significativamente melhorada; recebendo os cartões de rede em que o 2028TP-DC1R levou uma fração do tempo que levou para tirá-los do cluster de césio, e os nós parecem correr mais frias para arrancar ... mesmo quando eu achatar todo o sistema com high-end renderização cargas de trabalho. As bandejas de unidade são avançados também. Para ser perfeitamente honesto, eles ainda não são tão boa como aqueles em sistemas HP ou Dell, mas eu não tive que desmontar a coisa e atacá-lo com uma chave de fenda, por isso estamos bem avançados no sentido de momentos felizes aqui.


Os kits de trilhos são um passo para cima. Longe vão os dias em que os kits de trilhos Supermicro estavam só de just-mal versões menos de merda das sucatas torcida que Chenbro vende. Os kits ferroviários prestados com os servidores de 2015 Twin são próximo à distância de qualidade Dell, e isso é um bar bastante elevado. Pela primeira vez, eu era capaz de acumular um servidor Supermicro sem o uso de linguagem chula sequer uma vez.


No total, os pedaços de plástico e as formas do estanho nas 2.015 Twins torná-los um upgrade digno de nota. Não é o tipo de coisa que seu CIO se preocupa, mas é o tipo de coisa que importa para aqueles de nós que trabalham na coalface.



quarta-feira, 25 de março de 2015

Empresas holandesas tentar casas aquecimento com servidores em nuvem


Empresas holandesas Nerdalize e Eneco, o ex uma partida, esta última uma empresa de energia, começaram um julgamento de servidores em nuvem como aquecedores domésticos.


A ideia é que, colocando os servidores em casas, onde uma fonte barata de calor é uma coisa boa, você não precisa para construir centros de dados, onde o calor é uma coisa ruim. Em troca de hospedagem de um servidor alugado, as famílias obter calor para um pouco menos do que seria o caso. A humanidade começa a gastar uma grande quantidade de energia para a computação e aquecimento, em vez de um para aquecimento e uma para resfriamento.





Nerdalize diz que seus trabalhos-de-casa servidores (descritos acima) pode oferecer uma nuvem para comparar com qualquer outra e até mesmo operar em 55 por cento menos do que o custo de hospedagem tradicional. Os servidores podem executar Docker, possuem um disco de estado sólido e vem com até 32 GB de RAM para cada CPU.


As duas empresas se reuniram uma jangly-backed-music feliz vídeo em que os proprietários dizem que não podem dizer a diferença entre o servidor / aquecedor e um aquecedor normal, enquanto um boffin do Centro Médico da Universidade de Leiden diz que sua pesquisa só precisa de servidores, não importa onde eles estejam.


Nerdalize e Eneco estão tentando isso em cinco casas por agora, e Eneco da tomada de uma participação na inicialização.


Nem a empresa está dizendo exatamente o que está no servidor / aquecedor, mas o vídeo mostra um casal de hospedagem aquecedor informando que o dispositivo está em silêncio. O 's Reg nuvem mesa é, portanto, disposto a adivinhar os servidores dentro são fanless, não é coisa ruim dado partes móveis em centenas de casas seria um pesadelo de manutenção.


Nós pediu mais detalhes sobre isso e se é possível pedir os servidores ser over-clock, para ajudar Nerdalize oferecer mais grunhido e para pôr em marcha o servidor / aquecedor quando calça jeans recém-lavado precisa ser secado com pressa. ®



terça-feira, 24 de março de 2015

Ransomware detém escolas refém: 'Agora nos dar Bitcoin no valor de $ 129K, er, $ 124k, aguarde ... "


Um distrito escolar de Nova Jersey em os EUA foi mantida refém por ransomware que, aparentemente, exigiu centenas de Bitcoins para acabar com a situação.


O Distrito Escolar Swedesboro-Woolwich ficou sem acesso aos seus arquivos de computador, como resultado do comprometimento da segurança de toda a rede, de acordo com o The South Jersey Times. Sistemas de seus registros de almoço nas cantinas para os seus servidores de e-mail, ter sido tirado do ar .





Localizado no sudoeste de Nova Jersey, o distrito tem, pelo menos, 1.700 alunos em quatro escolas nas classes K-6 (que é a escola primária ou elementar).


O ataque é dito ter começado no sábado de manhã. Soa como se o malware foi capaz de se infiltrar computador depois de computador, ou, talvez, servidores de arquivos centrais, na rede, criptografar todos os dados que ele poderia muito bem, e, em seguida, exigir dinheiro para entregar as chaves de decodificação.


É provável off-the-shelf ransomware foi acidentalmente instalado a partir de um anexo de e-mail armadilhado, e depois se espalhou por toda a rede criptografando cada documento que poderia colocar suas mãos. Dado o tamanho informado do resgate, no entanto, é possível que o distrito foi especificamente visados ​​por criminosos.


"Uma vez descoberto, o distrito tomou medidas para conter a infecção e começou o processo de limpeza e reconstrução", funcionários escreveu no site do distrito . Depois que o software desagradáveis ​​atacaram PDFs, e-mails, planilhas e muito mais, as escolas eram "a operar como se fosse 1981", disse o superintendente Terry Van Zoeren.


"Os arquivos afetados foram principalmente documentos do Word, planilhas do Excel e PDF criado por membros da equipe", funcionários do distrito acrescentou.


"Os dados do sistema de informação do estudante, bem como outras aplicações são armazenados em servidores hospedados fora do local, e não foi afetado pelo vírus."


O malware exigiu 500 Bitcoins, Van Zoeren disse, um resgate que se torna um negócio melhor para as escolas com cada dia que passa, devido a taxa de conversão BTC-USD deslizante. Assumimos 500 BTC é correto, eo superintendente não significa US $ 500 em Bitcoin.


O cryptocurrency tem sido o saque favorecido de meliantes ransomware como pode ser difícil (mas não impossível) de rastrear. A popularidade diminuiu, no entanto, como o preço por BTC diminuiu.


De acordo com o site de rastreamento Coindesk, uma vez que as exigências foram feitas, o valor de 500 BTC caiu de 129.500 $ (£ 87.300) a cerca de 124 mil dólares (£ 83,592) em poucos dias. Nesse ritmo, se o distrito pode aguentar mais algumas semanas eles poderiam obter o resgate até cinco números (em dólares) - embora o tempo de inatividade poderia revelar demasiado caro em muitas outras maneiras.


Nesse meio tempo, porém, o South Jersey Times relata que o distrito escolar teve de adiar os testes padronizados programados enquanto eles vapor limpo da rede. O distrito também tem chamado na Polícia do Estado de New Jersey e do FBI para investigar o ataque. ®


Graças ao leitor Reg Nick para a ponta .



segunda-feira, 23 de março de 2015

Premera saúde corte: US regras de segurança gov irremediavelmente frouxas


Sérias dúvidas têm sido levantadas quanto as regras de segurança de dados do governo os EUA, seguindo palavra que médico Premera Cruz Azul servidores 's foram saqueados por informações financeiras e médicas por hackers - apesar de ter sido declarada segura pelo Tio Sam.


A biz sob fui uma auditoria de segurança de computador por um cão de guarda federal em janeiro de 2014, foi dito em abril que precisava melhorar em algumas áreas, começou a fazer as mudanças necessárias em junho, e fechou o ano com uma marca oficial declarando-o compatível com Portabilidade de Seguro de Saúde e Accountability Act ( HIPAA ). HIPAA estabelece uma referência nacional para lidar com segurança registros eletrônicos de saúde.





Em meio a tudo isso, Premera foi secretamente comprometido maio por criminosos, como revelado na semana passada . O que quer que as mudanças foram feitas depois de abril pode ter sido tarde demais.


Premera foi auditado pela do Tio Sam Escritório de Gestão de Pessoal , porque a biz, com sede em Washington, é um profissional de saúde para os funcionários do governo sob o Federal Trabalhadores da Saúde Benefícios Act. A avaliação de dois meses [PDF] avistou um par de áreas que precisavam de endereçamento:



  • Funcionários Premera não estavam mantendo-se atualizado com patches de segurança para o seu software, deixando os computadores vulneráveis ​​a ataques.

  • Sysadmins não tivesse concordado em um conjunto de "base" de definições de configuração para garantir que todos os seus sistemas estavam seguros com o mesmo padrão, ou melhor.


Os auditores referiu no seu relatório final, datado de 28 de novembro de 2014:



Premera documentou políticas e procedimentos de gerenciamento de patch. No entanto, os resultados das verificações de vulnerabilidade indicam que patches críticos, service packs e hot fixes nem sempre são implementadas em tempo hábil. A não instalação imediatamente atualizações importantes aumenta o risco de que as vulnerabilidades não vai ser corrigido e os dados sensíveis que poderão ser violados.


Premera não pode efetivamente auditar suas configurações do servidor e de segurança de banco de dados, sem uma linha de base aprovado, como uma configuração básica é a referência para comparação. Deixar de estabelecer e monitorar rotineiramente a configuração do sistema aprovados aumenta o risco o sistema pode não atender aos requisitos de desempenho e de segurança definidos pela organização.



Apesar de tudo isso, Premera foi declarado conforme com a Portabilidade de Seguro de Saúde e Accountability Act (HIPAA).


"Nada chegou ao nosso conhecimento que nos fez acreditar que Premera não está em conformidade com a segurança HIPAA, privacidade e regulamentos nacionais identificador provedor", afirmou o relatório final.


O relatório constatou algumas outras áreas de preocupação. O acesso ao centro de dados da empresa era de cartão-chave controlada, mas faltava um segundo fator de autenticação, como a biometria, e não havia câmeras apontando para as entradas para as salas de servidores, o que poderia ter manchado duas pessoas entrando em uma porta ao mesmo tempo com apenas um conjunto de credenciais.


Falhas na capacidade de reutilização de senhas também foram anotados. Quanto ao planejamento da catástrofe, os auditores constataram Premera tinha um bom plano de recuperação no lugar, mas não tinha uma configuração básica para os seus aplicativos mais importantes que permitiriam que a informação a ser reconstruído após um colapso.


O profissional de saúde se apoderou de um projecto de relatório de auditoria do OPM, em abril, e respondeu em junho, dizendo que todas as questões levantadas seriam abordados até o final do ano, se não mais cedo. Até então, no entanto, já era tarde demais - em 05 de maio hackers conseguiu sucesso em servidores, e não foi até janeiro do ano seguinte que o corte foi notado.


"É importante notar que a auditoria da OPM não encontrou preocupações com a gestão da segurança da Premera ou o cumprimento das normas de segurança HIPAA", um porta-voz da empresa disse ao The Register.


O povo de Premera parecem certeza as insuficiências evidenciadas pela OPM em abril não foram exploradas por hackers em maio, mas admitiu que a investigação sobre o compromisso ainda está em curso. Ou os Crims fez uso das vulnerabilidades também encontrados pelos auditores, ou eles não o fizeram e as normas da HIPAA são tão baixos que eles não foram capazes de impedir a intrusão de rede, ele aparece para nós.


"Descobrimos que não há elementos de prova ou indício de que o cyber-ataque a Premera foi o resultado de qualquer um dos itens identificados no relatório de OPM. Temos desde implementado as medidas que o compromisso de levar em nossa resposta. A origem do ataque ainda é parte de uma investigação do FBI em curso ", disse o porta-voz observou. ®



Microsoft obtém centros de dados alimentado por UPS grande turn-off


O problema com os centros de dados é que você tem que ligá-los. Ou, dito de outra forma, o problema com os centros de dados é que eles extraem sua energia a partir de uma rede nacional e isso, em última análise reduz a estrutura de eficiência de custos em que podem operar.


Conspicuamente redes grade chia e Envelhecimento na (mesmo) avançou nações do primeiro mundo não tornar as coisas melhores.





Fontes de energia mais localizadas, como as células de combustível têm sido popularizado através de uma série de ensaios. Em termos simples, uma célula de combustível funciona através da conversão de gás natural em eletricidade.


As células de combustível pode proporcionar melhores taxas de poder de entrega para servidor para além da energia tradicional, mas esta tecnologia ainda está em fase de prova de conceito para um grau. Dito isto, fornecedores como a Bloom Energy e ClearEdge fizeram incursões nesse mercado e eBay afirma para alimentar todo o seu Salt Lake City, Utah, operação de centro de dados em células de combustível.


Mas o problema com as células de combustível é que eles têm de ser executado por meio de unidades de alimentação ininterrupta (no-breaks) - e estes custam muito dinheiro e pegar um monte de espaço.


Tão problemático ou não, as inovações de energia são bons, mas eles são apenas uma parte da solução. Os membros do Projeto Open Compute (OCP) percebem isso e muitos passaram algum tempo olhando não apenas para a energia, mas também sobre as topologias arquitetônicos usados ​​por si armazenamento de dados central.


Membro OCP Microsoft tem vindo a construir centros de dados por mais de 20 anos e acha que ele quer para enfrentar o desafio da energia com uma tecnologia nova distribuídos Fonte de Alimentação Ininterrupta (UPS) chamado Armazenamento de Energia Local (LES). Microsoft revelou LES na Cimeira Projeto Open Compute em março.


Então, qual é LES? Bem, é uma combinação integrada de alimentação e bateria e é totalmente compatível com o Aberto CloudServer (OCS) Sistema de chassis v2. Em outras palavras, não há "complacência fenda comum" all round, por isso é dia feliz Se você é um administrador de sistema central de dados que tem pesadelos sobre compatibilidades arquitetônicos e bateria back-up estruturas.


Com LES vemos uma bateria de lítio-ion instalado dentro próprios servidores físicos reais. Nenhum sistema UPS é necessário. Você pode começar imediatamente a pensar em economias de escala através de fabricação de commodities e da eficiência da manutenção distribuído se cada servidor é substituível com a sua própria fonte de alimentação.


O diretor da Microsoft de engenharia da infraestrutura de servidores cloud Shaun Harris explica o "insight chave" da sua equipa tinha era para eliminar completamente as UPS instalações e mover essa capacidade diretamente para a carga de TI.


"[Com isso] nós não só poderia alcançar reduções de custo e simplicidade operacional, mas poderia abrir toda uma nova área de inovação arquitetônica por maior integração do sistema de bateria com o sistema de gerenciamento de TI e controles. Estas observações levaram às inovações de design para LES, "Harris blog aqui .


Como um todo, então, LES afirma estar representam detecção de baixa latência e não controla possível em um convencionais (normalmente centralizados) sistemas UPS através de mais armazenamento de energia integrada localmente.


A garantia projeto LES vai estar disponível para a comunidade OCP como parte da especificação Open CloudServer (OCS). ®



ARM planeja conquistar 20 por cento do mercado de servidores no ano de 2020


ARM Holdings está dizendo aos investidores que vai demorar de 20 por cento do mercado de silício servidor no ano de 2020.


A empresa fez o pedido na semana passada em um evento em Taiwan, enviando ondas através da mídia asiática.





Um pouco de pesquisa mostra que apresentações como esta (PDF) mostra que a reivindicação de 20 por cento tem sido usada em chats com os investidores desde meados de fevereiro de 2015, com o diagrama abaixo oferecendo uma pista de como a empresa pensa que vai chegar lá.


ARM's plan for server silicon domination


Em outra parte da apresentação, ARM deixa claro que ele pensa que as cargas de trabalho do centro de dados do núcleo estão dentro de seu alcance, especialmente em centros de dados Hyperscale. O conjunto de slides também guesstimates que, em 2020 ARM chippery estará presente em apenas 20 dispositivos, sugerindo que a campanha pretende atrair operadores de caixa branca e / ou servidores de nicho dos fornecedores


ARM da olhou muito tempo um centro de dados contendor graças ao baixo consumo de seus chips de poder e corredor legal, características ideais para as plataformas densas necessários para executar de forma eficiente em escalas muito grandes. Que gente como Cavium apoiaram plataforma da empresa através da construção de um chip de ARMv8 48-core , e ter certeza que ele joga bonito com o hypervisor Xen , não quer magoar.


No lado negativo, deck investidor da empresa foi preparado antes Intel anunciou o Xeon D , um Xeon completo projetado para operações Hyperscale.


Plataformas de sucesso ou fracasso, dependendo do software que é executado sobre eles. Apostas da ARM que a abundância de plataformas de código aberto apoiar sua arquitetura e que os pedidos seguirá então para torná-lo uma alternativa intransigente para x86.


Há muito interesse em ARM, mas há o suficiente para gerar o crescimento necessário para levá-la a partir de hoje compartilhamento de servidor de um por cento a 20 do mercado em 2020? Ian Thornton, veep de relações com investidores da ARM tem sido relatada como dizendo: "Este é um mercado nascente preparado para o crescimento". Ele precisa ser, se a previsão de ARM é provar precisas. ®



quinta-feira, 19 de março de 2015

Esqueça Nokia: futuro promissor da Finlândia é ser servidor central


A Finlândia não é apenas conhecido como o país com o maior número de saunas e bandas de heavy metal per capita, que conta também com Linus Torvalds como seu filho tecnologia mais famoso e tem uma crescente cultura de desenvolvimento de centro de dados.


É claro que todos os países escandinavos têm o potencial para expandir seus negócios de centros de dados, mas a Finlândia pode ter mais ímpeto neste mercado do que os seus vizinhos na Suécia, Noruega ou Dinamarca.





A economia passou por alguns momentos difíceis e PIB caiu, juntamente com o declínio da indústria de papel tradicional do país. Adicione estes elementos a Nokia perder sua posição de liderança no mercado móvel e você pode entender porque vezes precisava mudar.


Explosão do Norte


Se acreditarmos que as oportunidades de investimento braço do governo finlandês, a Finlândia tem um número de factores-chave que o tornam bem alinhada com o crescimento do data center. Então, quais são eles?


Verdadeiramente centros de dados contemporâneos precisa de um conjunto de principais fatores ambientais se quiserem prosperar. Eles precisam de uma grande conectividade internet como uma medida de ambos latência e largura de banda; Proximidade da Finlândia de muitas das principais capitais europeias não feri-lo a este respeito.


A boa localização do centro de dados precisa de uma fonte de energia abundante e seguro e Finlândia verifica que a caixa. Taxas de impostos mais baixos de energia ajudar também.


Fatores geográficos também são obviamente importantes; A Finlândia é um dos países mais ao norte do mundo e assim por seus centros de dados exigem menos ar condicionado para mantê-los frescos.


Melhor do que o carbono neutro


A cidade de Espoo realmente tomou as coisas um pouco mais longe do que muitos e construiu dois centros de dados que estão tentando ser não só de carbono neutro, mas também ser capaz de reutilizar e vender o excesso de calor que produzem. Na área de capital de Espoo, IT empresa de serviços Tieto agora está realmente aquecendo casas com o excesso de calor.


Em um relatório preparado pela Oxford Research e encomendado pela Google, os analistas Jussi Nissilä, Jouni Eho e Vesa Kokkonen afirmaram que a Finlândia já está atraindo grandes investimentos de data center. Um total de cinco investimentos já foram anunciados, incluindo nomes "marquise", tais como Microsoft e Yandex.


"Até agora, os três maiores investimentos de data center anunciada chegar a um impressionante € 1,3 mil milhões. Durante a próxima década, o cluster do centro de dados finlandês poderia criar uma estimativa de 32,000-50,000 anos de emprego e gerar um impacto económico total de € 7 € 11 bilhões ", escrevem os analistas.


A boa localização do centro de dados também precisa de bons credenciais regulação dados e a capacidade de oferecer os fluxos de dados fácil transfronteiriços. Finlândia é dito para desfrutar de uma forte proteção legal sobre a vigilância do governo de dados, particularmente quando comparadas à vizinha Suécia.


Finlândia começou com fábricas de papel e arenques em conserva, mas estes dias a sua indústria é mais conhecido para smartphones móveis e como o berço do Angry Birds da Rovio.


É a cultura dados finlandês apenas começando? Definitivamente talvez - ou ehkä ehdottomasti como dizem, em Helsínquia. ®



quarta-feira, 18 de março de 2015

Quadrilha OpenPower da IBM apregoa primeiro servidor Blue-badged não-Big adequada


GTC 2015, a Fundação OpenPower revelou novo hardware - incluindo o seu primeiro servidor disponível comercialmente - na sua primeira Cimeira OpenPower na quarta-feira, um mini-evento situado dentro GPU Technology Conference da Nvidia na Califórnia.


A fundação também forjou um relacionamento com o liderado pelo Facebook Abrir Compute Projeto , que atua no mercado de servidores x86 Intel IBM socorrida de.





A Fundação OpenPower surgiu em 2013 após a IBM folheou playbook da ARM em projetos de núcleo de processador de licenciamento , e decidiu - com o Google, Nvidia, Mellanox, Tyan, e outros - para puxar os mesmos movimentos no mundo do centro de dados de alto desempenho. IBM concordou em licenciar liberalmente sua arquitetura processador Power então os fabricantes podem construir caixas de servidor com uma pilha de GNU / Linux e outro código-fonte aberto . Big Blue oferece os planos de CPU, firmware e software, Nvidia prevê a interligação NVlink e GPUs, e Mellanox faz o networking.


Se você quiser dar uma volta Power8 em hardware OpenPower, IBM adicionou caixas para sua nuvem Softlayer.


Servidor Tyan primeiro


Esta semana, Tyan anunciou sua snappily nomeado TYAN TN71-BP012 , o primeiro não-IBM marca disponível no mercado de servidores, Power8 potência construído a partir de especificações OpenPower. Ele tem um processador single-chip Turismo, 32 slots DDR3 ECC RAM, espaço para drives 14 hot-swap de disco rígido, slots de geração-3 4 PCIe, e 4 portas 10GbE.


O servidor irá alimentar a Softlayer serviço bare-metal acima mencionada, e chegar a disponibilidade geral antes do terceiro trimestre de 2015.


OpenStack, developer kit, e um protótipo


Nuvem biz anfitrião Rackspace tem buddied com a turma OpenPower para oferecer hardware OpenPower de sua nuvem, correndo OpenStack . Primeiro sistema de desenvolvedor da fundação acelerada por GPU, o Cirrascale RM4950 , será lançado no volume antes do terceiro trimestre de 2015: este tem um Turismo de quatro núcleos, e pode levar até quatro GPUs Nvidia Tesla. IBM está trabalhando em novos servidores, com os seus amigos Nv e Mellanox, codinome Firestone.


Abrir Compute, venha para baixo


OpenPower não é o único consórcio que reúne projetos de hardware liberalmente licenciados para o centro de dados: Open Compute Projeto do Facebook (OCP) é para ele também. Você pode dizer que é um esforço rival, mas em qualquer caso - a OCP juntou novo grupo consultivo do OpenPower, juntamente com a Fundação Linux, ea China Power Technology Alliance (CPTA). Esses conselheiros "irá fornecer orientação para o Conselho de Administração OpenPower e servir como um fórum de apoio e colaboração entre as comunidades com abordagens abertas para infra-estrutura e desenvolvimento de software," estamos disse.




Google não tem realmente licenciado o chip Power8 da IBM sob os auspícios da Fundação OpenPower, então o Google não está fazendo a sua própria variante do processador Power para seu próprio uso, como a fabricante de chips chinesa Suzhou PowerCore está fazendo para o mercado chinês. Mas o Google está mantendo suas opções em aberto ...

Leia mais sobre logotipo da plataforma

O que os executivos dizem


Em um Q & A sessão com a imprensa na quarta-feira, Gordon Mackean, presidente da Fundação OpenPower e diretor sênior da Google, tentei diferenciar OpenPower e Open Compute:


OCP é sobre como gerenciar e criar uma plataforma de baixo custo, enquanto OpenPower é de cerca de alavancar arquitetura Power da IBM, e do lado do desempenho da equação: o desempenho por dólar, vamos nos concentrar nisso.

Brad McCredie, presidente da Fundação OpenPower e um companheiro IBM, acrescentou:


OCP está agora em nosso conselho consultivo. A Fundação OpenPower criou um grupo consultivo, o primeiro a aderir foi a Fundação Linux, segundo foi aberto Compute, eo terceiro membro é a China Power Technology Alliance, que é um grupo de 30 membros na China. O grupo irá aconselhar o conselho de administração do Open de energia.

McCredie também insistiu hardware OpenPower não será um primo pobre a Big Blue-branded, hardware movido a energia.


A estratégia para a IBM em termos de contribuição para a Fundação OpenPower é apenas como você viu para Power8: participamos OpenPower, continuar a introduzir produtos para a linha de produtos da IBM, e a tecnologia estará disponível imediatamente para parceiros OpenPower. Precisamos manter esse tempo de atraso a partir da introdução de linhas de produtos da IBM para os parceiros OpenPower tão pequenas quanto possível.

Ele também falou sobre uma demanda crescente para a visibilidade de código-fonte de preocupações com a segurança um grande negócio, embora ele poderia muito bem dizer que, como é um ponto de venda para a fundação:


Existem algumas tendências na indústria em todo o mundo e uma delas é que podemos chegar ao ponto em que a definição de seguro é "aberto", ou seja: se eu não posso ver o código fonte, eu não tenho certeza se posso confiar nele. Talvez aí, vai ser uma tendência maior à medida que a preocupação de segurança aumentam, como as pessoas tornam-se mais consciente de segurança, e eles podem querer mais e mais aberta a tecnologia, e que uma oportunidade para OpenPower para tirar proveito.

Uma outra coisa que vemos é as linhas entre hiper-escala e da empresa, e eles estão ficando turva. Um dos nossos objetivos é trazer computação acelerada para a empresa. Um dos meus demos for DB2, banco de dados da IBM, sendo acelerado usando GPUs. HPC é um termômetro para a empresa.



Sumit Gupta, o gerente geral da Tesla Computação Acelerada em Nvidia, acrescentou que hardware acelerada por GPU (tais como projetos OpenPower) não tem que ser limitado para o mundo o supercomputador:


Nós [at Nvidia] ter olhado para o mercado de banco de dados por um longo tempo, e há duas razões críticas porque GPUs não pode jogar bem nesse mercado: uma é a conexão entre a CPU ea GPU, que era difícil de fazer direito e, segundo foi a memória da GPU. Nós resolvemos esses problemas: temos uma interconexão de alta velocidade, NVlink, e vai adicionar 32 GB de RAM para nossas GPUs, assim que o mercado para a empresa irá abrir dramaticamente up.

Voltar para McCredie, e ele disse que o apoio para DDR4 RAM pode vir este ano. Ele também se congratulou com os fabricantes de chips vindo para a frente para fabricar seus próprios personalizados processadores Power8 usando modelos licenciados da IBM:


Isso seria um sucesso: a capacidade de fazer isso é algo que os nossos parceiros podem fazer com o IP. Isso vai criar vários produtos independentes, todos em uma arquitetura comum e API software, por isso todo o software é executado como você espera, mas permitindo que a arquitetura para atingir múltiplos mercados. Se isso acontecer, isso é um sucesso. Pudemos ver o primeiro [um processador OpenPower não IBM] em dois anos, que é um bom ciclo de design sólido.

Precisamos de uma gama de opções de desempenho de preços. ®




Premera Cruz Azul está doente após hackers saquear seus servidores


Empresa de seguro saúde Premera Blue Cross admitiu que se tornou a mais recente vítima de roubo de dados após hackers atacaram os servidores do seu departamento de TI no que está sendo chamado de "ataque sofisticado".


Em 05 de maio hackers on-line no ano passado conseguiu penetrar as defesas de Premera e servidores que contenham dados pessoais, financeiros e médicos sobre os clientes atuais e passados ​​da empresa de saúde, bem como a sua equipe rachado. Alguns dos dados datados de 2002. O ataque foi tão astuto equipe de TI da empresa não percebeu que algo estava acontecendo, até o mês de janeiro seguinte.





Em todos os hackers tiveram acesso a mais de 11 milhões de registros de clientes, incluindo nomes, datas de nascimento, e-mail e endereços físicos, números de telefone, números de segurança social, números de identificação membro, detalhes de contas bancárias, e reivindica informações, incluindo dados clínicos. Praticamente tudo o que precisam para roubo de identidade.


"Eu reconheço a frustração que a notícia deste ataque cibernético pode causar", disse o presidente da Premera Jeff Roe em um comunicado .


"A privacidade e segurança das informações pessoais dos nossos membros é uma prioridade para nós. Tanto quanto possível, queremos fazer deste evento o nosso fardo, não o seu, tornando os serviços disponíveis para proteger você e sua informação de avançar."


Roe disse que a empresa estava oferecendo crédito dois anos e proteção de identidade para as pessoas afectadas pela violação via Experian.


A perda de dados não é tão grande quanto o ataque no companheiro firme saúde Anthem Blue Cross, onde cerca de 90 milhões de registros financeiros desapareceu. Mas no corte Premera também tomou registros médicos e estes poderiam ser especialmente útil para fraude de saúde. ®



Totós Web conceder a imortalidade a Sir Terry Pratchett - usando o código web contrabandeados


A morte de Sir Terry Pratchett na semana passada deixou muitos fãs despojado, mas alguns geeks espertos criaram um sistema para assegurar o seu nome vive em tráfego web todos os dias.


No livro de Pratchett 2004 Going Postal, o inventor falecido das "claques", uma forma de sistema de comunicação para enviar dados a grandes distâncias, é imortalizado por uma equipe que adicionar seu nome a todas as mensagens entrantes e de saída. "Um homem não está morto, enquanto seu nome é falado ainda," como um personagem coloca.





Depois de uma discussão no 4chan para-iniciantes Reddit, fãs Pratchett concebeu um tributo semelhante: injetar X-Clacks-Overhead: GNU Terry Pratchett em cabeçalhos HTTP enviados pelo servidor. Isso pode ser feito com quase todos os servidores web por ajustes arquivos de configuração para fazer referência ao final de autor em todo o tráfego de saída. Plugins para injetar o cabeçalho personalizado para solicitações HTTP de saída também estão disponíveis para os quatro grandes navegadores.


A parte GNU vem do universo Pratchett. No código clacks, G é uma instrução para enviar uma mensagem, N instrui o operador clack não registrá-la, e U instrui o destinatário para retransmitir a mensagem no recebimento.


O código também foi uma piada desde o tech-amigável Pratchett - um homem que uma vez foi perguntado por que ele tinha seis monitores de computador sobre sua mesa e respondeu que era porque ele não tinha descoberto a forma de adicionar mais. O sistema operacional GNU (em pé para não Unix GNU) foi iniciado pelo defensor do software livre Richard Stallman; muitas das ferramentas GNU de Stallman já estão disponíveis através de distribuições GNU / Linux.


Como as pessoas permitem que o X-Clacks-Overhead, o nome de Sir Terry vai se espalhado através da internet, assegurando o seu nome será repetido a cada dia. É claro que, com mais de 70 livros escritos existem métodos mais tradicionais de manter seu nome vivo, mas El Reg suspeita Sir Terry teria realmente gostei dessa idéia. ®



Movê-lo! 10 dicas para mudar o seu centro de dados


O cenário é um assustadoramente familiar. Você é a pessoa de TI que acaba de ser dito pelo chefe: "Nós estamos movendo o kit para <inserir o nome de qualquer data center que ele se inscreveu com em pânico>, agora entrar e fazê-lo."


Eu fiz mais do que o meu quinhão de migrações de sistemas on-premise para centros de dados - e mais frequentemente do que não o movimento tem sido impulsionada por algum desastre ou outro que é atingido o escritório e nobbled uma ou mais aplicações importantes.





Aqui está o meu dez passos para a criação de seu kit em um centro de dados.


1. A conexão


Se você está colocando seus sistemas corporativos no centro de dados, você provavelmente ainda precisa ser capaz de se conectar a eles a partir do escritório e ter certeza de que os aplicativos são tão sensíveis e mal-humorado como os usuários precisam que eles sejam. Embora você possa teorizar que é OK para que as coisas sejam um pouco mais lento do que eles estavam com uma instalação no local, a realidade é que os usuários não serão convencidos e então você tem que ser sensível sobre a conectividade.


Isso não significa, porém, que você tem que ir completamente louco e comprar um link super-rápido ponto-a-ponto. Eu executar serviços perfeitamente viáveis ​​através de uma VPN em uma conexão decente internet de alta velocidade para algumas centenas quid um mês sem os usuários reclamando uma vez. O que importa é que a conexão que você escolhe é rápido o suficiente e suficientemente estável para o desempenho de ser coerente. O que estou dizendo é: não vá para fora e obter um circuito DSL cagado e esperar que os usuários para ser feliz - gastar o que você precisa em uma conexão de internet decente habilitado para VPN ou uma linha alugada, mas não vá largura de banda louco e comprar você está, na verdade, nunca vai usar.


2. Segurança


Antes de se dirigir para o centro de dados pela primeira vez, lembre-se que, se a sua segurança é bom, em seguida, a DBO de segurança na recepção não vai deixar você entrar sem aviso prévio. Primeiro, certifique-se de seu chefe colocou você e quem você está levando com você (a única pessoa que vai agradecer-lhe para instalar servidores montados em rack com uma só mão é o seu osteopata como ele lhe oferece o projeto de lei) na lista de acesso, e que você sabe onde seus bits do mundo são, apenas no caso de você ter o guarda fora-de-horas que realmente não tem uma interface cliente ou qualquer conhecimento de como olhar para cima que cremalheiras você está alugando.


3. O seu centro de dados kit de ferramentas


Qualquer pessoa que visite um centro de dados regularmente tem um kit padrão de material para levar com eles. Alguns bits são óbvias: abraçadeiras e loops de velcro, uma variedade de patch cords de cores e comprimentos diferentes, cabos de alimentação (com os plugues e tomadas à direita), chaves de fenda e um saco de nozes de rack e parafusos. Outros bits são menos óbvios. As duas coisas mais úteis que eu já detidas foram um par de adaptadores de quatro vias. Ambos tiveram quatro soquetes do Reino Unido; um tinha um plug interno dos EUA e do outro uma IEC-13 (estilo chaleira) plugue. Assumindo que você está em um centro de dados do Reino Unido a in-rack de réguas de energia terá quer do Reino Unido ou IEC-13 sockets: você está sempre em curto tomadas nas réguas de energia (daí a quatro vias para o seu laptop e carregador de telefone para aqueles atualizações em tempo noite toda), mas o seu rack é sempre quilômetros de tomada de parede mais próxima, assim que você vai precisar para ligar dentro do rack.


Outra coisa que você vai querer ter com você é uma cópia up-to-date de sua documentação de infra-estrutura em seu laptop ou tablet: se você está no centro de dados, que fixa um problema, há uma boa chance de que o problema vai impedi-lo de acessar o servidor com a documentação on. Por fim, verifique se você tem todos os cabos certos: alguns vão viver em sua bolsa de laptop (meu adaptador USB-to-RS232 fica comigo, por exemplo, como ele precisa de um driver para funcionar com o Windows e eu quero saber com certeza que meu laptop possui uma porta serial de trabalho). O resto precisa para viver no esconderijo no local - de volta a isso mais tarde.


4. projeto da cremalheira


Antes de balançar-se para instalar o kit, o layout rack. Não tem de ser uma obra-prima Dali-esque no Visio - na verdade eu uso uma planilha para todas as minas -, mas tem que ser sensato. Comece com a prateleira de teclado / Monitor - eles têm de estar localizado a uma altura onde você pode realmente usá-los. Em seguida, vêm os servidores pesados: tentar colocá-los perto da parte inferior para que você não tem que arriscar a vida eo membro em uma escada para instalá-los (e se eles são montados em trilho, você realmente não quer que os problemas de equilíbrio de um monstro de 30 kilo furar três pés para fora do rack a uma altura de seis pés). Em seguida, pense onde você está indo para colocar os switches, roteadores e firewalls - certifique-se que você pode ver todas as luzes que você precisa ver e que eles são colocados de tal forma que você pode executar cabos a eles de forma sensata. E garantir que o kit é rotulado e que os diagramas são anotados de forma sensata: é muito mais fácil de fazer isso antes de instalar tudo do que cavar em torno de um rack.


Certifique-se que o projeto de rack inclui todos os detalhes, inclusive (e especialmente) de energia e cabeamento de rede. Use os cabos de comprimento certo e traçar a localização de rede e poder de conexão de cada dispositivo. Se suas réguas de energia em prateleiras são formato IEC-13, em seguida, tomar cuidado com qualquer gadgets que são alimentados a partir de fichas de transformadores de estilo UK - certifique-se o provedor de centro de dados dá-lhe provisão para este fator de forma com as tomadas espaçadas de tal forma que você pode realmente ajustar as fontes de alimentação ao lado do outro em tiras.


5. A gestão de cabos


Gerenciamento de cabos: a coisa mais tediosa do mundo, e a coisa que você vai ser grato para se você fazê-lo corretamente. Não basta enfiar todo o kit no rack: certifique-se de colocar as unidades de gestão de cabos em que você possa executar o cabeamento de uma forma que permite que você trabalhe com a fiação mais tarde. E onde os servidores montados em trilho tem traseiros braços de gerenciamento de cabos, utilizá-los: tira os cabos de força para os braços e se certificar de que eles se mover sem bloqueio. Você precisa ser capaz de puxar kit sem cabos sendo forçado ou pegar em qualquer coisa, e embora seja um completo bola-dor e não há tal coisa como um braço de gerenciamento de cabos que funciona como você quer que ele, todos eles são geralmente boas suficiente, contanto que você é diligente.


Finalmente, rotular ambas as extremidades de cada cabo - não à direita no final pelo plug, mas três ou quatro centímetros a partir do final para que você possa ver os rótulos facilmente. Você não tem que gastar horas fazendo funk etiquetas profissionais: rótulos claros e escritos à mão sobre as marcas que não vai cair são melhores do que os impressos de funky que manchas e, em seguida, caem em uma quinzena.


6. Mova ou substituir?


Quando você está se movendo seu material para o centro de dados, aproveitar a oportunidade para pensar em trocar um pouco do seu kit. A média on-premise set-up conta com equipamentos de diferentes idades, e é definitivamente vale a pena substituir, pelo menos, algumas das coisas mais velho - por um par de razões. A primeira é que, se algo é realmente velho, você precisa considerar suas chances de sobreviver a experiência de ser puxado para fora, acarretou em toda a cidade e empurrou em um novo rack.


Em segundo lugar, mesmo se você acha que vai sobreviver ao trauma de deslocalização, você precisa decidir se você quer ter tanto o tempo de inatividade do movimento e, em seguida, o tempo de inatividade de um sistema de substituição logo depois. Então, se você é provável para substituir algumas coisas de qualquer maneira, pensar em trazê-lo para a frente, se você pode pagar.


7. Coordenar o movimento


Kit Movendo-se para o centro de dados é uma combinação de diligência e cuidado. Para as coisas realmente crucial, terem sempre em mente a empregar motores profissionais - ou, pelo menos, usar engradados acolchoadas adequadas que são projetados para kit de TI.


Bem antes da mudança, testar tudo no centro de dados. Se você foi capaz (de acordo com a última seção) para substituir parte do kit que é ótimo, porque você pode instalá-lo antes do tempo no centro de dados e utilizá-lo para verificar fornecimento de energia, conectividade com a internet e afins.


Antes de desligar nada, rotulá-la. Não retire qualquer coisa até que você esteja absolutamente convencido de que você tem todas as informações que você precisa colocá-lo novamente na outra extremidade. A taxa mais fácil call-out que eu sempre ganhava era para um cliente que tinha se movido um cluster de servidor para um novo centro de dados e conseguiu conectar os cabos SCSI erroneamente tanto na unidade de armazenamento e servidor: a viagem de duas horas, uma headscratch 20 minutos, um momento lâmpada, quatro re-plugs, um "reconstruir sua configuração RAID da matriz" comando cartão RAID BIOS, que teve metade de um minuto, uma casa viagem de duas horas, um cliente aliviado e faturar uma bolada.


8. Documentação


Documente o set-up para a morte, até o último detalhe - como conexões de alimentação e de rede - e armazenar uma cópia dos docs nas prateleiras, bem como mantê-los eletronicamente: não há absolutamente nenhum dano ter uma cópia gravada em algum lugar conveniente no cremalheira, desde que ele não está interrompendo o fluxo de ar. Certifique-se de cada dispositivo no rack é rotulado de forma clara e correta, e eu já mencionei rotulagem cabo. Mantenha um diário de mudança no gabinete com um lápis bem agarrados, e garantir a qualquer um mudar nada atualiza o livro com o detalhe de que eles têm feito e quando. Documentação é seu amigo, mas se você deixá-lo chegar até mesmo um pouco fora da data que você está recheado.


9. Monitoramento remoto


Com o seu equipamento localizado alguma forma a partir do escritório, você vai se sentir como se alguém cortar um dos seus membros, a menos que compensar sua incapacidade de simplesmente passear na sala do servidor e olhar para outras coisas. No mínimo, você precisa executar algumas ferramentas de monitoramento para que você possa manter um olho o tempo em o comportamento dos servidores.


Eu não quero dizer coisas como monitoramento SNMP de espaço em disco e afins - você deveria estar fazendo isso, já em seu set-up no local, depois de tudo. Em vez disso, quero dizer, fazendo o que pode para substituir o material visual que você costumava usar quando o kit era local. Coisas como LEDs no painel frontal, ou aqueles pequenos painéis de mensagem de LCD que os servidores utilizam para mostrar os códigos de erro. A maioria dos fabricantes de fornecê-lo com pequenas ferramentas que você pode usar para interrogar esses remotamente - mas você pode precisar de gastar algumas libras nos adaptadores de gerenciamento / monitoramento remoto para alguns servidores se você originalmente não comprá-los. Vamos aprofundar gestão e monitoramento remoto em uma parte separada, como há muito a ele, se você quiser fazê-lo corretamente, mas certifique-se de fazer o suficiente para obter uma sensação de conforto que você pode ver o que é o que de longe.


10. Seu esconderijo de bits


Já mencionei que ao lado de seu próprio conjunto de ferramentas que você carregar, você deve ter um estoque de coisas úteis no centro de dados. Alguns provedores de deixá-lo ter uma caixa de plástico na parte inferior do seu rack (assumindo que não há espaço), enquanto outros você vai alugar um pequeno armário: o que é o caso, fazê-lo. Mantenha um estoque global (mas não grande) de energia e cabos de rede de todos os comprimentos e cores que você pode precisar, e se puder, você também deve ter alguns discos rígidos de reposição e fontes de alimentação para o equipamento chave como estas são as duas coisas que sopram -se com mais freqüência. Ah, e enquanto estamos falando de energia, verifique se você tem as barras de energia de quatro vias que eu mencionei no stash, bem como ter o seu próprio. Certifique-se de que você tem o cabo serial ou qualquer outro cabo de configuração personalizada para cada dispositivo na sua instalação, e um cabo longo agradável Ethernet cross-over. Adicione algumas abraçadeiras e mais nozes rack e parafusos e você está apenas sobre ordenados.


O que você acabou de ler é apenas o começo para trabalhar em centros de dados: apesar de parecer simples, há um monte de saber se você quiser fazê-lo corretamente. Mas tome algumas dicas de estes dez pontos e você vai ter aprendido com muito poucos erros que eu fiz ao longo dos anos, e sua instalação primeiro centro de dados será muito mais fácil do que de outra forma poderia. ®



terça-feira, 17 de março de 2015

Lançamentos Drobo variam-topping mais gordo, mais rápido 12-bay bruiser


Drobo - a empresa robô dados que há quase dois anos se fundiu com dados conectada - actualizou o seu produto B1200i montado em rack, tornando-a mais gorda e mais rápido.


Drobos robôs de armazenamento de dados são extremamente fácil de usar dispositivos de armazenamento que você pode preencher com auto-discos, e que protege os dados com um esquema BeyondRAID, disse a oferecer segurança contra falhas no disco duplo, além de ser mais eficiente do que RAID.





Originalmente para os consumidores e, em seguida, que se deslocam para o uso do negócio, eles vêm em uma variedade de tamanhos, incluindo duas, quatro, oito e 12-bay produtos, este último vindo com o B1200i , que foi introduzido cerca de três anos atrás, como um dispositivo iSCSI-access com disco e armazenamento SSD em compartimentos de 3,5 polegadas.


Os dados foram diferenciados em todo o armazenamento em disco e flash, com dados transacionais vai piscar e streaming de dados em disco.


Vendas Drobo definhou um pouco em 2012, mas a fusão de dados conectado maio 2013 fez com que a linha de produtos começou a ser renovada, com uma melhor de quatro baias produto março do ano passado. Agora, o 12-bay B1200i foi atualizado também.


É um sistema rígido híbrido + flash, ou disco-only, e recursos:



  • Até 800 boost cento em processamento BeyondRAID com operações paralelizado per

  • Capacidade de pool de armazenamento aumentou 400 por cento para 128TB, ou seja, unidades de 6 TB pode ser usado feliz

  • Aumento de 400 por cento no tamanho do volume de 64TB

  • Criar até 255 volumes por B1200i

  • Thin provisioning com os chamados SmartVolumes, usando o armazenamento de um conjunto comum de discos em vez de silos de discos físicos

  • Hypervisor 6 suporte VMware vSphere ESCi


Diretor de marketing de produto sênior do Drobo Tony Hampel visitou a fábrica da citação para sair com esta: "Essas melhorias facilmente fazer a B1200i o Drobo mais expansível e melhor desempenho na história." Sim, estamos perfeitamente de acordo.


Drobo_B1200i

Drobo B1200i



Estamos informados de que é o primeiro produto Drobo com componentes modulares reparadas. Há "um cartão removível controlador, fontes de alimentação hot-swappable duplas redundante e uma unidade de ventilador de resfriamento hot-swappable".


O B1200i suporta drives de disco Capacidade Seagate 6TB Enterprise. A aceleração de flash em configurações híbridas usa 720GB SSDs e dados hierarquização iniciar automaticamente assim que o sistema operacional detecta um SSD foi inserido em um compartimento de unidade.


Use a B1200i em uma pequena empresa para um servidor de backup escalável ou como armazenamento para um cluster de virtualização de servidores. É certificada para VMware vSphere, Symantec Backup Exec e ambientes de backup Veeam.


Os usuários existentes, sem dúvida, a capacidade de amar e upgrades de velocidade. A piscina de armazenamento de 128TB significa que próximos discos 10TB poderia, em teoria, ser apoiada.


Será que podemos ver 24 baía Drobos no futuro? Esta é uma empresa que se concentra em mercados específicos e pode ser que as caixas de armazenamento de 24 baía levá-la para longe de sua zona de conforto. Nós vamos ter que esperar e ver.


O B1200i já está disponível a partir de parters canal Drobo e preços PVPR são:



  • B1200i sem discos: 3999 dólares

  • B1200i Híbrido com 36TB HDD e SSD 720GB: $ 8.499

  • B1200i híbrido com 48 TB HDD e SSD 720GB: $ 12.599

  • B1200i com 72TB HDD: $ 13.799


®



sexta-feira, 13 de março de 2015

Barracuda CEO encaixar-se pós a bordo Nimble


CEO da Barracuda, "BJ" Jenkins, juntou-se o conselho do líder matriz de disco híbrido Nimble armazenamento. O que não o trabalho do dia preencher seu tempo?


Ele também é presidente da Barracuda, como se ele não está ocupado o suficiente. Uma citação enlatados dele em seu movimento, disse: "É um momento emocionante para estar no negócio de armazenamento como se desenvolva a inovação e os novos líderes da indústria emergir"





"Nimble está bem posicionada para se mover para cima mercado para a empresa e apreender seu quinhão do mercado endereçável total de US $ 22 bilhões", disse Jenkins. "Estou ansioso para servir no conselho e trabalhar em estreita colaboração com a equipe executiva para impulsionar o crescimento continuado e dinâmica através de [o] próxima fase da expansão da empresa."


Trabalhando em estreita colaboração com a equipe executiva? Como é isso? Ele vai definir no comitê de auditoria da Nimble, supervisionando os relatórios financeiros. Não há trabalhar em estreita colaboração com a equipe exec para impulsionar o crescimento de negócios em que a atividade.


Suresh Vasudevan, CEO Nimble desde 2011, tinha suas próprias observações prepped: "BJ é experimentado de forma única para trabalhar com a gente, enquanto continuamos a executar uma visão agressiva para entregar plataforma de armazenamento flash da indústria mais eficiente e dobrar para baixo em nossas vendas e canal Routes to-market para acelerar a aquisição de clientes no provedor de serviços em nuvem da empresa e segmentos do mercado ".


Antes de vir para tomar o Barracuda rédeas Jenkins foi presidente de sistemas de recuperação de backup divisão (BRS) da EMC. Barracuda é de cerca de backup de arquivos e cópias, então o que Jenkins saber sobre o negócio da matriz de armazenamento híbrido?


É uma perplexidade. Estamos ouvindo a história toda aqui, ou é outra coisa acontecendo? ®



quinta-feira, 12 de março de 2015

Disk array devastação: Nova tecnologia investida lágrimas coragem de trad biz


Um gráfico EMC mostra um declínio acentuado em legado SAN vendas unidade matriz próximos, com hyperconverged, armazenamento da matriz definida por software e todo-flash crescente para compensar.


Analista William Blair Jason Ader participaram da 10 de março evento do Fórum Estratégico EMC e enviado clientes um resumo do que aprendeu.





Gestão EMC citou alguns números IDC Research, que sugeriram o mercado de US $ 26 bilhões sistemas de armazenamento externo vai crescer em três por cento CAGR de 2014 a 2018. Durante este período, "tradicional autônomo são esperados sistemas híbridos para diminuir a um 13 por cento composto taxa anual ", enquanto que" são esperados novos sistemas a crescer a uma taxa anual composta de 22 por cento (novos sistemas + convergiram em um 19 por cento CAGR) ".


Trad stand-alone sistemas híbridos são VMAX e VNX arrays. Sistemas convergentes são o Vblocks de VCE. Novos sistemas de armazenamento incluem exemplos de XtremIO, ScaleIO / ECS e DSSD. Sistemas hyperconverged (VSEX azul) e NAS scale-out (Isilon) também vai crescer.


EMC vê o mercado em movimento "em direção a sistemas convergentes e hyperconverged, matrizes all-flash e back-up aparelhos construídos de propósito".


Stifel Nicolaus MD Aaron Rakers, também no evento, divergiam sobre a taxa de declínio, escrevendo: "EMC 2014-2018 estima que o híbrido tradicional sistemas (arquitetura baseada em HDD) de armazenamento vai diminuir em um CAGR de 5 por cento (por exemplo, VMAX, VNX, etc.) ".


Aqui está um gráfico Ader-fornecidos representando as alterações:


Ader_EMC_SAN_Decline

Trad SAN gráfico desgraça da EMC. PBBA = propositadamente construído back-up aparelho.



Se essa visão EMC de vendas da matriz de armazenamento SAN tradicionais em declínio estiver correta, então ele vai afetar todos os outros fornecedores de vendê-los, incluindo Dell, Fujitsu, HDS, HP, IBM e NetApp, para citar os mais proeminentes.


A menos que esses fornecedores estão representados nas categorias de crescimento do mercado, suas vendas de sistemas de armazenamento vai diminuir em sintonia com esta tendência. Alguns já estão mostrando quedas nas vendas de sistemas de armazenamento, como IBM e NetApp .


Rakers observou EMC dizendo que haveria uma versão do VNX só de software, devido ainda este ano.


Os participantes do evento ouviu que o produto DSSD envolverá um gabinete 5U ser um ", aparelho de conexão direta com base em API baseada em PCIe armazenamento compartilhado". Dados vai passar a partir do dispositivo para hosts do servidor através de um tecido PCIe compartilhada.


Dentro do recinto há 36 hot-swap de módulos de flash proprietárias, cada uma contendo 512 dice de flash. EMC compra nos NAND flash e controladores de matérias, mas usa seu próprio firmware para obter "10x o desempenho e 5x a confiabilidade de utilizar o mesmo NAND Flash como os outros, dadas as suas capacidades de firmware".


EMC tem mais de 600 clientes que utilizam matrizes Isilon para análise dentro de uma base de 5,800+ cliente. Um software-produto só Isilon também é devido no final deste ano. ®



quarta-feira, 11 de março de 2015

VCE escalas até, para cima e para fora do acordo de exclusividade com a Cisco


VCE, empresa de infraestrutura convergente da Federação EMC, Cisco em que é agora um parceiro silencioso, revelou novos produtos scale-out e a primeira diluição de seu plano de "Cisco-vai-sempre-proporcionar-networking".


Os produtos scale-out são também algo de uma partida para VCE, que já havia vendido plataformas convergentes que não eram extensível. Graças a um novo "VCE Vscale Arquitetura", será doravante possível Vblocks combinados em plataformas cada vez maiores. Diretor de tecnologia da VCE Trey Layton disse-nos conjuntos 1000 em rack não está fora de questão para aqueles que operam em escala web. Pessoas que precisam que o porte será capaz de chegar lá com novas "extensões de tecnologia VCE" compreendendo apenas o armazenamento ou servidores. Este último será Cisco UCS, o ex-EMC Isilon. Por agora, de qualquer maneira: não há a intenção de fazer mais "extensões" sabores que cobrem toda a gama de armazenamento da EMC, conforme o caso.





A outra grande mudança é a introdução do "Sistema VxBlock". Como seus primos Vblock, VxBlocks serão integradas, testadas e validadas até o wazoo (no bom sentido). Ao contrário Vblocks, VCE pode contemplar a inclusão de peças não Cisco. Por enquanto há dois VxBlocks, uma embalagem definido por software de redes (SDN) produto NSX da VMware e outra com o Application Centric oferta de infra-estrutura, concorrente da Cisco SDN / equivalente. VCE promete mais VxBlocks vão surgir durante 2015. Layton disse El Reg eles poderiam concebivelmente incluem componentes e software de outros fornecedores, porque é apenas em produtos denominados "Vblock" que VCE é obrigado a usar apenas produtos Cisco.


2015 vai ver uma outra variável entrar no mundo de VCE na forma de Vblocks embalagem aplicações pré-configuradas. A empresa não está dizendo que ele alinhou para estes novos Vblocks além colega Federação EMC Pivotal (Cloud Foundry em uma caixa em breve estará em cima de nós), mas nos disse que foi agradavelmente surpreendido com o nível de fornecedores de aplicativos de juros têm mostrado na idéia e na quantidade de trabalho que tem sido realizado até à data. Vale lembrar que tais idéias não são inteiramente novo na órbita da VCE, como Avaya tem oferecido um comunicações unificadas empilhar-in-a-box rodando no software pré-configurado VMware.


Também descendo a rampa de lançamento é a "Fundação VCE para Federação Enterprise Cloud híbrido", que permitirá que a "integração da fábrica de tecnologias adicionais VMware e EMC", incluindo NSX, vRealize e EMC ViPR.


Uma atualização para o software VCE Visão Operações Inteligentes 3.0 é um outro anúncio, permitindo lidar com os novos produtos em escala para fora e a federação em entidades lógicas individuais de Arquitetura Vscale oferece. Outras notícias inclui o Vblock 540 e 740 anunciado no ano passado agora estão o transporte, bem como a introdução dos "VCE Soluções Integradas para Gestão Cloud", disse a fornecer um "out-of-the-box nuvem fundação".


Layton nos disse que os anúncios acima representam o modelo da VCE para o seu futuro como um EMC Federação Membro, o status é alcançado desde Cisco reduziu-se a um parceiro silencioso. Ele também disse que os novos pacotes de aplicativos da VCE significa que a empresa não é totalmente infeliz para ser comparado a Oracle, mas que acha que trabalhar com vários fornecedores de aplicativos será um importante diferencial.


Outra pepita importante a partir do lançamento de hoje é que VCE será um parceiro de lançamento para próxima EVO da VMware: Cremalheira receita rig Hyperscale. O novo VCE Vscale Arquitetura parece ser uma parte dessa promessa.


O que fazer com tudo isso? Quando EMC adquiriu dados gerais caminho de volta, em 1999, ele se agarrou aos arrays CLARiiON e cuspiu os servidores. Ao longo do último ano ou assim ela já imaginava que a EMC poderia voltar para os servidores, mas agora parece que isso é improvável. Servidores de embalagem e de apoio, no entanto, agora é um campo em que a Federação EMC tem várias ofertas em toda a nuvem privada, nuvem híbrida, e agora também Hyperscale e aplicativos-in-a-box. E não uma enorme quantidade de concorrentes. ®



Apple: So sorry snafu DNS de 10 horas aleijado nosso app, as lojas do iTunes


Atualizado Apple culpou um erro de configuração do servidor para hoje 10-plus horas de interrupção de seu lucrativo App Store, Mac App Store, iBooks Store e iTunes Store.


O iPhone gigante, em um comunicado à imprensa que o tempo de inatividade foi causado por problemas com sua configuração DNS. Da Apple página de status do sistema confirma vários sites são titsup, deixando as pessoas ao redor do mundo não conseguiu comprar o material e fazer o download do software.





A Apple ancinhos em cerca de US $ 2.19m de uma hora na receita de sua iTunes e lojas de software, de modo que estrague DNS custou ao biz pelo menos US $ 21 milhões hoje, nós contamos.


"Pedimos desculpas aos nossos clientes a ter problemas com o iTunes e outros serviços, esta manhã. A causa foi um erro de DNS interno na Apple", a equipe de imprensa da operação idiota de impostos Cupertino explicou.


"Estamos trabalhando para fazer todos os serviços disponíveis para os clientes o mais rápido possível, e agradecemos a todos por sua paciência."


A partir de 1230 Horário do Pacífico (1930 GMT), as lojas da web ainda estava exausto. A Apple ainda não apresentou qualquer atualização sobre quando o serviço será restabelecido.


Captura de tela da página de status da Apple

bye-Phone ... página de status da Apple reconhece o tempo de inatividade



Os locais caiu em cerca de 0200 PT (0900 UTC), com usuários relatando uma mensagem "Status_Code_Error" ao tentar se conectar ao serviço. O serviço iCloud também foi para baixo por um breve período, mas já se recuperou.


Captura de tela da página de status da Apple

Interrupção ... website estatuto da Apple afirma as lojas e iCloud caiu entre 0200 e 1300 PT hoje (clique para ampliar)



Os problemas vêm em um momento bastante inoportuno para Apple: a biz está desfrutando de hectares de cópia arrebatador após CEO Tim Cook revelou um novo MacBook e definir uma data de lançamento firme para o Apple Watch.


Escusado será dizer que, se moneybags fanbois não pode receber qualquer software para o seu $ 17.000 acessório de moda no próximo mês, a Apple vai ter um problema em suas mãos. ®


Atualizado para adicionar pelo 1425 PT (2125 UTC)


Apple diz que suas lojas estão agora de volta ao normal, e afirma que se recuperaram por volta de 1300 PT (2000 UTC).



terça-feira, 10 de março de 2015

Intel dá o Facebook D - Xeon SoCs páginas web lob para as massas


Abrir Compute Summit Facebook está usando system-on-chips da Intel Xeon D para construir servidores eficientes em termos de energia da web para os 1.390 milhões de pessoas que visitam a rede social a cada mês.


O design do servidor OpenRack tem o codinome de Yosemite, está na foto acima, e está disponível para qualquer um usar sob a OpenCompute projeto. O hardware "aumenta drasticamente a velocidade e serve de forma mais eficiente o tráfego do Facebook," engenheiros do site se vangloriar.





Cada trenó detém quatro placas, e em cada placa, fica um simples pacote de processador D-1540 Xeon com o seu próprio armazenamento de RAM e flash. Essa parte D-1540 possui oito núcleos (16 threads) rodando a 2 GHz, além de duas portas Ethernet de 10 Gb, PCIe e outro IO.


Cada processador consome até 65W, 90W para toda a placa do servidor, e 400W (TDP) para um trenó cheio. Um único rack pode conter 48 trenós, o que aumenta até 192 Xeon D SoCs e 1.536 núcleos de Broadwell. A motherboard Yosemite tem multi-anfitrião interconexão de rede a 50Gb / s que conecta os quatro placas de CPU através de uma única porta Ethernet.


O mais importante é que este projeto é menos de uma dor de cabeça para os engenheiros de software do Facebook. Cada servidor independente é um processador soquete único com a sua própria RAM, armazenamento e NIC, ao passo que os projetos anteriores são assuntos de dois soquetes. O projeto com um único soquete se livrar de todas as dores de cabeça NUMA presentes em um sistema de dois soquetes, quando a escrita e código de afinação para servir páginas web para os visitantes do site.


"Nós demos uma olhada em nossas pesadas cargas de trabalho ... e os desafios com equilíbrio NUMA, e veio com Yosemite," Jay Parikh, veep do Facebook de engenharia, disse ao The Register na Cimeira OpenCompute hoje, em San Jose, Califórnia.


"Há quatro bandejas, e cada bandeja tem um computador de um soquete na mesma. Este é um projeto de quatro-em-um para cada trenó. Cada cartão tem uma CPU, memória e SSD, assim você pode carregá-lo como um servidor .


"890 milhões de pessoas visitam o Facebook no celular todos os dias. Temos que construir a infra-estrutura para suportar isto."


Reduzir para metade o número de soquete também reduz o consumo de energia, dizem-nos, e reduz a pegada de cada servidor. Parikh acrescentou que data centers do Facebook são "100 por cento" alimentado por engrenagem OpenCompute, e salvou a biz US $ 2 bilhões nos últimos três anos em termos de energia economizada, e assim por diante.


Facebook e Intel foram aparentemente trabalhando no uso Xeon Ds para os últimos dois anos, enquanto, ao fundo, a rede social tem sido a brincar com a idéia de usar SoCs movidos a ARM densas para servidores front-end. Até agora, ao que parece, a Intel está vencendo.


"Nós começamos a experimentar com SoCs cerca de dois anos atrás. Naquela época, os produtos SoC no mercado eram em sua maioria leves, com foco em pequenos núcleos e baixo consumo de energia", disse Facebook design de hardware engenheiro Harry Li.


"A maioria deles tinham menos de 30W. Nossa primeira abordagem foi a de embalar até 36 SoCs em um gabinete 2U, o que poderia tornar-se até 540 SoCs por rack.


"Mas essa solução não funcionou bem porque o desempenho de thread único foi muito baixa, resultando em maior latência para a nossa plataforma web. Com base nessa experiência, que nossos olhos para os processadores de potência mais elevada, mantendo a abordagem SoC modular."


Intel apenas puxado os envoltórios fora da série D Xeon, uma família de 14nm Broadwell CPUs destinada a computação em nuvem. Você pode ler um mergulho profundo na tecnologia no nosso site, a plataforma.


Em outros desenvolvimentos



  • Os engenheiros da rede social são open-sourcing seu software controlador de gerenciamento da placa base (BMC), apropriadamente chamando- OpenBMC . Este é o código que é executado em um microcontrolador em placas-mãe de servidores, e permite que os administradores de sistemas para monitorar a temperatura de um computador, controlar seu poder, e fale com o kernel via serial-over-LAN. É útil para o gerenciamento de máquinas, mesmo que o sistema operacional tenha caído. Software do Facebook começou a vida durante uma hackathon 24 horas por engenheiros do site.

  • Broadcom está aberto-sourcing uma biblioteca de software chamado OpenNSL assim outro código pode conversar e controlar seus ASICs rede. Agora, o Facebook lançou FBOSS Agent que é executado em seus switches de rede, e usa OpenNSL para controlar as subjacentes Broadcom ASICs na sua Wedge interruptor top-of-rack.

  • Facebook publicou os planos para sua Wedge interruptor top-of-rack. Accton, Broadcom, Cumulus, e Big interruptor está construindo o hardware para os outros a comprar; Accton é pronto para enviar o equipamento no primeiro semestre deste ano.

  • Mais a seguir. ®



HP batalhas de volta contra o branco-box com os servidores cloudline Foxconn-construídos


HP tem feito a sua oferta para a relevância no centro de dados moderno, com uma nova linha de servidores destinados a "escala cremalheira" e implantações de nuvem "escala".


Os HP cloudline servidores, revelada na Cimeira Abrir Compute Projeto em San Jose, Califórnia, esta semana, são o fruto de uma colaboração entre a HP e fabricação chinesa gigante Foxconn, que foi anunciado no ano passado.





"Esta é uma linha de produtos visivelmente diferente do que temos anunciado e que temos vindo a enviar para mais de 20 anos na linha ProLiant," John Gromala, diretor da HP sênior de gerenciamento de produtos Hyperscale, disse em um discurso manhã terça-feira.


Anunciado como entregar "tier one qualidade com preços caixa branca", os novos servidores são a resposta da HP para o mercado crescente para servidores sem marca construídas e entregues pelos fabricantes originais de design asiáticos (ODMs), como Inventec, Quanta, Super Micro e Wistron.


Foxconn's Foo-Ming Fu and HP's Alain Andreoli

Foxconn Foo-Ming Fu e Alain Andreoli da HP disse que as duas empresas "casada" para produzir servidores cloudline



No lançamento, a família cloudline inclui cinco linhas de produtos. No topo da lista, os sistemas CL7300 e CL7100 projetado para aplicações de computação que precisam de muita memória e armazenamento.


Os sistemas CL2200 e CL2100 são um pouco mais barato e são projetados para aplicações de grande dados de armazenamento intensivo e cargas de trabalho polivalentes, respectivamente.


E se você realmente quer cortar custos, não são os servidores CL1100, que Gromala descreveu como "um servidor de dois soquetes com o menor conjunto absoluto de recursos" que a HP poderia entregar para cargas de trabalho leves, como servidores web front-end.


Todos os modelos são servidores com dois soquetes com base nos últimos processadores da série Intel Xeon E5 v3.


Para conseguir o que a HP descreve como "infra-estrutura de custos focado" - que é servidores baratos para você e para mim - HP tem atraído a especialistas da cadeia de suprimentos da Foxconn para cortar todos os cantos possíveis.


Considerando servidores anteriores pode ter sido fornecido com múltiplos componentes redundantes para evitar tempo de inatividade em caso de falhas, sistemas cloudline contar com infra-estrutura de software e scale-out para alcançar alta disponibilidade. Pense nuvens, não servidores.


HP também está disposto a jogar rápido e solto com os seus compromissos de apoio para atender às necessidades de preços dos clientes. "Se você quer apenas uma garantia de 30 dias sobre as coisas, podemos prever que absolutamente", disse Gromala.


Quanto a preços exatos, bem, não está o busílis. Servidores cloudline só estão disponíveis em volume e de preços dependerá quantidades e configurações necessárias.


HP vai começar a receber pedidos para as linhas de produtos CL1100, CL2100 e CL2200 em 30 de março Os modelos mais corpulentos CL7100 e CL7300, por outro lado, vai demorar um pouco mais para chegar ao mercado, e os clientes potenciais devem entrar em contato com seus representantes para a HP detalhes. ®



segunda-feira, 9 de março de 2015

Google potes capacitores e desvia DRAM para erradicar Linux


No verão passado, o Google reuniu um grupo de pesquisadores de segurança leet como sua equipe de Project Zero e os instruiu para encontrar falhas incomuns de dia zero. Eles tiveram muito sucesso no software a partir, mas na segunda-feira anunciou um corte hardware que é um doozy real.


A técnica, batizada de "rowhammer", rapidamente escreve e reescreve a memória para forçar erros condensadores na DRAM que podem ser usados ​​para ganhar o controle de um computador de destino. A equipe do Projeto Zero não tem construídos dois exploits de trabalho que levam com sucesso sobre o controle de muitas x 86 computadores com o Linux, e dizem que eles poderiam fazer o mesmo com outros sistemas operacionais.





"Um explorar usos rowhammer induzida bit flips para obter privilégios do kernel Linux em x86-64 quando executado como um processo em nível usuário sem privilégios", a equipe relatórios .


"Quando executado em uma máquina vulnerável ao problema rowhammer, o processo foi capaz de induzir pouco vira em entradas de tabela de página (PTE). Ele era capaz de usar isso para ganhar acesso de gravação para sua própria tabela de página, e, portanto, ganhar leitura e escrita acesso a toda a memória física ".


A equipe descobriu que martelar duas posições de memória com a substituição frequente causado um terço a vazar dados. Normalmente isso é muito aleatório um processo para a pirataria grave e seria apenas travar o sistema alvo, mas a equipe do Google conseguiu construir código que mapeia locais de memória específicos que seriam úteis para assumir um sistema.


A equipe testou a façanha em 29 laptops x86 construídas entre 2010 e 2014 e usando DDR3 DRAM. Em 15 casos, a equipe poderia subverter com sucesso os sistemas e da susceptibilidade DRAM cobriu uma variedade de fabricantes de memória.


Enquanto isso foi uma alta taxa de rachaduras, relatou a equipe quase nenhum sucesso em computadores desktop, possivelmente porque eles usam mais recente RAM, com memória de correção de erros (ECC), o que torna os ataques rowhammer muito mais difícil de realizar, mas ataques bem sucedidos contra servidores - especialmente os que os cantos cortados com a sua RAM - não são impossíveis.


"Há alguns ambientes de hospedagem barata em que isso é possível, a execução de servidores baratos, sem memória ECC, com contas de usuário separadas em vez de usar as máquinas virtuais", explicou Rob Graham da Errata Security. "No entanto, tais ambientes tendem a ser tão cheia de buracos que existem rotas provavelmente mais fácil de exploração do que este."


A equipe do Google também disse que novas versões de firmware mudar a forma como o BIOS configura controlador de memória da CPU para reduzir a eficácia dos ataques rowhammer, aumentando a taxa de atualização DRAM. Isso aumentou o tempo para quebrar o sistema de cinco a 40 minutos, mas ainda assim o sistema caiu.


A equipe tem lançado código para Github que pode ser usado para testar os sistemas Linux e Mac OS X para a vulnerabilidade e criou uma lista de discussão para pesquisadores para expandir seus resultados. ®