segunda-feira, 23 de dezembro de 2013

HP repressão no servidor 'não autorizado' preparando para começar em janeiro


2014 previsões: tendências de tecnologia Top


Exclusivo Hewlett-Packard vai começar a restringir quem tem permissão para corrigir seus servidores ProLiant a partir do ano novo.


A HP está mudando a maneira como ele oferece atualizações de firmware para sistemas ProLiant de janeiro, o Reg tinha aprendido, portanto, apenas parceiros HP ou HP-autorizadas têm permissão para receber e instalar os patches.







De acordo com um e-mail interno vazou visto pelo Reg, a HP só vai liberar atualizações em troca de um número de série do produto dentro da garantia ou um ativo ID Contrato de Serviço.


Isso restringe as atualizações aos clientes ou parceiros autorizados, e é projetado para cortar aqueles que prestam serviços de apoio com desconto.


Isso significa que os clientes terão de estar em um contrato de suporte full-blown como que vai ser a única maneira que vai ser capaz de receber uma identificação de contrato de serviço, em primeiro lugar.


A mudança está sendo lançada apenas como HP disse Empresa Virtual Array (EVA) os clientes vão deixar de receber atualizações de firmware gratuitas.


A política ProLiant começa em janeiro de 2014, de acordo com um memorando interno HP marcado confidencial e apenas para uso interno visto pelo Reg.


HP vai começar a notificar os clientes por e-mail ou carta da mudança no início de janeiro.


O e-mail HP vazou justificou a nova política dizendo:



Estamos implementando mudanças no firmware e em Service Pack para ProLiant (SPP) de acesso para servidores ProLiant que irá protegê-los de serem descarregados por mantenedores não autorizadas. Isto está em linha com nosso compromisso de apoiar os clientes com direito, seja diretamente ou através de parceiros autorizados, e segue as práticas da indústria de proteger as atualizações de firmware e software da HP.



A segunda fase vai ver HP "criar uma experiência consistente do cliente para fazer o download do firmware ProLiant e SPP baseado em direito nível de produto".


Isso se deve "mais tarde", em 2014.


HP quer acabar com as empresas de suporte corte de preços que minam HP ou parceiros designados para apoiar na manutenção de seus servidores ProLiant e, assim, restabelecer o ecossistema de suporte e relações com parceiros oficiais.


É uma política que já foi introduzida pela Cisco Systems, IBM, Dell e Oracle - um fato destacado pela HP como uma tentativa de passar a mudança como nada de extraordinário.


HP disse em seu e-mail interno anunciando a mudança:



Nossos clientes recebem rotineiramente propostas não solicitadas de mantenedores não autorizadas para suportar equipamento HP a uma taxa reduzida. Este tipo de provedor de suporte pode apelar para gerentes de compras preocupados com o orçamento, mas o apoio não coincide com a amplitude e profundidade de conhecimento de suporte da HP ou da cadeia de fornecimento de peças mundial nem dar aos nossos representantes de vendas e parceiros a lealdade acrescentou que vem de uma relacionamento contínuo construído ao longo do tempo entre a HP eo cliente, um atributo que muitas vezes passa despercebido.



O Reg pediu HP para comentar, mas ele respondeu com uma declaração baseada quase que palavra por palavra no e-mail que vazou.


Partindo do e-mail, a HP disse: "Essas mudanças vão proporcionar aos nossos clientes uma experiência consistente para o download do firmware ProLiant e SPP baseado em direito nível de produto". ®



quinta-feira, 19 de dezembro de 2013

Fabricante de servidores ARM Calxeda morde a poeira


O business case para um multi-tenant, solução Recovery-como-um-serviço baseado em nuvem


Inicialização do servidor ARM Calxeda fechou em um movimento de choque que é um golpe para os sonhos de centros de dados governados pelos processadores de baixa potência.


A empresa corajosa, fundada em 2008, tinha tomado em US $ 90 milhões em financiamentos durante a sua vida, e carregou a tocha para a tomada de baixa potência chips ARM-compatível em servidores. Mas, nos últimos 30 minutos, a notícia de que era "reestruturação" com uma venda de propriedade intelectual fogo olhando provável.







Foi devido a trazer uma gama de processadores ARM de 64 bits no próximo ano, e relatou um bom sucesso com seus chips de ECX de 32 bits , incluindo uma presença no kit enviado Hewlett-Packard.


Apesar de uma quantidade significativa de dinheiro e muito boa vontade na indústria - a cabeça de Facebook do abastecimento de hardware Frank Frankovsky apenas se juntou ao conselho da empresa - o arrivista está entrando em um período de reestruturação que nós ouvimos de várias fontes confiáveis ​​é equivalente a um desligamento .


"Levar a carga da indústria pioneira ultrapassou nossa capacidade de continuar a operar como tínhamos imaginado. Nós queríamos que você saiba que Calxeda iniciou um processo de reestruturação. Durante este processo, continuamos comprometidos com o sucesso de nossos clientes com ECX-2000 projetos que estão em andamento ", disse a empresa em comunicado à The Register hoje.


A parada abrupta levou muitos na indústria de surpresa, incluindo El Reg.


Site da Calxeda não estava disponível no momento da escrita. A companhia circulou sua declaração aparentemente em resposta a uma história na quinta-feira por do AllThingsD Arik Hesseldahl , que citou um contacto alegando que a empresa tinha "apenas correu para fora da pista."


Embora haja uma variedade de outros traficantes de servidores ARM no mercado, o desligamento é susceptível de provocar um choque na indústria ARM fortemente unido. Secretária de poder econômico-chip de El Reg envia as suas condolências à força de trabalho 125-forte da empresa, muitos dos quais estão agora à procura de emprego.


"Vamos atualizá-lo como nós concluímos nosso processo de reestruturação", declaração da empresa ler. "A energia, matéria e inovação nunca são perdidas, apenas remontado. Estamos ansiosos para a aplicação inevitável de nossas idéias."


É provável a empresa vai tentar vender em sua propriedade intelectual valiosa para, como diz o ditado, "preservar o valor" para os investidores - estaremos observando de perto que os passos acima para o inovador, ARM arquitetura baseada em tecido. ®



segunda-feira, 16 de dezembro de 2013

Netlist processa Diablo e Smart Storage após denúncia revela suposto roubo de IP


5 maneiras de preparar sua infra-estrutura de publicidade para o desastre


Biz memória de oi-desempenho Netlist diz que tem uma carta de um denunciante de dentro Diablo Technologies alegando que Diablo roubou tecnologia da Netlist mais valiosa proprietário, HyperCloud, desenvolvido ao longo de seis anos, a um custo de US $ 65 milhões.


Netlist é um fabricante de firmware de virtualização de memória e tecnologia ASIC que permite que servidores de lidar com mais memória do que eles são, teoricamente, deveria ser capaz de fazer.







Tecnologia de canal de memória TeraDIMM Diablo Technologies permite que a memória flash para ser colocado ao lado de DRAM de um servidor, dando-lhe o acesso aos dados armazenados em Flash mais rapidamente do que os cartões flash PCIe. Smart Storage é uma parceria com Diablo , com o produto ULLtraDIMM SMART DE usando a tecnologia de canal de memória de Diablo para ligar um monte de chips de memória flash para o bus de memória de um servidor. Parece que a IBM está a planear introduzir ULLtraDIMM ao mercado em um de seus servidores X-Series em janeiro de 2014.


No entanto, agora Netlist afirma que o ULLtraDIMM é baseado na tecnologia roubada. Começou lançando sueballs redor em agosto deste ano, processando Diablo Technologies, a SMART Modular, Smart Storage e inteligentes Worldwide Holdings, relativo à violação de cinco patentes Netlist, com base, em parte, o módulo de memória ULLtraDIMM recentemente anunciada. Netlist também afirma que a SMART Modular e Smart Worldwide cometeram violações antitruste.


De acordo com documentos judiciais, motivos do Netlist de ação legal são os seguintes:



  • A SMART Modular adquirido uma patente (Patente dos EUA n º 8.250.295), com conduta injusta flagrante no Escritório de Patentes e Marcas dos EUA (USPTO)

  • Retido o pedido de patente que conduz à patente de comitês JEDEC relevantes para mais de oito anos

  • Procurada para impor indevidamente essa patente contra produtos HyperCloud JEDEC compatível do Netlist, buscando uma liminar, que foi negado pelo Tribunal

  • Declarações enganosas feitas para o público sobre o seu processo contra Netlist

  • Apropriação indevida de segredos comerciais e violação de marca contra Diablo


Em particular, afirma Netlist Diablo (e inteligente) abusado segredos comerciais Netlist ea tecnologia HyperCloud para criar o produto ULLtraDIMM e outros produtos concorrentes.


SanDisk comprou Smart Storage em agosto por US $ 307m, mas não é nomeado em ações judiciais de Netlist. SanDisk apresenta sua tecnologia HyperCloud como permitir que servidores para usar mais memória do que eles são normalmente o direito de em sistemas Intel e AMD padrão.


Há hardware ASIC virtualização, que permite chips de memória barato para ser usado para construir DIMMs de memória grandes que ignoram os limites de endereços de memória e faz com que os servidores vinculados a memória ir mais rápido. Netlist anunciou 32GB HyperCloud DDR3 de memória, em novembro de 2011.


Ironicamente, Netlist tinha selecionado Diablo Technologies como um fornecedor de chipset qualificado para sua memória HyperCloud módulos de volta em outubro de 2010.


Sopre o apito


Muito pelo prazer aparente dos advogados de Netlist, uma carta do denunciante foi recebida em 13 de novembro deste ano. Ele está incluído no arquivamento 8-K de Netlist com a SEC, e diz:


Percebo que Netlist está processando Diablo Tecnologias e sistemas de armazenamento inteligente para violações de patentes.

Na minha opinião, Diablo não apenas viola as patentes, mas também roubou arquitetura e projeto detalhado do Netlist. ...


Se você quiser mais informações, então você deve entrar em contato (-), que foi o vice-presidente de engenharia e (-) (Firmware arquiteto). Ambos estes senhores não estão mais com Diablo.



Do Netlist 8-K também inclui outra correspondência nomear John Vincent como o ex-vice-presidente de Engenharia e Diablo e Sujoy Ray como o arquiteto de firmware.


O autor da carta em anexo slides e diagramas para apoiar as afirmações, dizendo:



  • O Megadimm (corrediça 2) mostra que eles usaram o Netlist ASICS VT Berlinetta ID e RD ASICS para fazer todos os seus testes do protótipo. Todo o software, testes de firmware e demos clientes foram feitos com esta configuração. Isto pode ser verificado em contato com os clientes como IBM, HP, etc

  • Slide 3 mostra seu produto final e as configurações são muito semelhantes ao slide 2.

  • Uma das suas fichas estava atrasado assim Diablo estavam planejando para substituir chips Parafuso com chip de identificação para todos os testes do protótipo. Isto é mostrado na corrediça 4.

  • Todos os funcionários foram aconselhados a não falar de RD e ID para todos os clientes. O Rush e parafuso são muito semelhantes a RD e ID exceto Diablo fez algumas mudanças na interface superficiais de modo que não poderia ser processado.

  • O Diablo Parafuso ASIC é semelhante ao chip de identificação Netlist. O front-end e de clock é idêntico, embora as Serdes e Phy IP foi contratada para fora. Diablo também foi cuidadoso em manter o parafuso da mesma tecnologia (13U), para reduzir os riscos.


O registro na SEC por Netlist inclui trechos da carta.


Comentário


Qual será a próxima? Até que isso seja resolvido, potenciais clientes ULLtraDIMM vai precisar de um monte de segurança. SanDisk, ansiosa para estabelecer-se como um fornecedor de flash-classe empresarial, pode decidir limpar o convés, fazendo um acordo com Netlist. ®



Nós furar Google ARM 'love-in': 'Eles querem para os seus próprios s *** e eles não querem Bing para tê-lo'


5 maneiras de preparar sua infra-estrutura de publicidade para o desastre


Análise Google, Facebook, e provavelmente outras grandes empresas de tecnologia estão investigando chips ARM-compatível para conduzir servidores de baixa potência, o que poderia, em última instância abalo os tipos de processadores que ficam dentro de centros de dados.


Fomos transferidos para considerar os prós e contras de se afastando de x86 de confiança para o mundo cheio de problema de ARM após um rumor Bloomberg circulou na quinta-feira que o Google estava planejando usar chips ARM para servidores, e depois vimos uma blogpost arma fumegante por Facebook que indicou que esperava para avaliar os sistemas ARM para uso em produção.







As empresas estão interessadas em chips ARM, devido o seu consumo de energia historicamente econômico; desde o início, a arquitetura do processador - nascido de uma pequena equipe da Acorn Computers na década de 1980 - foi projetado para ser RISC (Reduced Instruction Set Computing). Isso significa núcleos ARM fazer muitas operações simples de forma relativamente rápida, o que a simplicidade, ea falta de legado cruft para apoiar, mantém o transistor contar de baixo, o que significa que é necessária menos energia.


Esta arquitetura personalizável é muito popular no gadget alimentado por bateria e mundos embutidos eletrônica, onde o desempenho de processamento não é fundamental - nada de tributação podem ser descarregados para o silício dedicada - para que os chips podem ser ficar mais lento e, portanto, consomem muito menos energia.


Compare isso com CISC da Intel (conjunto de instruções complexo computação) design, que oferece uma gama maior de operações, tem uma montanha de legado tecnologia para suportar - de modo real de 16 bits por todo o caminho até o modo de longa protegido de 64 bits - e, geralmente, corre em velocidades mais altas para dar apostadores a maioria de estrondo para seus dólares. Tudo isto acrescenta-se a mais corpulentos, pacotes de poder Guzzling.


Embora cultistas ARM RISC retratar como sendo fundamentalmente melhor em baixa potência de computação, estudos acadêmicos têm refutado esta [ PDF ], notando vez que as principais diferenças no consumo de energia vem de implementações históricas - ARM passou quase duas décadas vivendo no seu bolso, enquanto Intel tenha residido na sua grande área de trabalho buzinando, e assim por diante. De fato, o coração batendo em chips atuais 86 é RISC em design ainda enrolado em um cobertor compatibilidade CISC.


ARM tem por muito tempo focado na redução do consumo de energia devido aos seus mercados domésticos sendo dispositivos não-exigência de desempenho móvel e, enquanto Intel anteriormente velocidade enfatizou; fichas alimentados por núcleos ARM são construídos a partir do zero para saborear em vez de chupar atual. A desvantagem é que eles castor longe a um ritmo relativamente calmo.


Mobes e fondleslabs, ARM. Plataformas de jogos, x86. Entendi. Onde é que o Google eo Facebook se encaixa?


Gigantes da web-serviço do consumidor gastam bilhões por ano em infra-estrutura e milhões em contas de energia elétrica. Para essas empresas, os centros de dados são um grande peito de sucção da ferida em seu orçamento anual, e se você pode economizar dinheiro, você vai.


A questão fundamental aqui é o quanto de determinada carga de trabalho de uma empresa pode ser deslocado para minimalista, de baixa potência e processadores mais lentos. Para o Google, o seu backend de computação intensiva precisa da pura força de poderosos chips de Xeon da Intel, mas para outras tarefas, como o serviço da Web front-end, e os controladores de armazenamento, pode fazer sentido para implantar ARM.


Facebook é uma proposição simples - o seu grupo AI recém-cunhadas de lado - como a carga de trabalho da rede social é menor do que o do Google uso intensivo da CPU. Mas mesmo aqui há problemas: "O que gostaríamos de ver em um servidor CPU ARM é uma ... freqüência mínima de 2,5 GHz", disse o estrategista de tecnologia Facebook Vijay Rao no final de outubro. "Isso nos dá a capacidade de escalar em todo o nosso software de interface para backend".


Mais recentes de 32 bits ARM de inicialização do servidor Calxeda fichas Midway tinha um clock de entre 1,1 e 1,8 GHz, para que haja uma maneira de ir aqui. (Sim, há mais de desempenho do que as taxas de clock, mas como uma regra geral, a classificação de um parte GHz vai fazer para o momento.)


Enquanto isso, os servidores ARM de 64 bits são devido a chegar ao mercado no próximo ano, com o primeiro provavelmente devido a partir da inicialização Micro Aplicada , em que as empresas de ponto será capaz de avaliar e classificar a tecnologia.


Facebook é conhecido por querer comprar computadores projetados pela comunidade - a sua oferta de hardware chefão Frank Frankovsky só se juntou a diretoria da Calxeda - enquanto o Google pode decidir ir em frente e criar o seu próprio kit personalizado, incluindo um processador licenciada da ARM. Não se esqueça que o modelo de negócios da ARM é tudo sobre a venda de cópias de seus projetos para os gostos de AMD, Samsung, Broadcom e Calxeda, que fabricam chips de personalizados para atender às suas necessidades e produtos individuais.


Google teria que empregam cerca de 50 engenheiros e passar um ano ou assim elaborar o seu chip, que poderia basear-se no 64 bits Cortex-A57 , em seguida, mais um ano integrando-o com a sua tecnologia, sugerido pelo Calxeda chefe de marketing Karl Freund, e seria provavelmente precisará gastar dezenas de milhões de dólares. Para o Google, que cunhadas $ 2.97bn no lucro líquido em seu mais recente trimestre financeiro, esta é uma despesa trivial.


FBcoldstoragearray

Apenas alguns servidores refrigeração para fora ... Do Facebook ' frigoríficas matrizes 'em breve poderá estar sentado ao lado de kit ARM-powered



O próximo passo seria portar o software do Google sobre a sistemas ARM. A gigante do anúncio - a cem por cento loja Linux, pelo menos no centro de dados - tem trabalhado duro para criar um relativamente pequeno, pilha de software monolítico: supondo que ele não está usando um estilo Facebook x86-64 tradutor para o seu código, testes e implantação em ARM será simples para Googlers, embora haja todos os tipos de otimizações que devem ser exploradas.


A empresa também tem investido fortemente no desenvolvimento das competências necessárias para construir seus próprios processadores. Em 2010 adquiriu um designer de chips furtiva chamado Agnilux executado por refugiados do Semi PA Apple comprou. Na época, a empresa foi pensado para estar trabalhando em qualquer ARM ou PowerPC chips para servidores.



domingo, 15 de dezembro de 2013

Google pode cair Intel para própria receita ARM: Bloomberg


Guia rápido para a recuperação de desastres na nuvem


Google está considerando novos projetos baseados em ARM para seus servidores caseiras, de acordo com a Bloomberg .


O relatório da agência de notícias financeira é escassa, oferecendo a observação de que o Google "está a considerar a criação de seus próprios processadores para servidores utilizando a tecnologia da ARM Holdings Plc", juntamente com uma citação do Google spokesdroid Liz Markman no sentido de que "Estamos ativamente engajados no projeto o melhor do mundo infra-estrutura. Isso inclui tanto o design de hardware (em todos os níveis) e design de software ".







O relatório também afirma que o Google é o quinto maior cliente da Intel. Se a empresa de publicidade e computação em nuvem foram para mover para Armar Chipzilla não ficaria satisfeito.


As repercussões mais amplas do movimento seria ainda mais significativa. Nos últimos anos CPUs ARM tornaram-se rápido, barato e - muito importante - os usuários de energia miseráveis ​​e emissores muito cuidado com o calor. As duas últimas qualidades fazem uma grande diferença para aqueles que dirigem os servidores em escala, alguns dos quais estão se perguntando se os servidores ARM poderia ajudar suas linhas de fundo.


O acampamento X86 descarta esse tipo de pensamento. CEO da VMware Pat Gelsinger articulado essa posição bem na VMworld 2013 , onde envolvido em um debate animado com Marc Andreessen sobre o tema. Veja como essa conversa jogado fora:



Andreessen acha de alta margem de centro de dados de negócios da Intel está maduro para a interrupção, até porque ARM já está fazendo incursões no centro de dados entre os usuários que valorizam a aquisição e custos mais baixos de operação que oferece. Que CPUs ARM são agora onipresentes em dispositivos móveis ajuda, como a possibilidade de uma pilha homogênea é mais tentador que mais e mais serviços alvo engenhocas portátil.


Gelsinger disparou de volta que x86 goza de uma enorme liderança em termos de drivers, parcerias com nomes como VMware e outras sutilezas necessários para executar um centro de dados, e que a liderança é efetivamente inatacável. "Mesmo se você reduziu o consumo de energia dos processadores ARM para zero," x86 ainda vai ganhar, disse ele.


A resposta de Andreessen foi que o Linux em ARM é bastante maduro. E ficando mais maduro, com toda a probabilidade.



Se o Google fosse adotar ARM teria que fazer um monte de enchimento de trabalho em alguns dos espaços em branco Gelsinger descreve acima. Depois, há também o pequeno problema de construir uma equipe para projetar o silício e alguém para cozê-lo, tudo o que iria fazer qualquer movimento de um ano ou três de distância.


Mas esse atraso também daria a abundância Chocolate Factory de tempo para codificar software ARM-pronto. Projetos servidor leve do Google significa que não precisa fazer coisas como drivers de gravação para adaptadores de barramento de host obscuros que fariam servidores ARM a melhor proposta para lojas menores, mas um projeto de servidor aberto significaria outros poderiam fazer esse tipo de trabalho pesado.


Portanto, não é difícil imaginar que o Google poderia catalisar uma comunidade interessada na execução de servidores ARM em escala, ou em pequenas lojas de TI.


Tal cenário seria muito pior notícia para Intel do que simplesmente perder alguns milhões de vendas de CPU de cada ano.


O relatório da Bloomberg hypothesises que o Google pode ser a arejar um interesse em ARM para se negociadores da Intel Jumpy à frente de um novo acordo entre os dois. Intel provavelmente está orando para que seja o caso. ®



sexta-feira, 13 de dezembro de 2013

Motor monstro PHP do Facebook pronto para o músculo em chips para servidores ARM


Entrega Email: 4 passos para receber mais e-mail para a caixa de entrada


Facebook deu novos passos em sua busca para se deslocar para execução de cargas de trabalho de produção em servidores movidos a ARM.


A arma fumegante para esta mudança dramática foi um post pelo Facebook sobre o Hip Hop Máquina do blog Virtual na quinta-feira que indicou a equipe está implementando suporte ao processador ARM em seu mecanismo de tradução, que transforma código PHP do Facebook em instruções x86 de 64 bits para executar em computação nodos. O HHVM é unidade fundamental do Facebook para a execução de sua rede social baseada em PHP mamute.







"Também tem sido fundamental em nossos esforços para obter hhvm rodando em processadores ARM, isolando e reduzindo a quantidade de uma arquitetura específica código precisamos reimplementar," Facebook escreveu . "Cuidado para um próximo posto dedicado à nossa porta ARM para mais detalhes!"


O post veio no mesmo dia em que a Bloomberg afirmou Google estava planejando uma mudança para servidores ARM-driven - um movimento que ameaça seriamente chips Intel rei, e seria equivalente a um afluxo maciço de esteróides no ecossistema ARM florescente . Espere uma análise Reg neste rumor mais tarde.


Outra arma fumegante para o deslocamento do Facebook é um anúncio de emprego no site da empresa para um engenheiro de software de servidor ARM.


"O Facebook está buscando um Engenheiro de Software com experiência para nos ajudar a melhor porta de PHP em tempo de execução do mundo em servidores baseados no processador ARM", escreveu a empresa. "Nosso objetivo é avaliar a melhorar ainda mais a eficiência da nossa camada web por portar HipHopVM para novas plataformas de hardware de servidor baseados em ARM com eficiência de energia."


O gigante das redes sociais também contribuiu com um projeto de servidor para o seu esquema de Projeto Open Compute chamado " Group Hug ", que permite a CPUs swappable, permitindo-lhe lançar eficiente Intel para ARM.


Este é um sinal de pesquisa acelerada pela empresa no desenvolvimento do servidor ARM, uma vez que ele disse ao seu humilde corte em setembro de 2012 que ele estava avaliando ativamente ARM e Tilera fichas em seus centros de dados.


Na época Facebook foi perguntado se ele estava planejando uma grande mudança para chips de não-x86 para cargas de trabalho de produção. "Não é uma questão de se, é uma questão de quando", disse o Facebook sistema engenheiro Amir Michael.


Parece tempo veio para ARM para provar a sua coragem no mundo do servidor. No momento da escrita, o Facebook não respondeu a um pedido de informações complementares. ®



terça-feira, 10 de dezembro de 2013

É um NAS? É uma SAN? Não. É RackStation 'Nassan' de Synology


O business case para um multi-tenant, solução Recovery-como-um-serviço baseado em nuvem


Hoje Synology lança os RackStation RS3614xs + , a mais recente adição à sua XS + linha de dispositivos destinados às PME. O que se destaca para mim é a mudança no tom de marketing, lançando as RS3614xs + como "um ponto médio entre NAS e SAN."


Synology arremessos da linha XS + como "uma solução de armazenamento que pode crescer com um negócio." O RS3614xs + foi projetado para escalabilidade, vem com doze compartimentos, mas pode ser ampliado para trinta e seis, anexando opcionais módulos de expansão . Com as expansões, tem uma capacidade de armazenamento de até 144 TB.







Neste particular XS + vem com uma interface de 6GB / s SATA III. Ele tem quatro portas Gigabit Ethernet, assim como dois slots PCIe x8 Gen3 que cada um pode suportar uma 10GbE NIC. Synology afirma que com as duas portas PCIe povoada, o rendimento pode ultrapassar 3.200 MB / s. Se todo o dispositivo também é recheado com SSDs, aparentemente benchmarks de 620.000 IOPS são possíveis.


Os RS3614xs + vem com o DiskStation Manager (DSM) 4.3. O DSM é um dos mais interfaces de armazenamento de fácil utilização, atualmente disponíveis. Tem uma completa HTML-5 implementação WIMP e vem com sua própria loja de aplicativos. "Pequenas coisas" são bem pensado: por exemplo, o dispositivo pode enviar um e-mail, SMS ou até mesmo Skype você quando se percebe um problema.


Synology unidades são certificadas para suportar VMware, Citrix, ou Hyper-V. Ela pode servir arquivos de mais de SMB, AFP e NFS blocos ou arremessar usando iSCSI.


Vamos parar e considerar isso por um segundo. Os RS3614xs + é o transporte a nível mundial com um preço sugerido de $ 4.999,99, no entanto, se você quiser kit-lo com dois módulos de expansão e um kit de trilhos sem ferramentas para uma instalação rápida, espere gastar cerca de US $ 10.000. Synology sistemas modernos são capazes de Alta Disponibilidade ; replicação em nível de bloco entre duas unidades.


Isto significa que por US $ 10.000-ish, você pode pegar um par de armazenamento que pode ser dimensionado para 144 TB por unidade, pode exceder 620 mil IOPS e você poderia atirar fisicamente um dos nós e toda a coisa iria continuar a trabalhar muito bem.


Synology sistemas com base em x86 - cujo RS3614xs + é um - pode executar o seu ferrugem fiação padrão, utilize SSDs como cache de leitura para fazer um sistema híbrido ou ir até flash. Mesmo se você comprou as coisas com todos os cristais azuis, obtendo um par redundante destes para 20,000 dólares ainda é melhor "para bater a bola" do que qualquer outra coisa no mercado.


Com as especificações ekeing seu caminho para cima e para os esforços de marketing agora o posicionamento da unidade como "um ponto médio entre NAS e SAN" Eu suspeito fortemente que a próxima revisão do DSM vai trazer algumas mudanças no Synology. A chance real de um grande escala SAN com suporte empresarial adequada é, provavelmente, não muito atrás.


Os RS3614xs + parece ser um pouco impressionante de kit;. Muito longe dos NASes prosumer sobre a qual Synology construiu seu nome O registo será, certamente, manter um olho para fora para ver como esta nova geração de microSANs tarifas no mercado de armazenamento midrange violentamente competitivo .



sexta-feira, 6 de dezembro de 2013

Quanto campo Azure da Microsoft para a nuvem prestadores de serviços


5 maneiras de reduzir a latência da rede de publicidade


Característica Microsoft está avançando prestadores de serviços não-Microsoft como uma parte essencial de sua estratégia de nuvem OS. Na primeira parte desta série eu olhei para o que Nuvem OS era e por que você pode importar em usá-lo em suas próprias instalações.


Este artigo irá examinar como os prestadores de serviços se encaixam na equação.







Para ser claro, "prestadores de serviços" no contexto da Microsoft significa que as empresas que executam o Microsoft stack de software e prestadoras de serviços para os clientes através da internet. Anteriormente, poderia ter chamado esses provedores de hospedagem, enquanto que a nova indústria termo genérico é provedores de serviços em nuvem, ou DEP.


Acostume-se a que um, porque CSPs são o novo preto e todo mundo está cortejando-los. Os mercados de software e hardware usados ​​para ser dividido basicamente em SMB, empresas e governo.


Agora é CSP, empresas e governo. SMBs que optam por não comprar em computação em nuvem não são susceptíveis de ter muito amor de ninguém.


Pouco e grande


CSPs são uma categoria diversa de empresas. Eles vão desde o pequeno consultor de TI que oferece alguns backups básicos off-site para os seus clientes através da internet para provedores de serviços gerenciados de cano cheio, como Metacloud .


CSP também abrange os provedores de hospedagem como OVH e Peer 1 's Bucket Brigade , bem como prestadores de um foco mais estreito, como EasyDNS .


Basicamente, um CSP faz "algo envolvendo computadores na internet". A definição não abrange os provedores de tier-1, como Amazon, Google ou Microsoft. Aqueles estão em uma liga própria e são tipicamente o que se entende quando as pessoas falam sobre a nuvem pública.


Isso tudo fica bastante taxonomicamente confuso, como qualquer coisa que envolva nuvem, porque algumas pessoas consideram CSPs a ser aqueles que hospedar seu próprio infra-estrutura, enquanto outros não se importam, cuja infra-estrutura CSPs usar desde que comprar licenças de software em grande escala.


A terminologia da Microsoft por trás de "prestador de serviços", no entanto, é importante para os nossos pobres, admins SMB sitiados. Como as mudanças da indústria, seus trabalhos estão secando e muitos deles estão em transição para outras funções, por exemplo, deixar de ser um administrador de sistemas em execução uma empresa para uma execução muitas empresas.


Estes administradores costumam levantar-se a sua própria infra-estrutura no local, co-lo e prestar serviços à sua estável de clientes. Aqui, então, é a entrada para o provedor de serviço da Microsoft, ampliação de todo o caminho até os tipos de empresas que VDI para os governos.


Siga a marca


Construindo sua própria nuvem IaaS baseada em Microsoft é fácil o suficiente , você pode até automatizar essa parte do exercício, se desejar. System Center ainda oferece-lhe os conceitos básicos necessários para criar uma configuração de um serviço de plataforma-como-.


Onde ele realmente vem junto é com Windows Azure Services para Windows Server (WASWS). (Microsoft, por favor, encontrar os membros da comissão responsável por esse nome do produto e bani-los a um escritório na Sibéria.)


Quando você coloca o Windows Server , System Center eo Windows Azure pacote em conjunto, obtém WASWS para hosting prestadores de serviços , bem como para a sua própria nuvem privada.


Isto dá-lhe um portal Azure para seus desenvolvedores e usuários finais. É preciso uma boa dose de esforço para conseguir configurar, mas uma vez que você tem alguns pedaços de orquestração feito, seus modelos prontos e assim por diante, você criou um serviço que fornece uma experiência de usuário final indistinguível publicamente hospedado Azure nuvem da Microsoft.


Toda a marca exercício de contornar isso é um crime contra a comercialização de tecnologia. Então, vamos quebrar tudo para melhor facilidade de compreensão e (para desgosto de marketing da Microsoft, sempre que eu uso o termo} chamar este combo "Azure nas instalações" e "prestador de serviços Azure."



Automatizando o SharePoint Pop-Up Lab com o PowerShell Automatizando o SharePoint Pop-Up Lab com Powershell

Construindo um laboratório SharePoint Pop-Up no Windows Azure Construindo um laboratório SharePoint Pop-Up no Windows Azure


Traga-nos as suas bods biz Backup Exec perplexos, implorar Axcient, Zetta


5 maneiras de reduzir a latência da rede de publicidade


Axcient e Zetta aproveitaram o momento e estão oferecendo serviços de migração de Backup Exec usuários Nuvem enfrentam sendo deixados de fora no frio sem a proteção de retirada da Symantec Backup Exec da Nuvem oferta.


Symantec anunciou que está cofragem seu backup serviço Exec Nuvem , deixando os usuários a fazer arranjos alternativos. Passo em frente Axcient e Zetta.







Axcient , que acaba de receber US $ 20 milhões em uma quarta rodada de financiamento , diz que "os espelhos não só dados de uma empresa, mas também aplicações e toda infra-estrutura de TI na nuvem. Com Axcient, as empresas podem eliminar a perda de dados, manter aplicações críticas em funcionamento, e garantir que os funcionários estão sempre produtivo para menos do que o custo da cópia de segurança antiquado. "


CEO Justin Moore disse: "Backup Exec.cloud era um serviço de armazenamento de arquivos simples criado para tapar um buraco na linha de produtos de backup da Symantec [O encerramento] anúncio [é] realmente dando às empresas a oportunidade de ir além de backup e migrar para uma solução melhor. com praticamente a zero downtime graças ao programa de migração Axcient ".


Migratees vai ficar:



  • Especialista em migração do Backup Exec Dedicado

  • Configuração e implementação livre pacote de serviços profissionais ($ 2.000 de valor), incluindo:

    • Descoberta Ambiente

    • O projeto do sistema e melhor recomendação práticas

    • Assistência de instalação, implantação e testes

    • Aceitação sign-off



  • O serviço é gratuito durante o período de migração


Zetta , fundada em 2008 e armado, com US $ 31,5 M elevou em três rodadas de financiamento, tem uma oferta que "permite que o Symantec Backup clientes Exec.Cloud para aplicar o saldo não utilizado do seu serviço - até 6 meses - para ... de backup em nuvem da Zetta & serviço DR - de forma gratuita -. além de um desconto de 20 por cento sobre um contrato de backup em nuvem anual "


Comercialização veep da Zetta Gary Sevounts alegremente colocar a bota em Backup Exec: "Primeiro Backup Exec 2012 foi lançado para comentários universalmente negativas, então os patches foram lançados que não fornecem suporte para as plataformas tradicionais, como o Windows Server 2012, e agora o componente de backup em nuvem é sendo desligado. Estabilidade é um pilar fundamental de backup da empresa, e é fundamental para os fornecedores de backup para dar os clientes empresariais a confiança de seus dados de backup críticas estarão disponíveis para a recuperação ".


Então o que é o serviço da Zetta tem?



  • Pode proteger os conjuntos de dados de 1 TB para 100TB

  • Backup e recuperar até 5TB em 24 horas diretamente de ou para a nuvem

  • Todos os dados do cliente são criptografados, em trânsito e em repouso, usando SSL de 256 bits e criptografia Salsa20

  • Cópia de segurança da Zetta e serviço DR é HIPAA e ITAR compliant, SSAE-16 auditados

  • Ele oferece 99,99996 por cento confiabilidade de backup e recuperação de 100 por cento de confiabilidade

  • Norte-americana 24x7, suporte técnico de nível técnico está incluído.


Zetta alega que seus clientes "desfrutar os custos de backup globais que são até 50 por cento mais baixo do que o Symantec Backup Exec".


Aqui está um ponto a ponderar: se Symantec, com uma taxa anual US $ 7 bilhões, não pode fazer ir serviços de backup em nuvem e startup de armazenamento em nuvem Nirvanix caiu depois de queimar através de US $ 70 milhões de fundos VC, por que clientes confiam em outra pequena escala de armazenamento em nuvem fornecedores? Por que eles deveriam confiar em qualquer fornecedor de armazenamento de uma nuvem, no entanto enorme e sólido, como os três grandes: Amazon, Google e Microsoft?


Há um caso para obter-se uma caixa de passagem de armazenamento em nuvem, de Avere, Nasuni, Panzura, Gêmea Strata e fornecedores como eles, que pode trabalhar com vários fornecedores de armazenamento em nuvem libertando-o da dependência de qualquer um deles.


Axcient e Zetta precisa convencer os clientes de que é melhor para ir com eles ao invés de um sistema de gateway de serviço multi-nuvem. Vai haver um equilíbrio para cada cliente entre a segurança, a confiabilidade, conveniência, custo, aplicabilidade serviço e confiança. ®



quinta-feira, 5 de dezembro de 2013

Ah, não, RBS passou titsup novo ... mas é apenas sorte MAU?


Entrega Email: 4 passos para receber mais e-mail para a caixa de entrada


Storagebod E aqui vamos nós de novo, outra falha de sistemas de TI da RBS.


RBS parece ter tido uma corrida notável de falhas do sistema de núcleo de alto perfil, mas eu suspeito que ele tem sido bastante azarado ou pelo menos toda a gente tem tido sorte. Ross McEwan, o novo executivo-chefe da RBS admitiu para nós em um comunicado em lata que "décadas de sub-investimento em sistemas de TI" é a culpa.







Décadas parece ser um tempo muito longo, mas pode muito bem ser preciso, certamente, quando eu comecei a trabalhar em TI 25 atrás, a podridão já tinha criado dentro Por exemplo, um banco de varejo, onde eu trabalhei uma vez teve seu sistema de ordem permanente núcleo escrito em libras, xelins e pence com uma rotina de tradução sentado em cima dela - ainda que muitos destes sistemas deveriam ter sido reescrito como parte das investigações milênio-bugs.


Nunca mente ... me passe a fita adesiva


No entanto, a maior parte desta não aconteceu. Reescreve todo escala de sistemas que eram décadas de idade - quando apenas algumas pessoas entenderam como eles trabalharam - não eram simplesmente um grande investimento ... Parecia empresas estavam satisfeitos com apenas remendar-lo e seguir em frente.


RBS não vai ser a única grande empresa sentado em uma responsabilidade enorme na forma de aplicações legadas, praticamente todos os bancos fazem, assim como muitos outros em outras indústrias. Os pedidos foram movidos de uma geração de mainframe para o outro e eles continuam a trabalhar normalmente, mas as pessoas que sabem como eles realmente funcionam estão muito longe.


No entanto, isso não é mais restrito a operações de grande porte, muitos de nós pode apontar para aplicativos em execução no kit que é 10 anos ou mais de idade em sistemas operacionais de longa obsoleto. Basta falar com o seu DBA amigável sobre como muitas aplicações ainda são dependentes Oracle 8 e em alguns casos até mesmo bancos de dados anteriores. Cada centro de dados tem uma aplicação sentado no canto fazendo algo que ninguém entende muito ... e ninguém quer desligá-lo apenas no caso.


Diante de TI em constante declínio orçamentos - por meio de um declínio real ou sendo esperado para fazer mais com a mesma quantidade - aplicações legadas estão sendo deixados para trás. Sim, nos deparamos com tentativas de encapsular a aplicação em uma máquina virtual e executá-lo no hardware mais recente, mas ainda assim não resolver o problema de legado.


Se não está quebrado, não conserte ... mas a coisa é, a maioria dos softwares está quebrado - é só que você não apenas ainda se deparar com a condição de que quebra. Agora a condição de que quebra, pode muito bem ser o operador inexperiente que não sabe a astúcia work-around para manter uma aplicação em execução; como contorná-las simplesmente não deve tornar-se um procedimento operacional padrão.


A pergunta é como perseguir o novo mundo de operações dinâmicas com aplicações agitando todos os dias: quem é corajoso o suficiente para defender o orçamento para voltar e consertar as coisas que não estão quebrados. Quem vai ser corajoso o suficiente para argumentar a favor de orçamento para desmantelar adequadamente os sistemas legados, sabe aqueles sistemas que têm apenas um usuário que por acaso tem um C no início do seu cargo?


Agora parece que Ross McEwan pode ser alguém que realmente está sendo forçado a tomar medidas, é que ninguém vai tomar medidas sem um grande fracasso e danos à reputação sério? Ou você está apenas com sorte, punks? ®



terça-feira, 3 de dezembro de 2013

Traga seus próprios discos: A caixa de armazenamento de rede Synology DS214


Liderança em desempenho de armazenamento híbrido


Revisão O Traga-seu-próprio-Discos mercado de servidores casa pode não ser convencional, mas é lugar muito animado, com gigantes como a Cisco mistura com obscuros de Taiwan caixa-shifters. E embora esses tranquilos, sub-£ 400 servidores fazer um pouco útil do kit de pequeno escritório, a abundância de mídia inundado em casas de família e escavações compartilhadas dar-lhes um outro papel - de trazer alguma ordem ao caos em casa.


Início NAS floresceu depois que a Microsoft decidiu rótula seu muito útil do produto Home Server, uma opção que deu nova vida a um PC ou laptop de idade. Apesar de Redmond nunca tentou comercializar este produto muito difícil ... se tudo.







Synology DS214

DS214 da Synology:



Os candidatos no mercado doméstico orçamento NAS estão embutidos caixas de Linux, e geralmente são vendidos sem os discos. Você está convidado a criar um conjunto RAID e ser um BOFH por uma hora ou duas: a adição de usuários e ligar a gama impressionante de recursos para oferecer, a partir de compartilhamento de mídia básico e streaming para gravação da câmera IP e, cada vez mais, muitos terceiro -partido pacotes.


Synology conquistou merecidamente um papel de liderança aqui contra alguma competição dura, graças a um rico conjunto de recursos, uma interface gráfica fácil de usar, e com o apoio de uma comunidade próspera. Apesar de produzir kit empresarial NAS, ele corajosamente estabelecido um pequeno escritório proposição / consumidor com menor custo placas Marvell ARM - que é o que nós temos aqui, no novo DS214.


O DS214 é novo modelo de Synology de dois drives orçamento, estabelecendo um novo piso para o preço de entrada, em um tom mais de £ 200 para uma unidade de dois drives diskless. Orçamento em outro £ 110 para dois discos de 1TB NAS-prontos, ou £ 175 para duas unidades de 2 TB, e você ainda vai ter mudança de £ 400. Western Digital agora ainda comercializa NAS-ready, Red-marca discos de 2,5 polegadas, um sinal do crescente interesse no mercado.


Mas usar ARM não significa baixo desempenho. Achei o DS214 comparação muito bem contra o Synology mais poderoso e profissional DS712 +, que foi uma escolha $ 752 apenas 18 meses atrás. Equipado com 1 GB de RAM, como uma unidade de referência, o DS712 + não agregação de link Ethernet (ligação), fornecendo o seu roteador pode apoiá-lo, mas no modo Ethernet único a DS214 escreveu e leu mais rápido que o DS712 +. O DS214 usa um dual core, 1.1GHz Marvell ARM com 512MB de RAM.


Fácil instalar


Este ano, o orçamento final da Synology também recebe o tratamento de "montagem sem ferramentas." Sem chave de fenda é necessário para instalar os discos rígidos e arrancar, e levou menos de cinco minutos para ligar a caixa.


As coisas demoram mais tempo, depois disso, a unidade precisa de uma conexão à internet para sair e encontrar a imagem OS - DSM, DiskStation Manager - e leva muito mais tempo para construir o seu conjunto RAID, embora você possa fazer outras coisas sobre ele nesse meio tempo. O DS214 também permite hot-swap, se uma unidade falhar. Este fio de recursos de ponta e recursos na engrenagem barato casa é muito bem-vindo.


Então, o que você ganha? O que é tudo isso? Uma caixa NAS orçamento normalmente é, se nada mais, um ponto de apoio central para uma casa ou pequeno escritório, com a partilha de impressoras USB e próprio usuário contas com permissões adequadas e quotas. Eu sou da opinião de que cada casa deve ter um.


O sistema irá reconhecer uma pasta de fotos externa, e tem um botão dedicado Copiar na frente, por isso, se você permitir, a caixa vai sugar as fotos automaticamente. O DS214 não, como os modelos DS213 Synology, tem um slot para cartão SD, mas o botão de cópia ainda está lá.


Synology DS214 ports

Portas do DS214



Esta opção de orçamento tem portas USB 3.0 - dois deles - pela primeira vez, embora a única porta USB na parte frontal do aparelho é de 2,0 velocidade.


Uma série de aplicativos para iOS e Android permitem que ele seja usado em dispositivos móveis.


Opções pro mais avançadas, tais como iSCSI também estão disponíveis nas caixas de orçamento - onde por uma parte do armazenamento pode ser parcelado e usado para falsificar um diretamente ligado, unidade local nativamente formatado. Até 10 LUNs iSCSI (partições aka) são suportados no DS214.


Synology também tem incluído longo MPEG streaming e visualização de fotos e um servidor iTunes bruto. Por bruto, quero dizer características avançadas como classificações não são realmente suportados - ele simplesmente transmite a um cliente de iTunes.



Traga seus próprios discos: A caixa de armazenamento de rede Synology DS214


Liderança em desempenho de armazenamento híbrido


Revisão O Traga-seu-próprio-Discos mercado de servidores casa pode não ser convencional, mas é lugar muito animado, com gigantes como a Cisco mistura com obscuros de Taiwan caixa-shifters. E embora esses tranquilos, sub-£ 400 servidores fazer um pouco útil do kit de pequeno escritório, a abundância de mídia inundado em casas de família e escavações compartilhadas dar-lhes um outro papel - de trazer alguma ordem ao caos em casa.


Início NAS floresceu depois que a Microsoft decidiu rótula seu muito útil do produto Home Server, uma opção que deu nova vida a um PC ou laptop de idade. Apesar de Redmond nunca tentou comercializar este produto muito difícil ... se tudo.







Synology DS214

DS214 da Synology:



Os candidatos no mercado doméstico orçamento NAS estão embutidos caixas de Linux, e geralmente são vendidos sem os discos. Você está convidado a criar um conjunto RAID e ser um BOFH por uma hora ou duas: a adição de usuários e ligar a gama impressionante de recursos para oferecer, a partir de compartilhamento de mídia básico e streaming para gravação da câmera IP e, cada vez mais, muitos terceiro -partido pacotes.


Synology conquistou merecidamente um papel de liderança aqui contra alguma competição dura, graças a um rico conjunto de recursos, uma interface gráfica fácil de usar, e com o apoio de uma comunidade próspera. Apesar de produzir kit empresarial NAS, ele corajosamente estabelecido um pequeno escritório proposição / consumidor com menor custo placas Marvell ARM - que é o que nós temos aqui, no novo DS214.


O DS214 é novo modelo de Synology de dois drives orçamento, estabelecendo um novo piso para o preço de entrada, em um tom mais de £ 200 para uma unidade de dois drives diskless. Orçamento em outro £ 110 para dois discos de 1TB NAS-prontos, ou £ 175 para duas unidades de 2 TB, e você ainda vai ter mudança de £ 400. Western Digital agora ainda comercializa NAS-ready, Red-marca discos de 2,5 polegadas, um sinal do crescente interesse no mercado.


Mas usar ARM não significa baixo desempenho. Achei o DS214 comparação muito bem contra o Synology mais poderoso e profissional DS712 +, que foi uma escolha $ 752 apenas 18 meses atrás. Equipado com 1 GB de RAM, como uma unidade de referência, o DS712 + não agregação de link Ethernet (ligação), fornecendo o seu roteador pode apoiá-lo, mas no modo Ethernet único a DS214 escreveu e leu mais rápido que o DS712 +. O DS214 usa um dual core, 1.1GHz Marvell ARM com 512MB de RAM.


Fácil instalar


Este ano, o orçamento final da Synology também recebe o tratamento de "montagem sem ferramentas." Sem chave de fenda é necessário para instalar os discos rígidos e arrancar, e levou menos de cinco minutos para ligar a caixa.


As coisas demoram mais tempo, depois disso, a unidade precisa de uma conexão à internet para sair e encontrar a imagem OS - DSM, DiskStation Manager - e leva muito mais tempo para construir o seu conjunto RAID, embora você possa fazer outras coisas sobre ele nesse meio tempo. O DS214 também permite hot-swap, se uma unidade falhar. Este fio de recursos de ponta e recursos na engrenagem barato casa é muito bem-vindo.


Então, o que você ganha? O que é tudo isso? Uma caixa NAS orçamento normalmente é, se nada mais, um ponto de apoio central para uma casa ou pequeno escritório, com a partilha de impressoras USB e próprio usuário contas com permissões adequadas e quotas. Eu sou da opinião de que cada casa deve ter um.


O sistema irá reconhecer uma pasta de fotos externa, e tem um botão dedicado Copiar na frente, por isso, se você permitir, a caixa vai sugar as fotos automaticamente. O DS214 não, como os modelos DS213 Synology, tem um slot para cartão SD, mas o botão de cópia ainda está lá.


Synology DS214 ports

Portas do DS214



Esta opção de orçamento tem portas USB 3.0 - dois deles - pela primeira vez, embora a única porta USB na parte frontal do aparelho é de 2,0 velocidade.


Uma série de aplicativos para iOS e Android permitem que ele seja usado em dispositivos móveis.


Opções pro mais avançadas, tais como iSCSI também estão disponíveis nas caixas de orçamento - onde por uma parte do armazenamento pode ser parcelado e usado para falsificar um diretamente ligado, unidade local nativamente formatado. Até 10 LUNs iSCSI (partições aka) são suportados no DS214.


Synology também tem incluído longo MPEG streaming e visualização de fotos e um servidor iTunes bruto. Por bruto, quero dizer características avançadas como classificações não são realmente suportados - ele simplesmente transmite a um cliente de iTunes.



sexta-feira, 22 de novembro de 2013

Red Hat Enterprise Linux 6.5 navios, mas ainda não RHEL 7 à vista


Guia rápido para a recuperação de desastres na nuvem


Red Hat Enterprise Linux (RHEL) 6.5 atingiu disponibilidade geral após um período beta de seis semanas, tornando-se a primeira versão menor do RHEL 6 a navio desde a versão 6.4 em fevereiro.


Tal como acontece com RHEL 6 ponto-versões anteriores, a atualização não traz quaisquer grandes mudanças para a plataforma, mas adiciona suporte para algumas novas tecnologias importantes que as empresas vão querer ter em suas mãos durante os preparativos para RHEL 7 .







Por exemplo, esta é a primeira versão RHEL para incluir suporte para Docker recipientes de aplicação. Red Hat vem trabalhando com Docker (née dotCloud) para integrar sua tecnologia de conteinerização de código aberto para os últimos meses, e com esta versão, os administradores podem implantar imagens Docker em ambientes físicos, virtuais ou em nuvem.


Capacidades de virtualização do sistema também foram reforçadas. RHEL 6.5 agora suporta máquinas virtuais KVM hóspedes com até 4TB de memória RAM, e administradores podem agora activar e desactivar CPUs virtuais em máquinas virtuais em execução em tempo real. O hypervisor KVM também pode acessar diretamente volumes GlusterFS pela primeira vez.


Para aqueles que preferem correr RHEL convidado VMs em um hypervisor diferente, por outro lado, os drivers de dispositivo de hóspedes do RHEL foram melhorados para proporcionar um melhor desempenho.


Os clientes que estão à procura de precisão do relógio sub-microssegundo - pense aplicações financeiras - será com agrado que RHEL 6.5 agora suporta o Precision Time Protocol (PTP) através da rede local. Administradores de rede também obter uma visão melhor de tráfego de rede, inspecionando os dados (IGMP) Internet Group Management Protocol.


Uma série de melhorias de armazenamento já alcançou a libertação, incluindo suporte para SSDs baseados em NVM Express (NVMe), a capacidade de configurar mais de 255 LUNs em um único alvo iSCSI, melhor controle e recuperação de SAN para iSCSI e Fibre Channel, ea capacidade de criar sistema de lixeiras para a depuração de máquinas com muita memória RAM (como em terabytes).


A segurança também foi reforçada, com um novo certificado de armazenamento de confiança em todo o sistema, que pode ser compartilhado por Serviços de Rede de Segurança, GnuTLS, OpenSSL e Java. Além disso, OpenSSL foi atualizado para a versão 1.0.1, que traz uma série de novos métodos de criptografia, incluindo vários para criptografia de curva elíptica.


E como de costume, a Red Hat adicionou suporte para um monte de novo hardware com esta versão, mas está sendo tímido sobre o que exatamente fichas agora apoia, nomeadamente quando se trata de suporte para Intel e AMD componentes que ainda têm de enviar. Uma mudança que pode falar, no entanto, é que o RHEL 6.5 agora suporta sistemas AMD com mais de 1 TB de memória RAM.


Você pode ler a lista completa de atualizações nas notas de lançamento aqui , e se você gostaria de mergulhar em detalhes, as notas técnicas estão disponíveis aqui .


RHEL 6.5 está disponível para download agora para todos os clientes com contratos de suporte ativos. Quanto ao RHEL 7 pode enviar, isso é ainda uma questão em aberto. Embora Red Hat originalmente deu a entender que iria chegar até o final deste ano, agora parece que não vamos ver a próxima grande revisão RHEL até o início de 2014. ®



quinta-feira, 21 de novembro de 2013

Grossa, acre poluição na China, a Índia está derretendo servidores de data center da Intel


Entrega Email: quatro passos para obter mais e-mail para a caixa de entrada


Intel está relatando que seus data centers na Índia e na China estão sofrendo corrosão, devido aos altos níveis de poluição.


A empresa Free Press Newsletter Detalhes de um novo conjunto de problemas que os engenheiros tiveram que enfrentar em farms de servidores do Chipzilla na Ásia, incluindo níveis anormalmente elevados de corrosão em cabos e hardware placa de circuito.







De acordo com a titan processador, muitas placas foram encontrados para estar sofrendo de um tipo de corrosão de enxofre que raramente é visto por técnicos de fora dos ambientes de fábrica pesados.


"Eles eram desproporcionalmente da Ásia-Pacífico e nos deu uma pausa", vice-presidente da Intel de tecnologia e fabricação de Tom Marieb disse ao Free Press.


"As únicas outras vezes tínhamos visto este nível foi a partir de segmentos conhecidos de uso industrial, como dentro de uma fábrica, nem os centros de dados que deveriam ser controlados, ambientes selada com ar condicionado."


O culpado, a Intel acredita, é a grave poluição do ar presente na Índia e na China. Com grande parte da Ásia experimentando uma demanda de energia crescente e rápida industrialização, a poluição do ar está a atingir níveis sem precedentes .


No mês passado, por exemplo, informou que uma nuvem sufocante de poluição do ar 4,000 por cento tão perigoso como recomendação de exposição ao particulado atmosférico diária praticamente fechado Harbin, uma das cidades mais populosas do nordeste da China, da Organização Mundial da Saúde.


Intel encontra-se agora lutando para adotar novas maneiras de proteger o seu equipamento de condições do ar que se tornaram cada vez mais hostil para a operação do servidor - e da vida humana.


Tais preocupações sobre o poder, a poluição eo consumo de energia só vai aumentar nos próximos anos, à medida que mais centros de dados brotar para atender à demanda por serviços hospedados e plataformas de nuvem pública. Dado o seu apetite pelo poder, esses equipamentos têm forçado as empresas a repensar a forma como e onde construir suas fazendas de servidores.


Grupos como o Greenpeace já começaram a inclinar-se em muitas das principais TI e provedores de serviços em nuvem para considerar fontes de energia verde ao planejar seus centros de dados e construir as suas instalações em regiões que fornecem energia a partir de fontes renováveis. ®



Ultra-verde europeus desprezo centro plano de dados do Facebook


Entrega Email: quatro passos para obter mais e-mail para a caixa de entrada


Projeto Open Compute Facebook encontrou pouco apoio evidente na Europa até à data, centro patrão dados da empresa, disse hoje, em parte por causa daqueles loucos continentals "obsessão com a neutralidade de carbono sobre a eficiência.


Tom Furlong, veep do Facebook de operações do site, disse a Conferência Dynamics Datacenter em Londres, que o esforço de Borg sociais para definir um padrão de data center aberto, incluindo componentes whitebox, pilha de software e praticamente tudo o mais, tinha pego muito apoio em os EUA e, cada vez mais, em todo o mundo também.







Desde que o projeto foi lançado em 2011, os grupos de OCP tinha começado espontaneamente no Japão e na Coreia do Sul, disse ele, e que a empresa estava procurando para apoiá-los: "Quando começou era apenas nós ... ele cresceu além dos nossos sonhos."


No entanto, ele acrescentou: "Nós ainda não vejo nada na Europa, que está se unindo em torno OCP."


Perguntado pelo The Register se este era um problema ou um quebra-cabeça para o Facebook, ele disse:. "Nós gostaríamos de ver mais pessoas a apoiá-lo"


Quanto a saber se havia algo intrínseco à mentalidade européia que parou de operadores de centros de dados e / ou fornecedores pulando na cama com o Facebook, ele disse, "Eu não penso assim."


Mas, acrescentou, Europa (tanto quanto você pode falar sobre um único Europa) foi muito focado em neutralidade de carbono. Facebook, e, por extensão, OCP, é "mais para o lado da eficiência da casa".


Ele continuou, "uma das melhores maneiras" para avançar para a neutralidade de carbono foi a de aumentar a eficiência do centro de dados.


Eficiência foi certamente o cerne da apresentação de Furlong, com a firme olhando para aumentar a utilização de seus servidores para evitar investimento desnecessário. No caso você esteja se perguntando, o tempo de pico de carga do local era 11:00 Pacífico, e seu pico dia era segunda-feira.


Normalmente seus servidores front-end executado em 60 a 70 por cento de utilização. No entanto, durante o salto, segunda crise do bug do ano passado , disse ele, que saltou para 100 por cento. Ao invés de perguntar a pergunta: "precisamos de mais servidores", ele disse que a questão levantada foi se temos muitos.


Até à data, a maioria dos anúncios de OCP ter sido sobre seu servidor e projetos de rede. No entanto, Furlong também caiu algumas dicas sobre estratégia de Gestão de Infra-estrutura Datacenter do Open Projeto de Informática. Esta tinha sido no desenvolvimento de 18 meses, disse ele, e ele iria falar sobre isso na próxima Aberto Summit Computer, que está prevista para o início do próximo ano. ®



quarta-feira, 20 de novembro de 2013

Quem quer um Xeon-powered, 12-core, RAID 10 ... Laptop?


5 maneiras para reduzir a latência da rede de publicidade


O laptop exótico rapazes na Eurocom acabou desencadeou outro em sua série de engenhocas muito peculiares: a 5SE laptop Panther.


Eurocom não vai gostar de nós chamando-o de um laptop: o nome oficial é "Server Mobile laptop classe supercomputador".







Supercomputador é, talvez, um pouco por cima, mesmo se o computador pode embalar um 12-core, 24-thread E5-2697 v2 rodando a 2.7GHz. Eurocom diz que é o primeiro a ter construído esse CPU em um portátil.


Chamando-o de um servidor móvel também pode ser esticar a amizade. A reivindicação do status do servidor é sustentada pela presença de quatro slots de unidades de disco, a capacidade de lidar com os menores RAID 0, 1, 5 ou 10, quatro slots de memória capazes de coletivamente 32GB habitacionais de RAM e prontidão para executar os principais sistemas operacionais de servidor ou mesmo hypervisor ESXi da VMware. A alegação começa a oscilar um pouco quando se considera que a Eurocom classifica a bateria como uma "bateria / UPS" e diz que oferece apenas uma hora de operação. A presença de apenas uma porta Gigabit Ethernet também pode se preocupar administradores, embora seja possível adicionar mais graças à presença de um slot ExpressCard.


Eurocom não está sugerindo administradores vão arrastar este 5,5 kg, 419 x 286 x 57,9 ~ 62,1 milímetros besta em torno de uso diário. Em vez disso, está sendo sugerida a Pantera é um servidor de um portátil poderia implementar durante uma crise ou em locais onde schlepping em uma caixa maior está fora de questão.


A empresa não acredita que o laptop poderia ser usado em seu colo, conversando-se a fonte de alimentação 300w como assegurar grande parte do calor que o computador produz estará fora chassis principal do laptop.


The Eurocom Pather 5Se Mobile Server supercomputer-class laptop

A Eurocom Pather 5SE 'server móvel portátil de classe supercomputador'



Vulture Sul levou ferramenta de configuração on-line da Eurocom para dar uma volta para ver o que a máquina iria custar quando construídos com 32GB de RAM, 4,5 GB de disco (capacidade de 1TB é a maior oferecida por discos dois a quatro), placa gráfica Nvidia GBX 670MX, que Xeon E5 -2697 v2 Windows Server 2012 e uma bateria sobressalente. O preço surgiu em £ 5.423 ou US $ 7, 672, as verbas não-insignificante.


É certamente possível comprar servidores comparáveis ​​ou superiores por um preço melhor, mas esses servidores não seria tão fácil para se encaixar no compartimento de bagagem de um avião. Ou oferecer a chance de desenvolver seu musculatura bastante como o Panther.


O que você acha, administradores? É a Panther pena que ataca em? Ou será que esse gato ser deixado para perambular sozinho? ®



domingo, 17 de novembro de 2013

Combustível serviços a próxima geração de data center


IOControl - liderança em desempenho de armazenamento híbrido


Em sua forma básica, um centro de dados é apenas uma grande sala cheia de gaiolas e armários, com poder altamente confiável, segurança eficiente, incêndio e proteção contra inundações e uma variedade de conectividade de rede interna e externa.


Nos últimos anos, os fornecedores têm tentado diferenciar suas ofertas, mas não há realmente muito que você pode fazer para vestir o que é basicamente uma grande sala barulhenta. Assim, para "tecnologia corredor frio", por exemplo, ler "temos melhorado o fluxo de ar um pouco".







Como pode, então, os centros de dados evoluir para algo melhor? Simples: se não há muito que você pode fazer com o ambiente, desenvolver o que você pode fazer nesse ambiente eo que você pode conectá-lo a.


Mantê-lo privado


Se você é um provedor de data center com várias instalações, você tem a oportunidade de fornecer alta velocidade ligações físicas entre os locais.


Dando a seus clientes a possibilidade de alargar a sua rede entre instalações tem enormes benefícios para as suas estratégias e capacidades de recuperação de desastres: com um físico ligação Gigabit Ethernet de baixa latência entre suas instalações você pode fazer a replicação real.


Se os seus centros de dados não estão próximos uns dos outros, embora, links ponto-a-ponto são muito caros. Uma alternativa é olhar para uma oferta de camada 3 - serviços MPLS gerenciados são ten-a-centavo estes dias.


O conceito emergente, porém, é o serviço de LAN privada virtual, ou VPLS. Este é um serviço da camada virtualizada 2 - pense nisso como um switch LAN virtual na nuvem, no qual você pode sondar seus terminais.


VPLS é menos conhecido, mas o conceito já existe há algum tempo. Assim como nós temos agora a palavra "nuvem" para se referir a serviços gerenciados que tivemos durante anos, a idéia de um serviço de camada 2 virtual veio muito antes da maioria de nós (eu incluído) tinha ouvido falar de VPLS.


Em 2009, por exemplo, PacketExchange (agora parte do GT-T) foi me oferecendo a possibilidade de ter uma VLAN conectando meu centro de dados em Jersey para o meu centro de dados na Índia, outro Jersey ligar para o escritório de Londres, outro oferecendo um " suja "serviço de internet, e assim por diante.


O problema com a camada 2


Não é, evidentemente, um problema fundamental com VPLS. Na verdade, em reflexão, existem dois.


A primeira é que, se a camada 2 foram uma boa maneira de fazer rede de área alargada (WAN), que não se incomodaria com a camada 3 em qualquer uma de nossas aplicações WAN. Layer 2 é brilhante quando você deseja se conectar A para B no sentido de ponto-a-ponto, pois dá uma conexão nativa para os endpoints que se parece exatamente como eles são conectados ao mesmo switch LAN.


Mover uma caixa para a outra extremidade do link, ligá-lo, e ele continuará a funcionar (contanto que você não tenha quebrado o espelhamento de banco de dados por bagunçar os números de latência, é claro).


O grande problema com a camada 2 redes é domínios de broadcast. A camada 2 de rede ou VLAN é um único domínio de broadcast, e de repente se você conectar cinco coisas distantes entre si através de VPLS você fez-se um grande domínio de broadcast grande cujos níveis de tráfego crescer exponencialmente à medida que você introduzir novos nós.


Ligue três escritórios em 10Mbps e dois centros de dados a 100Mbps (um ponto de partida típico de fadas) sem pensar o suficiente, e uma tempestade de broadcast em uma porta de entrada do centro de dados vai acabar com a conectividade de seus escritórios. Não muito bem.


Então, o que você vai acabar fazendo é colocando em camada 3 redes de trânsito para controlar o tráfego que flui através da rede VPLS e restringir camada ampla área duas operações para os dispositivos que realmente precisam de falar nativamente na camada 2 com os seus homólogos distantes.


E se você está pensando que isso é uma abordagem um pouco estranho, por isso que eu fiz, então eu verifiquei com alguém que trabalha com redes VPLS. "Sim, é assim que eu faria isso", disse ele.


A segunda questão é que um serviço VPLS, pela sua natureza, operam mais de uma espécie de camada 3 (IP / MPLS) de rede. Assim, no cenário acima, você está executando camada 3 em um túnel de camada 2 que é estabelecida através de uma rede de camada 3, que fica no topo da camada 2 tecnologias.


Então, sim, ele pode muito bem ser mais lento do que apenas ter uma rede MPLS velho chato no primeiro lugar.



quarta-feira, 6 de novembro de 2013

IPMI em Supermicro servidores vulneráveis ​​diz HD Moore


O business case para uma solução multi-inquilino, baseado em nuvem Recovery-as-a-Service


HD Moore do Metasploit está roendo a segurança do A Interface Intelligent Platform Management (IPMI), desta vez pondo a implementação do firmware do fornecedor Supermicro.


Moore tinha olhado no IPMI, em geral, em julho, momento em que ele apontou para vulnerabilidades na implementação uPNP da Supermicro.







Seu último trabalho na Rapid7, aqui , dá uma olhada mais de perto o controlador de gerenciamento da placa base (BMC) em placas-mãe que usam o firmware SMT_X9_226.


Suas conclusões são de que o firmware inclui uma pequena série de vulnerabilidades: credenciais estáticas, estouro de buffer e travessias de diretório. Tomando-as em ordem:



  • Chaves de criptografia estática (CVE-2013-3619) existe na interface SSL de servidor Web Lightppd eo Dropbear SSH daemon. Os usuários podem atualizar as chaves SSL, mas não as chaves SSH.

  • A interface OpenWSMan (CVE-2013-3620) tem uma senha estática (admin) para o arquivo de autenticação digest, proporcionando um atacante com um backdoor.

  • Vários aplicativos embutidos CGI conter buffer overflows que dão atacantes acesso root para a execução remota de código - essas são listados como CVE-2013-3621, CVE-2013-3622 e CVE-2013-3623.

  • Um diretório ataque travessia existe na aplicação url_redirect.cgi, e várias outras aplicações CGI incluem chamadas ilimitadas para funções como strcpy (), memcpy () e Sprint ().


Como afirmado em julho, diz Moore, existem 35.000 mais interfaces de Supermicro IPMI visíveis a Internet (El Reg supõe a sua fonte é o motor de busca sempre confiável Shodan). ®



Dentro secretos super-chips da Intel: Se você tem milhões, tem a magia


Entrega Email: Ódio e-mails de phishing? Você vai adorar DMARC


Análise Este ano, a Intel anunciou uma mudança estratégica na sua filosofia: se você mostrar que uma montanha de dinheiro, ele vai enviá-lo com chips de instruções do processador personalizados ou alterar velocidades de clock.


Silício sob medida para o centro de dados é a resposta da Intel para facilmente configuráveis, custom-built chips ARM compatíveis : eletrônicos gigantes são capazes de plantas core licença da ARM, parafuso em um controlador de touchscreen, algumas redes sem fio, ou talvez até mesmo algo adequado para um armazém servidor e fabricar o componente conforme necessário. E, obviamente, se é só você fazer e usar o costume system-on-chips, ninguém mais precisa saber sobre como o silício funciona de verdade - uma frustração para os engenheiros de terceiros de baixo nível.







Até este ano, que não tem sido o caminho Intel opera seu negócio de chip de cozimento, todo mundo pode esperar um nível, bem documentado campo de jogo com muita chipsets separados lá fora ligar hardware. Agora, o seu esquema de personalização recém fez Chipzilla reconsiderar como ele funciona com alguns de seus maiores clientes CPU-devorando.


Embora gigantes de chips no passado dado algum dos escolhidos processadores de suas fábricas - aqueles capazes de sustentar maiores velocidades de clock devido a melhores propriedades térmicas - limite para os principais clientes, melhoria de processos já igualou as variabilidades entre fichas modernas do mesmo projeto.


Para dar grandes gastadores, como Facebook e benefícios especiais eBay, Intel teve de começar a inserir adicional - e muitas vezes em situação irregular - características em seus processadores. Esta abordagem é muitas vezes chamado de "a chave de ouro", e pode ser irritante para empresas de fora do círculo mágico de empresas com acesso às instruções, como uma fração do silicone que pagou é bloqueada a partir deles.


No início deste ano a Intel nos disse que foi gravando diferentes recursos ou instruções em silício para alguns clientes. A empresa também criou completamente novas SKUs com poder ou desempenho diferente.


"Um monte de coisas que até à data tem sido modificar diferentes parâmetros - o poder", Jason Waxman, gerente geral do grupo de infraestrutura em nuvem da Intel, disse-nos este mês. "Nós estamos vendo agora os pedidos que estão chegando onde as pessoas querem incluir suas próprias instruções."


Alguns desses pedidos dará Intel "um portfólio mais amplo de personalização", disse ele, e pode incluir qualquer coisa a partir de uma nova propriedade intelectual (IP) para funções que exijam estruturas on-chip adicionais ou modificados. "A faixa tem certamente ampliou", disse ele.


"Estamos trabalhando com a Nuance publicamente na aceleração voz '


Os clientes da empresa pode, por exemplo, pedir para formas alternativas de interface ou anexar eletrônica diretamente para os núcleos do CPU, disse Waxman. "À medida que avançamos para uma metodologia system-on-chip (SoC), temos as ferramentas para fazer permutações [e são] a trabalhar na elaboração de um portfólio mais amplo de personalização", acrescentou.


Alguns destes se estenderá para a reembalagem de silício x86 com outros pedaços de controladores de circuitos e hardware para atender a aplicação do chip, ou alterar o desempenho de um dispositivo.


Na extremidade mais básico da escala, "algumas pessoas dizem, eu só quero mais portas IO, IO eu quero diferente, eu quero formas de ligar e dirigir [dados]. Poderia ser IO para o armazenamento, pode ser desejo de diferentes interconexões, poderia ser mais rápido ou mais baixas larguras de banda de latência Alguns aceleradores representam grandes oportunidades de colaboração -. estamos trabalhando com Nuance publicamente em aceleração voz ".


Para saber mais sobre o que os clientes estão fazendo com o esquema da Intel falamos com um dos principais compradores da Intel de chips personalizados: Facebook.


"Na medida em que podemos perfilar nossa carga de trabalho, podendo solicitar a contagem específicas do núcleo, as taxas de relógio, configurações de turbo para o gerenciamento de chaves estado - Esse é o tipo de coisas que estamos trabalhando com a Intel em" Frank Frankovsky, design de hardware da empresa e chefe da cadeia de fornecimento, disse The Register.


"Todos os aspectos são sobre como maximizar o trabalho útil, a CPU pode fazer por watt por dólar", diz Frankovsky. "A maioria do nosso trabalho tem sido em torno de otimizar o desempenho que podemos obter por watt de cada CPU."


Algumas das mudanças Facebook solicitou da Intel incluem alteração da taxa de CPU relógio, ou mudanças na gestão de energia ou como o poder-estado são gerenciadas.


"Nós não apresentaram qualquer IP exclusivo ou incorporados nosso IP em chips da Intel", disse Frankovsky. Facebook é improvável que ir para o trabalho de desenhar os seus próprios planos de silício, enquanto Intel presta atenção a alguns dos pedidos da rede social, ele indicada. "Eu acho que a maneira que eu penso sobre ele, é se em algum momento não podemos influenciar o produto, então nós seríamos obrigados a ir um pouco mais fundo."


A maioria dos chips personalizados do Facebook estão sendo usadas nas principais servidores web da rede social que lidam com a construção em tempo real de páginas dinâmicas, disse ele. Mas a empresa está planejando usar mais recursos de personalização da Intel no futuro, especialmente se um par de ajustes experimentais de Chipzilla revelar-se útil.


eBay recusou a ser entrevistado para esta peça, mas nos disse o bazar online "está trabalhando com a Intel em um processador chip personalizado e estamos entusiasmados com os resultados até à data".


Para o cache e além


Intel está ativamente trabalhando para expandir os tipos de alterações que podem fazer para suficientemente grandes clientes, e pode até mesmo começar a mexer com o projeto básico de sua CPUs, Diane Bryant, gerente geral da Intel para centros de dados e sistemas conectados, disse-nos.


Este ano, a empresa espera ter 18 CPUs personalizadas para fora do mercado, e pensa que pode ampliar o que, uma vez que as transições para mais projetos system-on-chip. Ele também está tentando penetrar mais profundamente no núcleo de seus chips para personalizá-lo mais.


"Nosso objetivo, porém, é modificar coisas como a cache", diz Bryant. "O núcleo próprio que inclui a hierarquia de cache - que é relativamente fixo Essa é uma capacidade de futuro que está por vir.".


Este desenvolvimento pode demorar um pouco, como a Intel está tendo problemas para obter o suficiente "rendimento" nos caches modificados, Bryant disse.


Quando dissemos do Facebook Frankovsky sobre o esquema de cache, ele se animou. "Parte da caracterização da carga de trabalho que fazemos nos dá realmente uma boa percepção de como estamos exercendo o cache e como os algoritmos de pré-busca valiosos são", disse ele. "Ser capaz de modificar a hierarquia de cache seria uma coisa muito interessante para fazer. Em outros casos, seria um custo proibitivo para construir um nível um cache do tamanho que precisávamos." (Ouviu, Intel? Há dinheiro em cima da mesa por aqui.)


Com a Intel promete mais de uma dúzia de projetos personalizados este ano, e mais como ele se move para uma abordagem cada vez system-on-a-chip, a empresa espera para inundar o mundo com seus chips sob medida.


"Você começa cedo e, em seguida, as pessoas começam a ouvir mais", disse Waxman. "Eles não são apenas o Modelo T. As pessoas estão percebendo que, particularmente para centros de dados em larga escala ... isso está se tornando quase que um projeto focado, é uma prioridade, está se tornando o novo normal para nossos maiores clientes." ®