segunda-feira, 29 de julho de 2013

Intel quer reconstruir os centros de dados inteiros com seus chips e tubos


Requisitos Checklist para escolher um Cloud Backup e Recovery Service Provider


Análise Se a Intel realmente quisesse, poderia construir toda a infra-estrutura do centro de dados com praticamente todos os componentes necessários exceto as unidades de disco, memória principal e sistemas operacionais para servidores, storage e switches. E com um estiramento, seu Wind River Linux provavelmente poderia cobrir essa última parte.


Mas esse não é o plano de Chipzilla para a casa de vidro. Em vez disso, a Intel quer vender um conjunto cada vez mais diversificado de componentes para quem montar engrenagem e assim dobrar sua receita e lucros do centro de dados.


Isso, em poucas palavras, é o plano da Intel para re-arquiteto do centro de dados, divulgados na semana passada em San Francisco pelo alto escalão em seu Data Center e do Grupo de Sistemas Conectados. O plano definido pelo gerente geral anterior do grupo, Kirk Skaugen, era dobrar o faturamento para a parte da Intel que vende batatas fritas, chipsets, placas-mãe e outros componentes destinados a servidores, storages e equipamentos de rede para US $ 20 bilhões até 2015 .


Ficou claro que a rede e armazenamento iria jogar pesadamente nesses esquemas. E, como se vê, assim que faz um redesenho fundamental de como os elementos de computação, armazenamento e redes são organizadas.


Em um nível, a Intel está se movendo para integrar mais e mais componentes em seus processadores de servidor para criar os chamados System-on-Chip (SoC), com um nível de integração de componentes que é mais típico do que a encontrada em laptops, tablets, e smartphones. Essa integração pode reduzir o consumo de energia.


Conseguir um sinal de fora de um chip e para outro e de volta é muito caro em termos de uso de energia, mas passando um sinal através de um único chip ou dentro de um pacote com vários chips leva muito menos suco. A integração que vem com SoC também dá à Intel (e de outros fornecedores de tais componentes, e existem muitos, particularmente aqueles divulgam unidades baseadas em processadores ARM) um alvo mais fácil para aterrar em software, porque o componente da matriz é muito reduzida em relação ao pondo indivíduo componentes em uma placa de circuito impresso e ligando-os.


Ironicamente, a Intel está explodindo o servidor; dividi-lo em componentes modulares para computação / memória, rede e outros tipos de I / O e armazenamento, essencialmente, a conversão de um grupo de servidores em um rack em uma piscina de computação, armazenamento e rede.


O rack, nesta nova visão, torna-se o novo servidor, e do centro de dados é o novo rack. O novo centro de dados será. . . multirregional e invisivelmente assim, presumo. (Ou talvez SkyNet ou os Cylons. É difícil dizer.)


Intel data center principal Diane Bryant

Intel data center principal Diane Bryant



"Estamos no meio de uma grande transformação na maneira que é fundamentalmente usado", Diane Bryant, gerente geral do Data Center da Intel e do Grupo de Sistemas Conectados, disse durante seu discurso, que delineou as tendências tecnológicas mais amplas que a Intel vê chegando e como ele vai reagir a eles com diferentes tecnologias.


Nos primeiros anos dos centros de dados - quando eles foram chamados de casas de vidro por causa da maneira reverente em que mainframes e minicomputadores foram tratados - a idéia foi tudo sobre automatização de processos de back-end da empresa que foram tratadas por pessoas até que ponto o uso dessas novas de moda usando sistemas e seus softwares.


Essa transformação não começou na década de 1990, como Bryant sugeriu em sua apresentação, mas na década de 1960 com vários mainframes em grandes empresas e acelerou a um conjunto mais amplo de usuários menores através do minicomputador e revoluções Unix na década de 1980 e 1990.


À medida que os anos 1990 foram chegando ao fim, a empresa de software de planejamento integrado de recursos, que movimentou não apenas as operações de back-office, tais como contabilidade, folha de pagamento, e tal, mas também da cadeia de abastecimento, armazenagem, distribuição grossista e gestão de clientes, tornou-se a norma em muitos empresas, que até então tinha feito um monte de codificação de aplicações caseiras. Esta mudança para aplicativos ERP é a principal razão pela qual o mercado de software empresarial é aproximadamente duas vezes maior que o mercado de hardware da empresa.


Pela década de 2000, explicou Bryant, com a comercialização da Internet, a grande mudança foi a redução de custos na empresa, obtendo todos conectados. Essa conectividade barato ea onipresença dos protocolos Internet permitidos para redes públicas e redes privadas de vincular de forma integrada, para que as empresas poderiam ligar para seus parceiros e seus clientes, fazendo coisas como vendas e marketing on-line e dirigir o custo de fazer negócios.


Aqui na década de 2010, Bryant diz que estamos no início de uma era "human-centric" da computação, que é focada na prestação de serviços rápida através de computação em nuvem e dispositivos de estilo inumeráveis. Isto não é de mainframe screen-scraping e aplicativos Unix para rodar em um desktop do Windows.


"TI não é mais apoiar o negócio. Na verdade é o negócio. Ele está sendo usado para entregar os resultados de negócios", declarou Bryant.


"Este é o novo ciclo virtuoso de computação, e para ser honesto, isso é o que nos dá uma enorme confiança em nosso centro de negócios de dados Como mais e mais dispositivos vêm online -. Haverá 14 bilhões de dispositivos até 2016, com 5 bilhões de ser consumidor dispositivos e 9.000 milhões, sendo dispositivos machine-to-machine - eles exigem uma conexão de volta para o centro de dados ".


Intel estima que para cada 600 telefones que estão ligados, no valor da capacidade de um servidor inteiro tem que ser demitido para cima (e espalhados pela Internet) para mantê-lo alimentado. Cada 120 tablets exige a pena de capacidade de outro servidor, e assim que faz cada 20 sinais digitais e cada 12 câmeras de vigilância. Armazenamento e capacidade de rede terá de ser adicionado a esses servidores, é claro.


A outra coisa que tem Intel animado sobre seu negócio de centro de dados é que a penetração dos principais novas tecnologias é muito baixo, assim como o uso de mainframes e minicomputadores era exótico na década de 1960 e 1970.


Bryant disse que com base em suas próprias pesquisas de clientes corporativos durante o primeiro trimestre, apenas 6 por cento das empresas estavam usando grandes ferramentas de análise de dados para tomar decisões, mas 85 por cento deles sabia que eles têm de fazê-lo.


Na frente da nuvem, uma pesquisa IDC do ano passado mostra apenas 9 por cento das cargas de trabalho empresariais estão na nuvem pública e pesquisa de Intersect360 de 2011 mostra que apenas 12 por cento das empresas de produção nos estados de uso de clusters de servidor Estados e design distribuído e software de simulação para criar, testar e melhorar seus produtos. E isso é com 82 por cento dos fabricantes dizendo que eles sabem que podem fazer melhor se eles instalaram clusters e de software.


O truque para o centro de dados é permitir que os sistemas de escala e de fazê-lo a baixo custo, e é isso que muitas das tecnologias que Bryant e sua equipe visualizado eram tudo.


Como um exemplo de como a Intel tem ajudado a impulsionar essas transformações antes, Bryant disse que quando a Intel entrou na raquete supercomputador em 1997, um ano depois de entrar formalmente o negócio de servidor, ele foi dominado por vários sistemas caros vetoriais e escalar com memória proprietária ou sistema interliga .


E desde aquela época, como o processador x86 passou a dominar o Top 500 sistemas de supercomputação do mundo, os supercomputadores têm visto um aumento de 1.500 X no desempenho com um aumento de apenas 4X no consumo de energia, houve uma redução de 100 vezes o custo de o processamento de uma operação de ponto flutuante ao longo desse tempo.


Uma década atrás, os processadores em grande parte parado ficando mais rápido, embora as unidades matemáticas são cada vez mais amplo o tempo todo, eo número de núcleos em um soquete e sistemas em um cluster está a aumentar progressivamente.


Intel está se dirigindo mais cargas de trabalho no centro de dados e na borda da rede

Intel está se dirigindo mais cargas de trabalho no centro de dados e na borda da rede



A crescente diversidade de cargas de trabalho que a Intel está perseguindo é uma alavanca para o crescimento do negócio de data center da Intel, e que é separado do ciclo virtuoso entre a proliferação de dispositivos e entrega de aplicativos on-line e-to-machine máquina de comunicação que irá conduzir demandas de capacidade em centros de dados.


Mas há questões que têm de ser confrontados, ea principal delas é que a infra-estrutura de TI ainda é muito frágil e ainda precisa de muita interação humana. Nenhum destes é bom para uma operação que está sendo executado em hiperescala.


"Nós podemos resolver estes problemas e podemos fazê-lo por re-arquitetura do centro de dados, e que é precisamente o nosso plano", disse Bryant. "Nós vamos mover a infra-estrutura de estático para dinâmico, vamos fazê-lo com software, e vamos fazê-lo para os servidores, redes e armazenamento."


Na frente do servidor, o que a Intel quer fazer é quebrar a computação, memória, armazenamento e I / O elementos em um sistema livre de um ao outro e eles reaggregate-los na mosca em piscinas de capacidade que os aplicativos podem exigir fatias de como necessário .


Em alguns casos, os aplicativos serão executados em bare metal e levar pedaços inteiros de CPU e memória, e em outros casos eles serão executados em cima de hypervisors de virtualização de servidores. (E, se a Intel já tem tempo para comprar ScaleMP, aplicações podem se estender por vários nós de servidores físicos e olhar uma imagem de sistema único para um sistema operacional como.)


A partilha de memória e de computação não é tão separados como este gráfico indica - ainda

A partilha de memória e de computação não é tão separados como este gráfico indica - ainda



No momento, uma aplicação é limitada ao que está dentro da caixa, explicou Bryant, mas para ser muito justo de aplicações têm sido desde projetado para escalar horizontalmente, e muitas vezes na Web, aplicativos e camadas de banco de dados de forma independente um do outro.


O que pode ser dito sobre os servidores, então, é que a configuração de um servidor físico está bloqueado em pedra, e, muitas vezes, se você quiser mais memória ou I / O, você tem que atualizar para um novo processador, mesmo se você não precisa de processamento extra capacidade.


Isso pode ser bom para a empresa que compra um servidor a cada três, quatro, ou cinco anos para dobrar debaixo de uma mesa ou esconder em um armário, mas não vai funcionar para um operador de centro de dados hiperescala com dezenas a centenas de milhares de servidores em um data center.


"Este é um movimento em direção a um verdadeiro servidor de software-defined", disse Bryant.


(E agora estamos oficialmente ficando cansado de todos a falar de um qualquer coisa "definido por software", mesmo que a descrição é verdadeira.)


O mesmo tipo de administração e capacidade questões de planejamento que têm assolado os servidores ao longo de décadas - Bryant cita dados da IDC, diz que a utilização média ainda está abaixo dos 50 por cento, depois de muitos anos de projetos de virtualização - são tão ruins em armazenamento.


Por um lado, existem muitos tipos de armazenamento no data center - bloco, arquivo e objeto - com algumas aplicações que querem o seu armazenamento localmente nos servidores em que eles fazem da computação (acho Hadoop) e outros, não se importando muito se os dados está em uma rede de área de armazenamento ou sistema de arquivos de rede (acho que aplicações de banco de dados).


A natureza do trabalho de computação deve conduzir a escolha do tipo de sistema de armazenamento, e assim deve o quão quente, quente, frio ou que os dados são. E os problemas são mais complexos do que apenas a criação de uma SAN e ligar tudo nele.


Esqueça o SAN, armazenamento vai ser uma mistura de local e central

Esqueça o SAN, armazenamento vai ser uma mistura de local e central



O grande problema, explicou Bryant, é que cada desenvolvedor de aplicativos nunca quer de armazenamento para ser um gargalo para a sua aplicação. E então o que eles fazem? Eles excesso de provisão como um louco.


"Há um enorme descompasso entre o que é solicitado eo que é necessário", disse Bryant, referindo-se a seus próprios anos como CIO da própria Intel. "Precisamos chegar a um lugar onde o aplicativo solicita o armazenamento de que necessita, se é objeto, arquivo ou bloco."


Intel já escalou seus conceituais switches físicos e virtuais no Open Compute Summit, em abril, e Bryant falou sobre as principais tecnologias que vão para essas caixas.


A notícia na semana passada no Re-arquitetura do evento Data Center foi que a Intel foi-se colocando-definidos por software de rede (SDN) switches e ferramentas de gestão em piloto em seus próprios centros de dados. Não está claro se a Intel está usando interruptores comerciais com base na sua própria "Trail Seacliff" switch físico e "Trail Sunrise" switch virtual ou se tem uma parceria com um de seus clientes que está usando chippery da Intel para fazer os switches.


Intel quer dados e fatia e automatizar os interruptores como a indústria tem feito com os servidores

Intel quer dados e fatia e automatizar os interruptores como a indústria tem feito com os servidores



Dois anos atrás, a Intel definir suas vistas ajustadas em redes de data center, e adquiriu a Fulcrum Microsystems Ethernet negócio de chips eo chip InfiniBand QLogic, switch e negócios adaptador para ser um jogador nesses dois espaços.


Em menor grau, Chipzilla comprou o "Aries" Dragonfly interconexão de Cray para ter algo para vender-se na estratosfera, onde as máquinas de supercomputação escalar para centenas de racks. Mas Carneiro não é imediatamente aplicável para o centro de dados, mesmo que não apresentar algumas possibilidades interessantes.


A Intel também tem aspirações em redes fora do centro de dados, disse Bryant. Especificamente, a Intel quer começar sua Atom e processadores Xeon em estações rádio-base na margem de redes de telecomunicações para as estações rádio-base podem executar aplicativos e dados em cache, entre outras coisas.


"Por anos, temos falado sobre telecomunicações como sendo o tubo idiota, e isso fundamentalmente elimina essa preocupação com a borda sem fio", disse Bryant. "Isso só muda o jogo."



Nenhum comentário:

Postar um comentário