segunda-feira, 29 de setembro de 2014

Ellison: Sparc M7 é o mais importante de silício da Oracle SEMPRE


Fornecer um Helpdesk segura e eficiente


OpenWorld Durante seu discurso OpenWorld, no domingo, a Oracle CEO CTO Larry Ellison teve tempo de falar-se estratégia de nuvem da sua empresa para lembrar o público que o gigante banco de dados está no negócio de hardware, também - todo o caminho para o silício.


Muitos dos "sistemas de engenharia" da Oracle são alimentados por processadores Intel - e presidente da Intel Renee James foi ato de abertura de Ellison no domingo - mas a empresa ainda está investindo na tecnologia de processador Sparc adquiriu quando comprou a Sun Microsystems em 2010.







A mais recente iteração da tecnologia, o Sparc M7 , deve lançar no próximo ano - embora as datas exatas são vagos - e ouvir Ellison diz ele, é "a coisa mais importante que fizemos em silício, talvez nunca."


A Oracle sistemas veep John Fowler primeiro brincou o novo CPU na conferência Hot Chips em agosto. Ele a descreveu como um chip de 32 núcleos com 64 MB de cache L3 on-chip que pode ser facilmente colocado em uma configuração SMP 32 vias para um total de 1.024 núcleos de que pode lidar com 8192 linhas, com até 64 terabytes de memória RAM.


Mas o que faz com que o M7 realmente especial, Ellison disse no domingo, são os "mecanismos de aceleração" assado no chip que são para acelerar aplicativos Oracle construído para o efeito.


"Nós realmente colocar mecanismos de aceleração de banco de dados em nosso microprocessador, e com isso podemos acelerar o desempenho da consulta por um fator de dez", disse Ellison.


Uma forma o M7 consegue isso, Oracle patrão presidente executivo disse, é por manipulação de compressão em silício - mais especificamente no lado de descompressão.


"Acontece que você comprimir quando você carregar os dados na memória, e você descomprimir quando você lê os dados e processar os dados", disse Ellison. "Acontece que a relação entre leitura e descompressão é muitas vezes, dez vezes mais freqüentes do que o carregamento dos dados na memória. Assim, a verdadeira magia de acelerar as coisas não é a compressão, é de descompressão."


Como resultado, Ellison disse, o M7 pode processar consultas de banco de dados em um 120GB olho-molhando por segundo, que o fundador da Oracle descrito como sendo dez vezes mais desempenho do que a solução de hardware e software convencional pode gerenciar.


Mas a inovação mais importante no M7, Ellison disse, é seus novos recursos de proteção de memória, que impedem que as aplicações de furar os dedos sujos onde eles não pertencem e torná-lo possível para evitar alguns dos erros de software mais frustrantes.


"As falhas são intermitentes, eles são extremamente difíceis de armadilha, eles são extremamente difíceis de detectar", disse Ellison. "Com a proteção de memória, você pode descobrir os erros muito cedo, por isso poupa-lhe uma descoberta fortuna realmente erros difíceis. Mas a coisa legal sobre isso é porque está no hardware, você pode deixar essa proteção memória, sem pagar qualquer preço o desempenho."


Envolvendo a volta para a nuvem - mensagem geral da Oracle OpenWorld para este ano - Ellison disse nada é mais importante para a nuvem moderna do que a proteção de dados e parar programas mal-intencionados.


Como para quando podemos esperar tudo isso bondade para chegar em servidores reais, no entanto, Ellison permaneceu vago - como foi Fowler em agosto - dizendo apenas que o Sparc M7 deve ser lançado em 2015 ®



Oracle: Qual é a X4-4? Em memória SLAMS monstro mandíbulas para baixo em 3 TB, para começar


Fornecer um Helpdesk segura e eficiente


Oracle OpenWorld pode analisar até 3 TB de dados na memória com as suas mais recentes Exalytics In-Memory Machine, o X4-4.


Anunciado na extravagância OpenWorld de Larry Ellison, este sistema possui quatro processadores Xeon E7-8895 v2, até 3 TB de memória, 4.8TB de flash e um reles 7.2TB de armazenamento em disco (6 x 1,2 TB 10K unidades de 2,5 polegadas). Sua máquina X3-4 , lançado em julho do ano passado, tinham processadores Xeon E7-4800 e até 2 TB de DRAM - de modo que se um aumento de 50 por cento.







O X3-4 2,4 TB de memória cache de flash suportado, e que foi duplicada, bem como 5.4TB de disco de 6 unidades x 900GB. A nova caixa parece ser construído em torno do Sol Servidor X4-4 sistema.


Exalytics_X4_4

Exalytics X4-4



A Oracle diz o X4-4 tem 50 por cento mais núcleos de processamento - até 60 - do que a X3-4 e 50 por cento mais rápido a velocidade do clock. De banco de dados in-memory da Oracle é totalmente certificada com o X4-4, para que a caixa Exalytics recebe os recursos do banco de dados Oracle e pode conter "data marts analíticos inteiramente na memória, proporcionando análises speed-de-pensamento em armazéns de dados existentes e sistemas de registro. "Soa impressionante.


Sun_Server_X4_4

Sun Servidor X4-4



O sistema pode redimensionar dinamicamente a frequência eo número de núcleos para otimizar a performance única de rosca mais rápido quando necessário, bem como para grandes níveis de paralelismo; quanto mais núcleos ativos quanto menor a velocidade do clock do processador e vice-versa, para baixo, nós compreendemos, 8 núcleos. Parece que o Xeon Exalytrics 'são específicos para Oracle, sendo versões especializadas do Xeon mercadoria de base 7-8800s.


Isso faz o X4-4 um sistema não-mercadoria? Acho que sim.


O acelerador Essbase faz parte da suíte de software as Exalytics '. A Oracle diz que há novo Essbase na memória as características que "ajuda a melhorar drasticamente o desempenho geral do Oracle Essbase e escalabilidade;"



  • Algoritmos patenteados Lockless

  • Exalytics-específica pool de threads e gestão de recursos

  • Background multiusuário de escrita


O aparelho X4-4 suporta as novas versões do Oracle Endeca Informações Descoberta, Business Intelligence Foundation Suite, IntelligenceApplications Negócios, Real-Time Decisions, TimesTen In-Memory Database eo produto Hyperion Enterprise Performance Management.


Como a memória fica relativamente mais barato, os servidores geralmente armazenar mais dados em DRAM e assim evitar dados latência de acesso inerente acesso a dados armazenados fora do ônibus CPU-memória.


Confira aqui uma folha de dados (PDF) , onde ele diz que o X4-4 pode ter até 2 TB de RAM e 2,4 TB de flash.


O X4-4 custa o mesmo que o X3-4, entende-se 175 mil dólares, no momento da publicação. ®



Lenovo para completar Devore servidor IBM em outubro


Fornecer um Helpdesk segura e eficiente


Lenovo vai finalmente começar a fechar o negócio na divisão de servidores x86 da IBM em 1 de Outubro, depois de algumas centenas de milhões foi cortado fora do preço.


A empresa chinesa de tecnologia vai terminar a aquisição com um preço de compra de fechamento de US $ 2,1 bilhões, que é um pouco menor do que os US $ 2,3 bilhões tag preço original por causa de uma mudança na avaliação do inventário de servidores da Big Blue e responsabilidade receita diferida, disse Lenovo.







A empresa vai entregar cerca de US $ 1,8 bilhão em dinheiro eo restante em ações para uma fatia de um velho e fiel no mundo da tecnologia que vai estar esperando pode abrir algumas portas para os clientes internacionais.


"Com o fechamento da aquisição x86, a Lenovo irá adicionar uma empresa de classe mundial, que se estende a nossa capacidade em hardware e serviços da empresa, imediatamente tornando-nos um forte número três no mercado de servidores global", disse Yang Yuanqing, presidente e CEO da Lenovo , em um comunicado em conserva.


"Agora, as nossas prioridades são assegurar uma integração harmoniosa e entregar uma transição suave para os clientes. Através da combinação de Lenovo de alcance global, eficiência e excelência operacional com a lendária qualidade, inovação e serviço da IBM, estou confiante de que teremos vantagens competitivas para nos ajudar a impulsionar o crescimento rentável e construir Lenovo em um líder empresarial global. "


Lenovo tem forma quando se trata de gastar o seu caminho para os mercados. A empresa já adquiriu o negócio de PCs da IBM em 2005 e está no meio de aquisição de negócio de smartphones da Motorola Mobility pelo Google, um movimento que vai tornar o terceiro maior smartmobe-maker do mundo também.


Houve alguma preocupação em um ponto que a oferta da Lenovo para servidores IBM não iria passar o agrupamento, dada a atitude atual dos EUA para as empresas chinesas de tecnologia. Os Estados Unidos ea China têm estado em desacordo sobre segurança cibernética, acusando-se mutuamente de espionagem corporativa e espionagem geral e as suas suspeitas levaram a acordos entre as empresas dos dois países se atrasado ou até mesmo demolido.


Comitê do Departamento do Tesouro dos EUA de Investimentos Estrangeiros nos os EUA, que analisa as implicações de negócios de segurança nacional, estava olhando para a aquisição da Lenovo e relatórios sugeriram que era preocupado em dar China um impulso na computação de alto desempenho e preocupado que a Lenovo poderia dar sustos chinesas acesso aos servidores IBM. No entanto, a comissão de okayed o negócio no mês passado.


Como parte do acordo biz servidor, a Lenovo irá também estabelecer uma parceria com a Big Blue em armazenamento e software, tornando-se um revendedor de produtos IBM Storwize incluindo, LTO, o Smart Cloud e Platform Computing. ®



quinta-feira, 25 de setembro de 2014

Samsung prevê PCIe Flash servidor manopla


Escolhendo uma nuvem de hospedagem parceiro com confiança


Mais rápido, cartões flash mais gordos que aceleram aplicações de servidor estão na demanda, e Samsung anunciou que está produzindo em massa a 3.2TB NVMe PCIe SSD utilizando a sua tecnologia 3D V-NAND. Diz capacidades maiores estão por vir.


O SM1715 duplica o anterior NVMe SSD 1.6TB de capacidade XS1715 máximo, e que o produto utilizado padrão NAND planar 2D.







Ele entregues até 740.000 IOPS 4K e tinha um 3GB / s para leitura de banda. O SM1715 faz até 750.000 / 130.000 leitura aleatória / escrever IOPS (tamanho do bloco desconhecido, pensado para ser 4K) e tem um 3GB / s para leitura de banda e 2.2GB / s de largura de banda de gravação. Samsung vai lançar mais informações em breve.


A resistência é de 10 unidade completa escreve por dia durante cinco anos, e os anfitriões direcionados para esta meia-altura, cartão de metade do comprimento são servidores empresariais high-end.


Samsung SM1715 3D V-NAND SSD PCIe NVMe

Samsung SM1715 3D V-NAND SSD PCIe NVMe - nós amamos iniciais



Como é que este produto 3D V-NAND empilhar (sorry) contra outros cartões flash PCIe?


Ele não é um líder no quesito capacidade. Da HGST FlashMax II corre até 4.8TB mas não funciona tão bem - 269000/51000 leitura aleatória / escrever IOPS e 2,6 / 0,9 GB / s de leitura / gravação. HGST tem suas placas mais recentes FlashMax II que vão mais rápido, 531.000 aleatória de leitura O + IOPS por exemplo, mas tampa fora a 2.2TB.


SanDisk (Fusion-io) tem um 2,4 TB ioDrive 2 Duo fazendo 700.000 IOPS de leitura aleatórios com blocos de 512 bytes e 3GB / s seqüencial ler e escrever. A SX300 Atomic vai até 6,4 TB, mas é mais lento, mas mais equilibrado do que speedster da Samsung em 215.000 / 300.000 IOPS aleatórias de leitura / gravação.


Intel, Micron, Seagate e Toshiba têm menor capacidade e, geralmente, mais lentas SSDs PCIe. Eles vão precisar atualizar suas linhas de produtos para combinar Samsung.


Podemos esperar que todos esses fornecedores para saltar a bordo do trem NVMe.


Samsung Electronics memória comercialização VP Jeeho Baek disse em uma declaração preparada: "A Samsung planeja lançar agressivamente SSDs baseados em V-NAND com um desempenho ainda maior, a densidade e confiabilidade no futuro."


Mantenha-os vir Jeeho - que vai manter a competição em seus dedos. ®



terça-feira, 23 de setembro de 2014

O objetivo do jogo: NetApp StorageGRID 'Amazônia torna real'


Escolhendo uma nuvem de hospedagem parceiro com confiança


NetApp anunciou uma nova versão de seu software de armazenamento de objetos, StorageGRID Webscale, e ampliou seu público híbrido: casa de banho privativa com "Amazônia-nalizar" com a adição de uma interface com o armazenamento de arquivos online S3 serviço web da AWS.


Tecnologia de codificação apagamento Geo-distribuído está chegando.







Visualizações da NetApp objeto de armazenamento, como um bom meio de armazenar grandes quantidades de dados não estruturados, que não precisam de serviços de gerenciamento de dados FAS-nível ONTAP, exigindo gerenciamento de dados seguro a um custo reduzido.


Era mais do que há quatro anos, em abril de 2010, que comprou NetApp empresa canadense Bycast juntamente com sua tecnologia StorageGrid - que forneceu o armazenamento baseado em objeto em arrays heterogêneos e fronteiras geográficas. Havia então, mais de 250 clientes StorageGRID, com a NetApp dizendo que o produto era bom para petabyte escala, distribuídos globalmente repositórios de imagens, vídeos e registros de empresas e prestadores de serviços.


O software é executado dentro de uma máquina virtual rodando em um servidor, obviamente, e lida com o processamento de metadados e orientada por políticas de trabalho, escrito e objetos de leitura para / a partir de recursos de armazenamento conectados.


Pensou-se StorageGRID seriam integrados a nave-mãe de armazenamento NetApp, as matrizes ONTAP, mas isso não aconteceu, como e não parece provável que aconteça. Essa separação foi solicitado, nós sentimos, pela aquisição março 2011 $ 480m Engenio que ganhou NetApp suas matrizes E-Series executando o SANtricity OS, voltado para os mercados de vídeo do tipo de vigilância e computação de alto desempenho. Isso significa acesso rápido e simples de dados com aplicativos muitas vezes a prestação dos serviços de gestão de dados.


A E-Series se tornou visto como uma matriz adequada para uso StorageGRID, mas com StorageGRID ainda disponível para trabalhar com arrays de armazenamento de terceiros.


Versão 9.0 do StorageGRID veio em agosto de 2012 com uma interface nuvem agregado, CDMI, a adesão à NFS, CIFS existente e RESTful API HTTP, juntamente com a capacidade de ser geminada com dezenas de petabytes - 35PB foram mencionados - em um único namespace cobrindo bilhões de arquivos em centenas de sites. Pode enviar dados de objeto para a fita.


Agora, dois anos depois, temos a versão 10.0, com nova marca e uma interface Amazon S3 acrescentou. NetApp diz StorageGRID pode conter 100 bilhões de objetos em um único espaço plano de endereço, ou recipiente, que podem ser distribuídos em centros de dados ao redor do mundo.


Podemos prever o armazenamento de objetos em dois níveis: um arquivo privado no local, e uma loja fora do estabelecimento comercial na nuvem pública para os dados de menor valor que necessitam de armazenamento de custo mais baixo. Este é um único repositório de dados de auto-cura que não precisa de uma instalação de recuperação de desastres em separado.


A meta de casos de uso são para on-premise e armazenamento em nuvem pública de:



  • Arquivos de dados que armazenam objetos maiores com períodos de retenção de cargas longas, baixa latência de transação e acesso tolerante

  • Repositórios de mídia com acesso a dados de streaming para distribuídos globalmente grandes lojas de objetos e grandes taxas de transferência

  • -Armazenamentos de dados Web com milhares de milhões de pequenos objetos e altas taxas de transação


NetApp diz a colocação de dados é decidida "de acordo com custo, compliance, disponibilidade e requisitos de desempenho", e esta é orientada por políticas. Existe um mecanismo de política inteligente que "determina a durabilidade ea localização física dos dados para atender aos requisitos de negócios". As políticas são personalizáveis ​​e "help set proteção de dados e camadas de armazenamento para ajustar facilmente a mudança dos modelos de custos".


As políticas são definidas pela disponibilidade de recursos e latência, requisitos de retenção de dados, requisitos de geo-localização e custo da rede. NetApp diz políticas são automaticamente reavaliados e os objetos serão levados para o cumprimento.


Integridade e disponibilidade de dados características incluem:



  • Hash ou impressão digital criado na ingestão de dados

  • Níveis de proteção de integridade, incluindo hashes, checksums e autenticações

  • Verificação de integridade do objeto de dados é executado em ingerir, recuperação, migração e replicação em repouso

  • Objetos suspeitos regenerado automaticamente

  • Arquitetura tolerante a falhas oferece suporte a operações sem interrupções, upgrades e atualizações de infra-estrutura

  • O balanceamento de carga distribui automaticamente as cargas de trabalho durante as operações normais e falhas

  • Característica AutoSupport pode alertar automaticamente suporte NetApp quando os problemas detectados

  • Codificação de nível Nó apagamento melhora a disponibilidade de um único nó, quando utilizado com Piscinas E-Series disco dinâmico


Versões posteriores StorageGRID são planejadas, com um início do próximo ano olhando distribuído geo-codificação apagamento e hierarquização nuvem para nos estabelecimentos comerciais e fora do estabelecimento comercial repositórios. Haverá um programa de early adopter para isso, com disponibilidade geral seguinte, mais tarde, em 2015.


NetApp está agora a ser mais enérgico em marketing e desenvolvimento de StorageGRID. Ele juntou-se o objeto de armazenamento Alliance e está apresentando StorageGRID como armazenamento definido por software, uma vez que não está vinculado a determinado hardware.


Riverbed tem um orçamento de apoio no lançamento da NetApp: "Nosso [SteelStore] tecnologia, juntamente com o novo software objeto de armazenamento de StorageGRID Webscale da NetApp, oferece aos nossos clientes as ferramentas necessárias para tirar proveito da nuvem."


SteelStore era anteriormente chamado Whitewater ea tecnologia é na arena de gateway de armazenamento em nuvem.


CommVault também está na área da prestação de-um-citação, dizendo: ". StorageGRID Webscale representa a próxima fase da estratégia de gerenciamento de dados habilitado para objeto da NetApp NetApp e CommVault permanecer empenhada em fornecer tecnologia e soluções que são rentáveis ​​e altamente escalável, e oferecer aos nossos clientes uma vantagem competitiva. "


StorageGRID Webscale é agora geralmente disponíveis através dos canais de distribuição e revenda da NetApp. ®



terça-feira, 16 de setembro de 2014

Canonical, AMD, equipe-se com OpenStack-in-a-rack


Fornecer um Helpdesk segura e eficiente


AMD e Canonical anunciaram uma nova parceria hardware que vai ver o par de preparar um produto OpenStack-in-a-rack.


Canonical é claramente muito interessada neste material, tendo no início deste ano revelou a Orange Box conjunto portátil. Essa unidade embala dez micro-servidores em uma unidade luggable portátil destinado a oferecer um conjunto de Ubunut potência Hadoop, OpenStack ou CloudFoundry bondade.







A nova plataforma é baseada em servidor SeaMicro SM15000 da AMD, um produto tem usos tanto da AMD Opteron, Ivy Bridge ou Haswell Xeon, embala-los em uma caixa de 10U com até 512 núcleos, 5PB de armazenamento e 160 gigabits de E / S total.


Os compradores também terá Ubuntu LTS 14.04 e OpenStack, montados para fornecer o seguinte:



  • 3 Controladores Nuvem

  • 57 nós de Nova

  • 3 nós Cinder

  • 64 GB de armazenamento de objetos

  • 128 GbE NICs (Max. 512 possíveis)

  • Camada 2 comutação integrada

  • 80 Gbps I / O


No lado do software, os usuários encontrarão Ubuntu LTS 14.04, Ubuntu Server, OpenStack, MAAS e Juju pronto para rolar.


Há também "uma interface gráfica de usuário para implantar dinamicamente novos serviços sob demanda."


Essa inclusão significa esse esforço provavelmente pode ser arquivado em "infra-estrutura hyperconverged," um mercado em que a AMD ea Canonical vai encontrar a concorrência popa. Nutanix já está lá, VMware - além de parceiros - acaba de chegar e os gostos de Simplivity estão a fazer ondas. Scale Computing tem um par de anos de sucesso para apontar para, enquanto novato NIMBOXX na semana passada disse ao The Reg ele está se esforçando para atender a demanda de clientes dos Estados Unidos e espera aumentar para vendas no exterior em breve agora.


Jogue no fato de que o Gartner recentemente incluído kit hyperconverged na sua lista de coisas que podem dar ao mercado de data center um shake e é claro que provavelmente há espaço para mais jogadores. E, provavelmente, algumas novas ofertas: nós ainda estamos para ver um operador baseado Hyper-V, mas a Microsoft está buscando uma patente para um projeto de servidor . Se Redmond se une, as coisas vão se tornar Hyperinteresting. ®



segunda-feira, 15 de setembro de 2014

Três cabeças Cerberus da Seagate poderia salvar o mundo DISK


Segurança para data centers virtualizados


Seagate está pensando em dobrar - ou possivelmente até mesmo triplicar - disco cabeças de leitura para obter um sinal mais forte de pratos do disco, com mais e mais estreitas faixas de dados.


TDK

Disco TDK ler: escreva cabeça








Atualmente, um disco de leitura: escrever cabeça tem uma única cabeça de leitura e uma única cabeça de gravação. Se as faixas de um prato de disco são colocados mais próximos (maior densidade de pista) e fez mais estreito (aumento da distância entre trilhas), em seguida, uma cabeça de leitura poderia encontrar o seu sinal a partir de uma trilha é afetada pela interferência de faixas vizinhas.


Seagate disse durante a sessão "Uma analistas na semana passada que TDMR, ou Magnetic Recording Two-Dimensional, poderia ajudar a resolver esse problema. A idéia é que a interferência de faixas vizinhas é ruído eo que é necessário é uma melhor relação sinal-ruído.


Você pode conseguir isto por ter uma cabeça de leitura diretamente atrás do outro - em série - ou por ter três cabeças, como o mítico besta Cerberus: um para a faixa-alvo e dois batedores para as bordas da trilha de ambos os lados - em paralelo.


Os dois batedores pode ser utilizada para subtrair adjacente faixa "ruído" da pista central de sinal desejado.


O pano de fundo para isso é que existe tecnologia de gravação perpendicular magnética (PMR) está chegando perto do ponto onde a área de bit não pode ser reduzido mais, de modo a proporcionar uma melhoria de capacidade de disco através de ter aumentado a densidade de área. Uma nova tecnologia de gravação é necessária, e que é susceptível de ser HAMR - gravação magnética termicamente assistida - em que a instabilidade de bits PMR cada vez menores são substituídos por bits de tamanho Hamr semelhantes que, uma vez que exigem um aquecimento localizado para mudar, estão longe mais estável.


No entanto, a tecnologia HAMR vai exigir reformulação cara de unidade de disco fabricação prato, bem como o desenvolvimento de ler: escrever cabeças com lasers sobre eles para fornecer a curto prazo, o aquecimento altamente localizada necessário.


Uma forma de retardar esse gasto é usar PMR existente e têm as faixas mais próximas. Desde que você precisar de menos largura de via para ler um sinal de dados do que você faz para escrevê-lo, as faixas podem ser parcialmente sobrepostas para aumentar a densidade de pista, com a desvantagem de ter que reescrever os blocos de trilhas em um dos dados quando são necessários dados reescreve. Esta é telhas de gravação magnética, SMR, e sua desvantagem é a velocidade de gravação mais lenta.


Por ter faixas mais estreitas mais juntos, você também pode aumentar a capacidade de pratos do disco, sem ter qualquer penalidade velocidade de gravação, mas depois de ler dados a partir de faixas torna-se problemática. TDMR promete resolver esse problema.


Zaphod Beeblebrox

Duas cabeças pensam melhor que uma. Três poderia ser melhor ainda.



Ao presidente do evento analista da Seagate para operações e tecnologia, Dave Mosley, disse unidades SMR envio apoiar 1.4Tbit / em duas densidades de área, 20 por cento superior ao PMR ele disse, o que implica que é atingido 1.12Tbit / in 2. Seagate vendeu quase três milhões de unidades SMR, e diz cacheing e hierarquização pode ajudar a resolver o problema de escrita.


É no laboratório que pensamos, como da Seagate de 3,5 polegadas terascale HDD, anunciada em julho do ano passado, tem apenas 625Gbit / in 2. É de 2,5 polegadas unidade 10K Enterprise Performance , anunciado na semana passada, tem 644.6Gbit / in 2.


Mosley disse TDMR pode nos levar a 1.6Tbit / in 2, o que representa um aumento de 15 por cento sobre a tecnologia de gravação de base. Ele está olhando para isso começam a aparecer a partir de 2016; ele usou a integração do produto prazo.


Ele disse HAMR poderia ir de 1.2Tbit / in 2 para tão alto quanto 5.0Tbit / in 2. HAMR integração do produto inicial teria início em 2016 e Mosley acha Seagate terão unidades de disco 20TB em 2020; um número redondo para pensar sobre como Mosley disse, e acrescentando que HAMR requer aquecimento de um ponto de laser de 20nm, enquanto viajando a 80 mph acima do prato.


Olhe para 2014 Atualização Estratégica campo da Seagate para os investidores aqui (é necessário registo) .


Vídeo Dave Mosley da Seagate em TDMR

Dave Mosley apresentando em TDMR no Seagate 2014 apresentação Atualização Estratégica. Clique na imagem (uma vez registrado) para rolar o vídeo



Gostaríamos de imaginar WD, HGST e Toshiba estão todos olhando para TDMR também, e que 2017 deve ver unidades TDMR aparecendo. Leia um blog Silverton Consulting sobre TDMR aqui . ®



Maxta vai entusiasta para Grantley, abraça-se a big daddy Intel


Segurança para data centers virtualizados


Inicialização do software Hyper-convergente Maxta pagou fé e de investimentos com o software atualizado com suporte Grantley e uma arquitetura de referência Intel sabor da Intel - comer isso e você vai ter muita Intel inside.


Maxta (fundo aqui ) adicionou material para sua plataforma de software de armazenamento MxSP:



  • Arquiteturas de referência pré-validado MaxDeploy

  • Primeiro sistema hiper-convergiram usando Intel plataforma Grantley

  • Mais automação

  • As melhorias de desempenho através Grantley e melhores algoritmos de cache e uma melhor utilização do flash (cache de metadados completo em SSD) entregar latência consistente e previsível.


Grantley processadores são chamados de processadores Xeon E5-2600 v3, e Maxta diz que significa mais velocidade, núcleos, armazenamento NVMe e memória DDR4 e suporte 40GBitE.


Os projetos de referência MaxDeploy trabalhar com a Cisco, Dell, HP, Intel (placas de servidor), Lenovo e servidores Supermicro. Os parceiros de canal pode configurar e vender sistemas MxSP hiper-convergiram em seu hardware selecionado. Ele inclui produtos flash PCIe Intel e controlador Ethernet da Intel XL710 10 / 40GbE 40 Gbit / s também desempenha um papel.







Intel veep e GM Al Diaz foi cortesia: "Acreditamos que MaxDeploy e Intel juntas e sistemas de servidor oferecer às empresas mais opções de flexibilidade e escalabilidade da capacidade", mas ele diria isso, não ele.


As adições incluem um painel de controle de automação aprimorada mostrando economia de capacidade e dados de desempenho. Há também "melhor automação VM-centric, a protecção de dados simplificado, maior disponibilidade e resiliência com suporte para VMware estiramento armazenamento Metro Cluster disponibilidade contínua em caso de local, data center, ou falha rack, juntamente com a melhoria das capacidades de auto-cura para detectar e inconsistências auto-correção nos dados ".


As capacidades de auto-cura envolvem a detecção e inconsistências de soma de verificação de auto-correção de dados com base de máquinas virtuais, instantâneos e clones.


Maxta disse MxSP com Grantley CPUs apoio de 40 por cento mais usuários Taxas de que a geração anterior de processadores Xeon. Há, dizem-nos, "melhorias significativas em relação à geração anterior de servidores x86 no número de operações de I / O por segundo, ler e escrever latência, eo número de máquinas virtuais implantadas em um servidor."


Sem dúvida Maxta espera tem uma vantagem time-to-market em relação aos concorrentes, como Nutanix, Scale Computing e Simplivity com este apoio Grantley.


Site de tecnologia wiki Biz Wikibon, sob a forma de co-fundador e CTO David Floyer, acha que sim. "A abordagem pré-validado, como a Arquitetura de Referência MaxDeploy, juntamente com o software Maxta MxSP, auxilia as organizações a implantar infra-estrutura de TI previsível, repetível e escalável. A parceria com a Intel Maxta é um elemento essencial na oferta de soluções convergentes de SAN do servidor, tanto implementações hiper-convergente empresa e ".


Nós não teria pensado AMD concordaria. Maxta está em perigo de se tornar um associado / marketing Intel ISV, que a matéria não pode, em tudo em termos de sucesso e crescimento dos negócios.


Saiba mais sobre a arquitetura de referência MaxDeploy aqui . ®



segunda-feira, 8 de setembro de 2014

Dell PowerEdge conecta-se com a SanDisk, enfia servidores com DAS Cache


Novas soluções de armazenamento híbrido


Servidores PowerEdge de última geração da Dell vão usar o software de cache DAS Cache SSD da SanDisk.


Os servidores R730, R730XD, R630, T630, R920 e equipados com armazenamento em disco de conexão direta terá o software DAS Cache. Ele complementa existentes da Dell Fluid Cache para SAN , armazenamento em bloco ligado à rede.







Uma R370-XD viu um aumento de 37 vezes a velocidade com um aplicativo do tipo de armazém de dados, utilizando-se 18 x 200GB SATA SSDs para cache 16TB de disco app (8 discos x 2TB 7.2K SATA), os discos não é particularmente rápido deve-se dizer, que gostaria de destacar um aumento de velocidade de cache flash.


DAS Cache

DAS Cache aumento de velocidade com a Dell R370-X server. O cache de 30 por cento é de 120 GB de capacidade de SSD.



SanDisk tem cache flash e produtos de software de memória de armazenamento, cortesia de sua aquisição Fusion-io e sua compra de FlashSoft para software PCIe caching em 2012.


Seu portfólio de software inclui:



  • Software ExpressCache tão Ultrabooks, notebooks e PCs podem usar os SSDs da SanDisk,

  • Software de armazenamento em cache FlashSoft SSD para reduzir I / O de latência em VMware vSphere, Windows Server e ambientes Linux, agora conhecido como DAS Cache,

  • ioTurbine direto para a aceleração servidor físico,

  • ioTurbine Virtual para virtualização-aware disco, arquivo, volume e VM específica do cache,

  • IOControl software gama de flash híbrido / disco,

  • software ioVDI para aceleração virtual desktop infrastructure,

  • Virtual camada de armazenamento de software (VSL) que alimenta a plataforma de cartão de memória flash ioMemory,

  • gestão ioSphere para a memória flash card ioMemory, e

  • ZetaScale Software - um valor de chave de armazenamento de objetos que proporciona otimização nível de sistema para especificou In-Memory Compute (IMC) e os aplicativos de banco de dados NoSQL. Ele usa DRAM como um cache.


Isso é um monte de software relacionados com flash-. Dell decidiu que ele precisa para acelerar aplicativos que dependem de IO de disco armazenando em cache os dados quentes em SSDs, qualquer SSDs da marca, e é software de OEM'ing SanDisk DAS Cache para fazê-lo. O software suporta tanto write-through e cache write-back.


Ele suporta vários sistemas operacionais host, incluindo o Windows (2008 R2, 2012, 2012R2) e Linux (RHEL 6.5, 7; SLES 11 SP3; RHEV) e Hyper-V e KVM. Suporte VMware e Ubuntu está chegando, VMware em 2015 - é uma pena apoio VMware não está pronto up-front.


O cache pode escalar até 16TB com até quatro caches por servidor, para permitir diferentes níveis de qualidade de serviço (QoS). SanDisk diz OLTP, de análise (BI e OLAP), computação de alto desempenho e da empresa em geral aplicativos podem se acelerou por este cache.


Naturalmente ele é vendido, apoiada e validada pela Dell, e suspeitamos SanDisk está feliz da vida com este negócio. ®



sexta-feira, 5 de setembro de 2014

Webcast de acompanhamento: HP torna o caso para a convergência


Controle remoto seguro para desktops convencionais e virtuais


Uma das coisas que surpreenderam muitos em nossa recente Regcast em infraestrutura convergente (CI) foi a reivindicação por Clive Freeman da HP que a otimização de hardware para cargas de trabalho bem definidos supera em muito o desempenho que se obtém pelo mesmo preço usando otimização de software em uma plataforma padrão .


Depois, perguntei como Clive HP tinha feito o cálculo. Ele me mostrou alguns testes de hardware que oferecem, em sua frase, "muito mais estrondo para seu fanfarrão, para a carga de trabalho certo".







Dados internos da HP se concentra em Moonshot, nova gama de ultra-alta densidade, servidores de baixo consumo de energia da empresa.


Há 45 cartuchos Moonshot em um chassi 4.3U e cada cartucho tem uma ou quatro servidores, dependendo do modelo. Cada servidor consome 10W.


HP refere-se a Moonshot como "servidores definidos por software": a carga de software define o cartucho especializado que você escolher. HP planeja sistemas especializados para aplicações tais como grandes dados ou virtualização de desktop em toda a sua gama de sistemas convergentes.


Buscar e levar


Então, o que faz testes show da HP? O benchmarking utilizado uma carga de trabalho específica, assim que sua milhagem certamente variar. Mas em comparação com um servidor de propósito geral, dois ou três cartuchos Moonshot (que consomem 30W) entregue desempenho da lâmina-como as cargas de trabalho, com uma pegada e compra preço muito menor.


A pesquisa interna mostra que os servidores de baixo consumo de Moonshot, com base em Intel Atom ou AMD Opteron CPUs, exigem 89 por cento menos energia, 80 por cento menos espaço e 77 por cento menor custo do que os servidores genéricos.


Mas isso não é uma regra geral: HP antecipa que o mercado é 19 por cento dos servidores de volume, que serão vendidos entre agora e 2016.


O que as cargas de trabalho podem se beneficiar? Sistemas convergentes são úteis se você pode definir, uma carga de trabalho específica previsível ou o tipo de cargas de trabalho. Otimizando o hardware para essas cargas de trabalho, dizem os defensores dos sistemas convergentes, oferece o desempenho ea gestão de vantagens.



Arquitetura convergente não é tão útil para aplicativos ou virtualização de computação intensiva



As cargas de trabalho para Moonshot são susceptíveis de ser leve e altamente paralelo. Eles não fazem uso dos ciclos de CPU em servidores tradicionais, mas precisa ser capaz de buscar e entregar os dados.


Isso significa que os desktops virtuais, aplicações web, aplicações móveis ou processamento transacional poderia se beneficiar. É claro que não existe uma arquitetura convergente: o que você compra é configurado para o que você precisa. Não é tão útil para aplicativos ou virtualização de computação intensiva.


Quando a carga de trabalho é bem definido, analista da Forrester descobriu que 60 por cento dos EUA e os tomadores de decisão de TI europeus, que já havia implantado uma infraestrutura convergente disse que o tempo de implantação foi menor (mais 13 por cento disse que era o mesmo). Então, em um nível básico, há um argumento de tempo e dinheiro para infraestrutura convergente.


Há também uma garganta para estrangular quando você precisa de apoio. E talvez o maior benefício de todos é uma única plataforma de gerenciamento e monitoramento.


Há também uma mudança potencialmente mais profunda. Convergência na arquitetura pode levar a convergência no departamento de TI.


O espírito de equipe


Forrester também descobriu que CI, oferecendo componentes integrados na entrega, às vezes é um catalisador para a mudança na forma como é entregue e como o seu orçamento é gasto.


Um em cada três dos inquiridos sua pesquisa disse que o uso de CI permitiu a fusão de equipes previamente separados na área de TI; dois quintos alegaram que poderia transferir recursos de manutenção de novas iniciativas; e três quartos disseram que sua capacidade de resposta a novos requisitos de negócios melhorou.


Mas enquanto CI pode tornar a mudança possível e benéfico, é outra coisa bem diferente de assumir isso vai inevitavelmente acontecer. O relatório da Forrester aponta que a CI tem, numa fase inicial, foram tomadas mais agressivamente na construção de nuvens privadas, onde os benefícios de gestão e monitoramento de criar flexibilidade e capacidade de resposta.


Cargas de trabalho mais específicos que poderiam se beneficiar das vantagens de eficiência de configuração de hardware CI especializados - por exemplo, dados grande - estão levando mais tempo para ser aceito, de acordo com a Forrester, porque o software existente (acho Hadoop) foi projetado para ser implementado no genérico de menor custo servidores.


Porém, no final, a CI pode tornar-se atraente pela simples razão de que ela reduz a carga de gerenciamento, mesmo para um pequeno centro de dados com nenhuma dessas cargas de trabalho especializados.


Pode levar mais tempo para convergir as equipes do departamento de TI - mas, entretanto, eles podem gerenciar e otimizar através de um único painel de vidro desde o primeiro dia. ®



quinta-feira, 4 de setembro de 2014

Blade runner: Cisco ups seu jogo servidor UCS


Segurança para data centers virtualizados


Cisco vem renovando sua linha de servidores UCS, atualizando blade e rack produtos existentes e adicionando servidores modulares para servidores scale-out e mini-servidores para situações empresa de ponta, como escritórios remotos e filiais.


Ele cita um relatório maio 2014 Servidor Tracker da IDC, que declarou Cisco líder no fornecimento de servidores blade x86 nas Américas (com base na quota de mercado de receitas). No entanto, o rastreador servidor agosto IDC tem Cisco em 5,8 por cento quota de mercado de receitas fábrica, na 4 ª posição conjunta com Oracle (5,9 por cento), e atrás de HP (1 a 25,4 por cento), IBM (2 a 23,6 por cento) e Dell (3 a 16,6 por cento).







A grande empresa de kit de rede anunciou:



  • Gen 4 cremalheiras (C-Series) e lâmina de servidores (Série B)

  • Servidores modulares New M-Series para uso nuvem escala

  • Novo Mini UCS pequena escala e uso ROBO


Há também software Director UCS para orquestrar grandes cargas de trabalho de infra-estrutura de dados.


UCS veep da Cisco e GM Paul Perez, disse em declarações enlatados: "Com este portfólio ampliado, a Cisco está oferecendo a maior onda de inovação computação desde a introdução original da UCS - estamos continuamente desafiadora e evoluindo como infra-estrutura de data center deve ser projetada e gerenciada . "


Empresa John Chambers vai tê-lo de que o "UCS C3160 rack de servidor, com armazenamento em disco local, de alta capacidade, é ideal para a análise de dados distribuídos e armazenamentos de objetos, repositórios de dados não estruturados, e streaming de mídia e transcodificação." Os "B200 M4 Blade Server, C220 e C240 ​​M4 M4 servidores rack continuar a tradição de desempenho do aplicativo do recorde mundial da Cisco em uma ampla variedade de cargas de trabalho."


Cisco_UCS_video_sep_2014

Cisco UCS vídeo; clique na imagem vid a rolar a vid / p>



O M-Series conta com "computação em tecido da UCS para uma infra-estrutura mais enxuta para aplicações em escala de nuvem."


Um chassis de 2U contém até oito cartuchos de computação CPU Dual Xeon com dois E3s independentes, com dois ou quatro núcleos no interior. Eles se conectam para até quatro SSDs e dois links 40 Gbit / s Ethernet. O chassi é cabeado a UCS 6200 tecido de interconexão, com até 20 chassis ligado a um par destes em um único domínio de gerenciamento. Os cartuchos são swappable para fornecer atualizações de CPU do servidor.


Cartão de Interface Virtual (VIC) tecnologia permite que a largura de banda Ethernet a 2 x 40 Gbit / s por - sub-dividido em Ligações virtuais usando 10 Gbit / s ou conexão Ethernet de 1 Gbit / s.


A UCS Mini é um "all-in-one [produto que] oferece servidores, armazenamento e rede em um fator de forma compacta."


O coração dele usa um B-Series servidores chassis e lâmina com o Interconnect 6324 Fabric, que é limitada a um máximo de 15 servidores (8 x servidores blade Série B e 7 servidores x rack). Isto contrasta com servidores UCS full-size, que podem ter muitos, muitos mais interconexões.


O novo B-Series e C-series terá especificações lançado em poucos dias, possivelmente quando / depois Intel anuncia os processadores Grantley com até 18 núcleos por soquete.


A UCS Director Expresso para Big Data "cria uma gestão transparente e ambiente de automação que unifica dados empresariais e grandes aplicações. Cisco inovação em parceria com a SAP e Intel agora oferece um painel de gestão único para combinado SAP HANA e infra-estrutura Hadoop."


Obter um M-Series folha de dados aqui (PDF) .


Saiba mais sobre o UCS mini- aqui . Leia o blog do Cisco CTO Padmasree Guerreiro sobre o novo kit eo seu fundo aqui .


Servidores UCS Mini começam em menos de US $ 20.000. ®



terça-feira, 2 de setembro de 2014

NEC inclina em servidores webscale com 46 placas de átomo em chassis de 2U


5 coisas que você não sabia sobre o backup em nuvem


NEC do Japão desencadeou um novo "servidor modular micro" espera vai buscá-la para a alcaparra computação webscale.


Lançado no mês passado, mas mostrado pela primeira vez fora do Japão no Dia Mundial de hospedagem em Cingapura ontem, o servidor é uma besta 2U que abriga os servidores personalizados com processadores Atom C2000-série em placas pequenas delicados que também embalam 32 GB de RAM e um estado sólido de 128GB disco. Os servidores se sentar lado a lado 18 no chassi, com duas fileiras completas separado de uma terceira colocação menor de dez por um lindo banco de fãs.







Os átomos são oferecidas tanto a 2.40 GHz C2750 ou a 1.70 Ghz C2730. Ambas as embalagens oito núcleos, então há uma chance de colocar 352 núcleos em arreios. Leitores com boa capacidade de multiplicação não precisa se ​​preocupar com o "S Reg: dois dos servidores estão entregues ao dever de gestão, portanto, apenas 44 são dedicados a cargas de trabalho.


Outras permutas são possíveis porque os usuários poderão abandonar um servidor em favor de 1TB ferrugem fiação, para aplicações que necessitam de mais espaço de armazenamento.


Não negociável, se você quer fazer um trabalho útil são os dois módulos de switch de rede, que oferecem oito Ethernet de 10 GB e um par de portas ethernet 40GB.


NEC é sem surpresa lançando os servidores em provedores de serviços, operadoras de cloud escala, os usuários do Hadoop e até mesmo usuários de HPC. Esse campo não está apenas a ser feita sobre a densidade do núcleo de um rack dessas máquinas fornece: Hortaliças da Intel e as economias de eletricidade resultantes também são avançados como qualidades desejáveis.


O brevemente Reg jogado com o servidor e pode denunciá-lo é quase Lego-like: todos os componentes estão equipados com clips que lhes permitem ser descartado dentro e fora do quadro com facilidade maravilhosa. NEC prefere mostrar seu hardware ao discutir negócios maiores, por isso, pode ser necessário pedir muito bem, se você quiser jogar sozinho. ®



Isso é um guerreiro ARM de 64 bits no seu bolso? Não, é MIPS64


5 coisas que você não sabia sobre o backup em nuvem


Chip Technologies designer de Imaginação hoje veio a público sobre a sua concepção processador novo, o 64-bit MIPS Guerreiro I6400.


É um projeto ambicioso, que visa painéis de carro, TVs digitais e tablets - o espaço usual para Imagination - todo o caminho até o centro de dados de computação de primeira qualidade, armazenamento e kit networking. Em outras palavras, sempre que o arqui-rival ARM está tentando espalhar seus membros.







O I6400 CPU é praticamente uma versão para MIPS64 do Guerreiro P5600 de 32 bits que foi falado até final do ano passado, com alguns recursos extras lançados dentro.


Por exemplo, o I6400 tem o multithreading simultâneo (SMT) visto em 32 bits família Meta da Imaginação system-on-chip: esta tecnologia transforma essencialmente cada núcleo físico em dois ou quatro núcleos virtuais. Um programador hardware intercala as linhas virtuais da CPU em filas de execução do processador, os moedores de carne do chip.


Você pode conhecer melhor SMT como Hyper-Threading, que é o que a Intel chama de sua implementação da tecnologia. A idéia é maximizar o desempenho, por forma inteligente agendar instruções para o processador está sempre trabalhando, sem sugando muita energia. Considera isto Imaginação dividindo um núcleo I6400 física em dois segmentos de hardware vai aumentar sua presença física em cerca de 10 por cento, enquanto aumenta o desempenho de 30 a 60 por cento.


O I6400 pode suportar até seis núcleos físicos de forma coerente por cluster - que é o termo de imaginação para um bloco de núcleos em um chip system-on-em vez de um cluster de máquinas - e até 64 cachos por nós, se você quiser ficar louco.


Ele também tem um 128-bit SIMD suporte da unidade e de virtualização de hardware, assim como o P5600. As obras de virtualização de hardware, atribuindo sistemas operacionais convidados virtualizados e bare-metal aplicativos um número de identificação de quatro bits de largura - de 1 a 15, 0 é reservado para o hypervisor - e, em seguida, expondo o Número de Identificação para o resto do homólogo do sistema chip de hardware. (Imaginação diz O Reg que não há nada que ele ampliando esse número mais tarde.)



Clique para ampliar



Assim, se (por exemplo) convidado / app ID 3 acessa alguma parte do mapa de memória do sistema, esse número está incorporada na transação de ônibus - o que permite periféricos ignorar ou abortar o acesso se que o programa não deve tocar a parte particular de o computador.


Se o hóspede / app ID 3 é suposto estar a correr a pilha de rede, não há nenhuma necessidade para que tocar diretamente os registros de sensores a bordo, vamos dizer. Esse mecanismo, como uma alternativa ao clássico gestão tabela de páginas, introduz um firewall, se você quiser, entre os vários componentes de software em seu dispositivo embutido - mas como com TrustZone da ARM e SMM da Intel , a separação de hardware não é totalmente infalível onde o software de buggy está envolvido .


Argumento conjunto de instruções


A principal diferença entre o I6400 eo P5600, porém, é que o primeiro pode executar código MIPS32 e MIPS64, enquanto o segundo foi MIPS32 só - fazendo o I6400 o primeiro processador de 64-bit Guerreiro. Imaginação não poderia salientar forte o suficiente para a sua humilde hack que o conjunto de instruções MIPS64 é uma extensão para MIPS32, em vez de uma substituição.


Onde ARM rival de mudança de 32-bit ARMv7 para 64-bit-a ARMv8 envolvido reescrever pedaços de seu conjunto de instruções e forçando alguns engenheiros de baixo nível para aprender uma nova linguagem de montagem, MIPS64 é basicamente MIPS32 com instruções para o uso de 64 bits de largura dados, e executa o código MIPS32 sem um interruptor de modo.


Imaginação, mais conhecida por seus núcleos PowerVR gráficos em iPads e outras coisas, espera que este significa que as pessoas não vai encontrá-lo uma tarefa pegando MIPS64 se eles já sabem MIPS32. Tenha em mente, MIPS64 tem sido em torno desde 1999.


Especificamente, o I6400 implementa liberação MIPS64 6 , para que a documentação está disponível. Imaginação afirma R6 inclui "instruções suplementares para um reforço execução em cargas de trabalho de software modernos" -por exemplo: código de posição independente, motores just-in-time e máquinas virtuais El Reg ainda está examinando os documentos;. vamos investigar liberação cinco contra seis em breve.


Ironicamente, MIPS eo novo ARMv8-a (PDF) conjuntos de instruções são convenientemente semelhante: por exemplo, ambos têm um registo fixo que sempre contém um valor zero, ambos têm de toneladas de registos de uso geral, cada instrução é a mesma largura, o contador de programa não é directamente acessível, e assim por diante.


Então, se você pode dominar MIPS64, você pode dominar ARMv8-a, e vice-versa. Deve-se dizer que tanto a ARM e Imagination estão mantendo a preensão de suas arquiteturas de 32 bits-sorvendo de energia, particularmente para o low-end do mundo da computação embutida bateria-powered. É o seu pão e manteiga. Mas é claro que o par está agora ambos brandindo projetos RISC de 64 bits para smartphones e tablets multi-core, e hardware de data center.


Com 64 bits, você tem mais espaço com o seu espaço de endereço virtual - guerreiros núcleos têm sido capazes de endereçar até 1 TB de memória RAM física por um tempo agora -, bem como a manipulação mais limpa e mais rápida de dados de 64 bits. Essa maior espaço de endereço virtual é útil para a execução de grandes aplicações ou sistemas operacionais modernos de hóspedes em um hypervisor, o que é certo até rua servidor. Imaginação insinuou em agosto do ano passado que um guerreiro de 64 bits foi devido ao redor agora.


Coloque-se no lugar da Imaginação: em 2012, o designer gráfico núcleo comprou a tecnologia MIPS para US $ 100 milhões, dando-lhe um 32-bit e 64-bit arquitetura de longa data de computação - uma arquitetura encontrada no original Sony PlayStation, roteadores domésticos incontáveis ​​e dispositivos de entretenimento, ea outra engrenagem.


"Nós não adquirir MIPS para o inferno dele," CEO Imaginação Hossein Yassaie brincou com os jornalistas no ano passado. O movimento colocou Imaginação no caminho do projeto do processador embutido robusto ARM, que estava trabalhando em seu próprio conjunto de instruções de 64 bits para servidores e smartphones - um que compartilha características com MIPS64 mas a eletrônica subjacentes são, naturalmente, muito diferente.


"É lisonjeiro," Mark Throndson, diretor da Imaginação do marketing processador e desenvolvimento de negócios, disse ao The Register alguns dias atrás, quando pressionado sobre as semelhanças entre as línguas MIPS64-ARMv8.


"Com 64-bit ARMv8, há diferenças, mas eles dizem que a cópia é a forma mais sincera de lisonja. [32 bits] ARMv7 e v8 [64 bits] também são bastante diferentes; isso não é algo que você começa com MIPS. MIPS64 é uma extensão do MIPS32, e já tem sido no mercado há 20 anos ".



Clique para ampliar



A configuração básica do I6400, fabricado pela TSMC, tem quatro núcleos - com duas linhas de SMT por núcleo - além de caches L1 de 32KB de dados / instruções, um cache de 1MB L2, e cada núcleo ocupa um milímetro quadrado de silício. O projeto está licenciada para fabricantes de chips, que devem ter os pacotes disponíveis até o final do ano - a tempo de ir cabeça a cabeça com musculoso Seattle 64-bit ARM da AMD system-on-chip.


Se você não pode esperar tanto tempo, a fundação prpl foi elaborado um porta QEMU apoio MIPS r6 aqui , embora você precisará obter um conjunto de ferramentas R6, capaz de fazer uso do conjunto de instruções atualizado.


Se MIPS32 é mais sua coisa, há uma nova placa dev Criador CI20 alimentado por um system-on-chip de 1.2GHz INGENIC JZ4780.


Enquanto isso, uma porta do próximo sistema operacional Android L para MIPS64 r6 também está em obras, nos é dito. ®