segunda-feira, 28 de abril de 2014

Tudo o que você sempre quis saber sobre a construção de um monstro VDI, mas tinha medo de perguntar


Combater a fraude e satisfação do cliente aumento


Característica Então você sabe o seu caminho em torno de um centro de dados muito bem, mas você foi dito para a implantação de VDI - aka que a tecnologia altamente fascinante, infra-estrutura de desktop virtual. Este é o seu primeiro virtualização malabarismo tempo nesta escala. O que você precisa para se preocupar? Como você vai testar e aferir isso? Nosso blogueiro sysadmin Trevor Pott apresenta este prático guia-cut-out e manter, com quatro cenários para você trabalhar.


Em qualquer configuração de VDI existem quatro grandes elementos que irão determinar o desempenho e facilidade de uso de seu sistema: os gráficos; sua largura de banda de rede; recursos de seus servidores; eo armazenamento de todos os dados. Se algum elemento está fora de equilíbrio com o resto, sua besta desktop virtual irá falhar o usuário.







Para além destes elementos, a VDI tem três sabores básicos no mundo do Windows: Serviços de Área de Trabalho Remota (RDS, anteriormente conhecido como Terminal Services); Windows Server VDI; e Windows Client VDI. Nas duas últimas abordagens, cada usuário recebe uma máquina virtual só para eles: um usuário por instância do sistema operacional.


Em um cenário de RDS, vários usuários registrar em uma única instância do Windows Server e compartilhar essa instalação. Vários servidores RDS pode existir na piscina VDI, mas o diferencial com RDS é que conceito de múltiplos usuários conectados a uma única cópia do sistema operacional.


Este conceito multiusuário tem um significado no mundo real. Um aplicativo instalado no servidor RDS está disponível para todos os usuários e devem ser licenciados como tal. Uma varredura anti-malware contra a OS vai afetar todos os usuários, e é possível que um usuário pesado de degradar a experiência para todos os outros usuários. (Embora Server 2012 e Server 2012 R2 têm algumas novas tecnologias agradáveis ​​para frustrar os porcos do processador.)


Talvez o mais crítico, você pode ter aplicações que não são exatamente multiusuário amigável. Um usuário bater um aplicativo pode quebrá-lo para todos os outros usuários, e se alguém consegue cratera do sistema operacional, eles tirá-lo para todos.


VDI flavors Visio

Seu VDI tem um sabor ... o que é isso? (Clique para ampliar ilustrações)



O modelo alternativo "um usuário por sistema operacional" empregada pelo Windows Server e Windows Client VDI VDI utiliza mais espaço e recursos por usuário, mas elimina a possibilidade de uma pessoa arruiná-lo para o resto.


Infelizmente, o licenciamento do Windows para os acima mencionados três tipos básicos de VDI difere substancialmente de sabor para sabor, e você deve investigar qual abordagem é certo para você. A partir de hoje nós estamos discutindo lado da engenharia de implementação de VDI, este artigo não vai para o âmago da questão de licenciamento (embora este <a href = " PDF deve ser o seu primeiro porto de escala). Ao invés disso, nós vamos rodar sobre os elementos que compõem uma pilha VDI decente.


Gráficos: Não fique reticente sobre o detalhe gráfico


Gerando gráficos na tela é o mais frequentemente a maior fuga em qualquer configuração de VDI. Ele também é o aspecto mais freqüentemente negligenciada e menos entendida por aqueles que são novos para o campo.


Todos devem saber que os processadores de uso geral em PCs descarregar trabalhos gráficos para GPUs dedicadas: os processadores mais básicos gráficos em desktops de hoje pode tornar-se rapidamente cenas em 2D e 3D em grandes (ou vários) monitores.


Isto poupa as CPUs de uso geral de ter que fazer malabarismos gráficos de plotagem e da carga de trabalho de computação de sua dúzia diariamente, maximizando assim o desempenho todo.


VDI Graphics Generation Visio Diagram

Graças à VDI, várias máquinas virtuais pode jogar Crysis, compartilhando uma placa de vídeo



Sem virtualização GPU , implementações de VDI deve não só lidar com as demandas de CPU usuais de aplicações, eles devem criar GPUs virtuais de recursos da CPU para cada instância VDI você disposição. Mesmo os servidores mais poderosos x86 podem ser rapidamente derrubado por um punhado de usuários VDI streaming de vídeo a partir de suas máquinas virtuais, algo que acontece com mais freqüência do que você pode pensar.


O número um elemento que vai afetar sua pontuação em benchmarks sintéticos VDI é a geração de gráficos. Mesmo se todos os elementos de sua implantação é bem equilibrado, se você está confiando em suas CPUs de servidores para fornecer gráficos para suas instâncias VDI, sua pontuação vai ser muito ruim.


Isso não significa que os resultados do mundo real vai ser ruim. Este é o lugar onde a compreensão de seus usuários e sua carga de trabalho vem dentro São seus usuários vai estar fazendo um monte de processamento de texto e planilha de trabalho, sem vídeo, animações, e assim por diante? Se sim, você pode ir longe sem a virtualização de GPU. São seus usuários vai estar fazendo um monte de trabalho com imagens pesadas ou assistindo a vídeos de treinamento?



quarta-feira, 23 de abril de 2014

IBM monta pesadelo paisagem hardware no OpenPower Consórcio jangada


Principais ameaças três aplicativos móveis


IBM vai enfrentar a tempestade ondulando através da indústria do hardware com a doação de uma das suas jóias da coroa a um consórcio de empresas parceiras com a esperança de que pode fazer um pouco de dinheiro fora das vendas seguintes.


Numa conferência de imprensa em San Francisco na quarta-feira Big Blue - juntamente com parceiros da Google, Nvidia, Mellanox, Tyan, e outros - descrito como ele esperava dar vida nova ao seu venerado arquitetura POWER de chip, e ao fazê-lo sacudir o ' centros de dados hiperescala 'operado por gigantes da web de consumo, como o Google, Amazon e Microsoft.







"Estamos prontos para começar a inovar", explicou o presidente OpenPower e chefe do grupo de engenharia de plataforma da Google, Gordon Mackean. "Este vai ser um sistema de baixo custo É algo que estamos muito orgulhosos e estamos construindo fora -.. Temos firmware, um Linux OS, hypervisor, e ferramentas de desenvolvimento em lugar Nós também temos um pipeline de inovação. "


A mensagem do evento foi que OpenPower é real, tem o interesse de 26 membros (Universidade Rice anunciou que havia se juntado na quarta-feira), e pode oferecer às empresas de chips e de nível de sistema características que eles não podem obter a partir de Intel (mesmo por meio de sua semi- secreto negócio personalização de chips ).


Para fazer o que o IBM exibiu um "whitebox" (leia-se barato) desenvolvimento placa de potência e design de referência da Tyan, juntamente com o firmware e tecnologia do sistema operacional da IBM, Google e Canonical.


Google, Mackean explicou, vê OpenPower "como a oportunidade para lançar a terceira geração da computação armazém escala." A Fábrica de Chocolate acredita que, junto com os outros membros do Consórcio, ele pode corrigir gargalos na rede, subsistemas de memória, subsistemas de entrada-ouput e outros aceleradores.


Por sua parte, o Google anunciou que está desenvolvendo e endurecendo as ferramentas base de código e de desenvolvimento da tecnologia.


Além disso, a Nvidia tem implementado aceleração CUDA no poder, que ele diz que estará disponível no final do ano e planeja fazer sua interconexão GPU de alta velocidade, 'NVLink', disponível para parceiros OpenPower.


A IBM também disse em um comunicado que a Xilinx e Altera estão projetando aceleradores FPGA que serão anexados a desenhos OpenPower, e trabalhar a partir Micron, a Samsung Electronics ea memória SK Hynix estão desenvolvendo tecnologias para a tecnologia.


IBM como o ARM de servidores?


O Consórcio OpenPower foi formado pela IBM há um ano no momento em que ele e outros titulares de TI estavam vendo suas divisões de hardware cortada por um mergulho nos gastos de grandes clientes, eo aumento do uso de mega-compradores de fabricantes de dispositivos originais asiáticos para design personalizado servidores de baixo custo.


Junto com isso, a arquitetura da Intel x86 continuaram a dominar o mercado em ambos os servidores típicos e também computação de alto desempenho, colocando os prestadores de arquitetura alternativas, como Oracle, IBM e, em menor medida, da HP, em uma posição difícil.


Então, como então para manter seus chips ENERGIA vivo e garantir-lhes um grande mercado em um mundo em mudança? A resposta da IBM para este dilema foi OpenPower, que pretende fazer por sua arquitetura de chips que modelo de licenciamento da empresa britânica ARM fizeram para seus chips de mesmo nome, levando-os a se tornar a tecnologia fundamental para a grande maioria dos aparelhos do mundo e tablets.


IBM está buscando com OpenPower fazer para servidores 'hiperescala' o ARM fez a telefones, e ao fazê-lo criar a si mesmo um enorme fluxo de receita baixa margem de lucro que ele pode confiar em anos vindouros. Embora ninguém disse que, hoje, um efeito colateral útil é que isso pode reduzir grande negócio da Intel em centros de dados enormes.


Esperança da Big Blue, indicou nesta quarta-feira, é que, ao licenciar as entranhas de seus chips "poder" de empresas como Google, Canonical, Nvidia, Tyan, Suzhou PowerCore Tecnologia, pode ser capaz de criar novos mercados para o chip para além da IBM tradicional mainframes e sistemas high-end.


OpenPower Consórcio é, de muitas formas, onde a abordagem de desenvolvimento de guerrilha de código aberto se encontra com o caro e complexo mundo do hardware chip. IBM e seus parceiros estão apostando que a arquitetura é bom o suficiente para satisfazer as suas expectativas.


Dando o modo entusiástico que flutuava através da conferência de imprensa, era natural que a Intel chama a atenção para algumas das possíveis desvantagens da tecnologia.


"A Fundação OpenPower pode esperar para criar algum dia um" open "solução mas enfrenta um esforço complexo multi-ano para estabelecer um ecossistema em torno do projeto, fabricação e software", disse um porta-voz da Intel disse El Reg via e-mail.


"A maioria dos centros de dados ao redor do mundo de hoje rodar em Intel e não estamos a abrandar - empresas reconhecem o valor e não é um ecossistema x86 grande e crescente (criado ao longo de muitos anos) que não vai desaparecer Criando um ecossistema não é uma. façanha fácil e pode levar vários anos e um investimento significativo de tempo e dinheiro em portar arquiteturas ".


ARM Intel-rival, por comparação, era muito mais otimista sobre todo o assunto.


"Em todo o mercado de servidores, mesmo dentro de servidores não-volume, os usuários estão prontos para ir além do tamanho único abordagem para servidores e OpenPower é mais uma validação desta, bem como o modelo de negócio ARM", disse um porta-voz da ARM nos disse por e-mail .


"Os clientes estão exigindo Servidor escolha e diferenciação que é por ARM e seus parceiros já estão bem encaminhadas com o nosso trabalho para mover o mercado de servidores de volume além das limitações associadas a uma arquitetura proprietária."


Com 26 parceiros da OpenPower que vão desde fabricantes de equipamentos para endinheirados clientes potenciais, como o Google, o sistema tem uma chance de trabalhar. Talvez ARM tem um novo companheiro em seu plano para içar chips da Intel fora dos maiores centros de dados? ®



terça-feira, 22 de abril de 2014

Violino, Microsoft escorregar do Windows, SQL Server, apps, flash em caixa


SANS - Pesquisa sobre programas de segurança de aplicativos


Violin Memory transformou sua variedade de flash 6000-série em um motor de armazenamento do servidor de convergência para o SQL Server, que é capaz de colocar os dados diretamente na memória de um servidor de aplicativo - graças a uma pequena ajuda da Microsoft.


O 6000-series gama tudo-flash corre Windows Storage Server 2012 R2 em dois servidores blade integrais. Ele também executa o SQL Server 2014, no modo in-memory, com dados de banco de dados armazenados em sua abóbada flash.







Dois desses 6.000 nós podem ser agrupados através 10GbitE, escala até quatro nós. Isso fornece até 256TB de capacidade de flash de alta disponibilidade, suportando um número de servidores de aplicativos que precisam acessar o SQL Server.


Ele usa RDMA e SMB direto para carregar dados provenientes-SQL diretamente na memória dos servidores de aplicação, o corte de end-to-end tempo de acesso de dados.


Recuando, temos aqui um conjunto de flash rede que acessa dados mais rápido do que uma matriz de disco em rede. Em vez de servidores de aplicativos que se conectam a um servidor de banco de dados SQL que se conecta a uma matriz de rede, ou seja, dois saltos de rede e latência, o software SQL é executado dentro do array, cortar um salto de rede e latência cerca de redução para metade.


WFA esquemático

Componentes WFA



O software SQL é executado na memória, tornando-se mais rápido do que antes, e cargas solicitou dados diretamente na memória do servidor de aplicativo em vez de usar o link de rede padrão, adaptador e IO pilha para obter dados lá. A latência da rede é a mesma, mas a latência de acesso de dados end-to-end é cortada.


A matriz do violino do Windows flash (WFA) é o único all-flash de matriz para fazer isso, de acordo com o violino, ea empresa vem trabalhando com a Microsoft por doze meses para fornecer o código personalizado para amarrar seu hardware e software juntos. Este, chefe de marketing do violino Eric Herzog diz, lhes dá uma vantagem sobre outras matrizes all-flash usado como armazenamento de dados SQL Server 2014; acho EMC XtremIO, Pure armazenamento e assim por diante.


Achamos que ele também dá uma vantagem sobre Violino implementações de cartões de memória do servidor de SQL 2014, como o da Fusion-io , uma vez que dimensiona até 256TB e oferece alta disponibilidade e resiliência com failover entre servidores blade e os nós do cluster.


Neste particular, o SQL Server 2014 caso de uso, Violino está competindo com outros fornecedores de armazenamento de servidor convergentes, tais como sistemas da IBM puros, VCE, NetApp e FlexPod da Cisco, e startups Nutanix e Simplivity .


A WFA também pode ser usado como uma série de desktop virtual do Windows executando o Hyper-V, e Violino vai vendê-lo para este caso de uso e ainda vender o conjunto Violin Atlantis VDI configurar , apoiando VMware, com o software Atlantis sendo executado em um servidor conectado.


Não temos dados sobre preço e disponibilidade ainda, mas será atualizado quando o fazemos. ®



Tempo Webcast: Aprenda os conceitos básicos do Microsoft Azure cloud


SANS - Pesquisa sobre programas de segurança de aplicativos


Promo é o Microsoft Azure na sua lista de coisas para investigar? Então junte-se Steve 'planky' Tábua, um evangelista técnico sênior da Microsoft, em 23 de abril de 0930 BST. Planky está executando um Azure 101 webcast, no qual ele irá guiá-lo através dos passos básicos de configuração do Windows Azure Virtual Machines.


Durante o webcast, você vai aprender como implantar serviços de infraestrutura essenciais, tais como servidores de arquivos, servidores web, controladores de domínio e aplicações de mensagens e LOB, a Microsoft Azure. Usando uma Rede Virtual Windows Azure como o recipiente para seus recursos de nuvem, você pode conectar esta de volta à sua rede doméstica e tratar os recursos de nuvem, como se fossem parte de sua rede corporativa.







Planky irá mostrar-lhe como definir essas coisas, como migrar e como estimar os custos.


Você pode se inscrever para o evento usando esta página de inscrição .


O registo é um parceiro de mídia da Microsoft. ®



Microsoft gastar US $ 1,1 bilhão para construir centro de dados Iowa


SANS - Pesquisa sobre programas de segurança de aplicativos


Microsoft tem sido dado o sinal verde para construir um US $ 1,1 bilhão data center nos arredores da capital do Iowa, Des Moines - no sudeste da West Des Moines, para ser exato - que quando tomados em conjunto com o seu centro de dados existente não irá aumentar o investimento da empresa na área para um cabelo abaixo de US $ 2 bilhões.


Redmond disputou uma multa bando de incentivos para o centro: na sexta-feira a Iowa Autoridade de Desenvolvimento Econômico ( IEDA ) aprovou um $ 20.3m imposto sobre vendas desconto sobre materiais de construção para o projeto, disponível até 2021, uma soma que é, além de US $ 18 milhões em melhorias de infra-estrutura já prometida pelo West Des Moines.







Microsoft não está ficando impune, no entanto. No retorno para essas melhorias, Nadella & Co. concordaram com um valor mínimo tributável avaliado de 255,000 mil dólares uma vez que o projeto seja concluído - uma quantia que o Des Moines Register relata trará a cidade de West Des Moines um imposto bump-up anual de cerca de US $ 8 milhões.


"Esta é uma quantidade impressionante de dólares de impostos de propriedade," o prefeito da cidade disse ao Register. [Esse é o Des Moines Register, a propósito, não El Reg-Ed.]


O estado também vai exigir da Microsoft para criar 84 postos de trabalho permanentes quando o projeto estiver concluído, e que 66 deles devem pagar pelo menos $ 24,32 por hora.


The Register também relata que o data center será construído em um site 154 hectares, com a facilidade compreendendo 1.160.000 metros quadrados - que é um pouco mais de 15 campos de futebol adequadas na área, ou um pouquinho mais de 20 campos de futebol americano - parcialmente construído em terreno agora ocupado por nove buracos de Des Moines 'de 36 buracos Willow Creek Golf Course .


Aerial view and map of site for new $1.1bn Microsoft data center near Des Moines, Iowa

Não se preocupe, os jogadores Hawkeye, essas perderam nove buracos serão realocados (fonte: The Des Moines Register)



O projeto do centro de dados foi trilhando seu caminho entre os tomadores de decisões apropriadas, mas sob o nome de código de "Projeto Alluvion" - não foi até a reunião de sexta-feira passada que a Microsoft foi revelado para ser a empresa responsável pelo desenvolvimento.


Projeto Alluvion estava originalmente programado para ter sido na agenda do IEDA mês passado, mas foi empurrado para a frente para o encontro de sexta-feira passada, no último minuto. De acordo com o Register, o atraso foi causado por Willow Creek precisando de mais tempo para garantir que ele poderia adquirir terras o suficiente para substituir os seus fairways ausentes, verdes, bunkers, e assim por diante. ®



quinta-feira, 17 de abril de 2014

AMD de 64 bits ARM chips para servidores 'Seattle' agora amostragem, definida para o lançamento no final de 2014


3 grandes técnicas de análise de segurança de dados


64 bits chips para servidores baseados em ARM da AMD, codinome "Seattle", chegará ao mercado no final deste ano - mas não espere vê-los embrulhado em qualquer SeaMicro tecido de computação Sistemas no lançamento.


"Alcançamos um marco significativo na nossa estratégia ambidestro", disse o CEO da AMD, Rory Read, usando o termo da empresa para seu x86 de dois punhos e ARM servidor-chip duplo golpe durante uma teleconferência após anunciar os resultados financeiros da AMD para o primeiro trimestre de 2014 na quinta-feira.







"Nós introduzimos Seattle, nosso primeiro processador de servidor ARM de 64 bits e da indústria da primeira para a tecnologia de 28nm, o posicionamento AMD como o único provedor de SoC para transpor os x86 e ARM ecossistemas para aplicativos de servidor", disse ele. "Estamos entusiasmados em anunciar que nós começamos a amostragem Seattle último trimestre e planeja enviar no quarto trimestre de 2014."


"Tem havido uma grande quantidade de interesse do cliente em torno de Seattle", disse o vice-presidente sênior da AMD e GM de unidades de negócios globais Lisa Su, também na chamada ", certamente para os caras do servidor, os caras hiperescala, e mesmo alguns mercados adjacentes".


As duas coisas mais importantes que a AMD está trabalhando na preparação para o lançamento de Seattle, Su disse, são o desenvolvimento da plataforma e desenvolvimento de software - mas a AMD está fazendo nenhuma promessa sobre quanto Seattle vai trazer a linha de fundo da empresa.


"Em relação à receita, é provavelmente muito cedo para dizer o que vai acontecer em 2015, mas eu diria que o interesse na plataforma é bastante alto", disse ela.


Do ponto de vista da leitura, o tempo da AMD está no local. "Estamos pegando-o apenas como a onda está se formando", disse ele. "Este vai ser um mercado importante para os próximos três, cinco, de 10 anos."


Su disse também que apesar de ser no plano de negócios da AMD ter Seattle aparecem em seus sistemas SeaMicro, não espere para ver isso acontecer quando Seattle estreia no final deste ano. Tais sistemas estão em desenvolvimento, disse ela, mas também enfatizou que "a declaração Q4 foi uma declaração chip."


O tecido SeaMicro certamente dá AMD uma perna-up sobre os outros jogadores ARM de 64 bits, mas do ponto de vista do Su essa não é a única atração do projeto Seattle. "Há interesse geral no ARM, não há interesse em experimentar as novas cargas de trabalho", disse ela.


"Eu acho que nós vemos o tecido como um diferencial importante, mas vemos isso como um diferencial a longo prazo na parte de sistemas da empresa." ®



Dentro do Hekaton: SQL Server 2014 do mecanismo de banco de dados desconstruída


Acesso de alto desempenho para armazenamento de arquivos


É 1996 e Mission: Impossible acaba de chegar às telas de cinema. RAM é de R $ 10 por megabyte e caindo. Perante este cenário, a Microsoft começou discretamente sua própria missão aparentemente impossível, uma completa re-escrita de um pequeno banco de dados conhecido que será lançado dois anos para o futuro, e será conhecido como SQL Server 7.


Novo banco de dados de Redmond vai competir com os reis arraigados do mundo do banco de dados, Oracle e DB2.







Fast-forward para 2014.


MI: 4 veio e se foi. RAM custa US $ 10 por gigabyte. E agora temos a mais recente encarnação de um dos bancos de dados best-sellers da indústria:. SQL Server 2014 executivo recém-formado da Microsoft Satya Nadella preside o lançamento em um excessivamente orquestrada evento corporativo em San Francisco, Califórnia, destinado a demonstrar a sua empresa é todo "big data".


SQL Server é consistentemente um dos produtores mais fortes no portfólio de produtos da Microsoft, ou seja, parcela da receita da Microsoft no mercado de RDBMS tem crescido em quase duas décadas. Os números exatos variam de acordo com o analista de comprar em, mas o que não está em disputa é o fato de que a Microsoft tem garras para fora uma posição de terceiro lugar, atrás da IBM e Oracle (número um), que foram acontecendo neste por mais tempo.


Sem dúvida, a única coisa que impediu SQL Server de fazer melhor é o fato de ele só está disponível para Windows.


A quota de mercado de lado, talvez as duas mudanças mais significativas nesses 18 anos foram na frente tecnológica - o aumento do poder de processamento do servidor e do preço da RAM, este último a diminuição do custo de mil vezes. Isto é significativo, uma vez que são estes dois fatores, que são os principais motores do SQL Server 2014 do tema-chave de desempenho.


A memória é o novo disco


Ao conceber esta versão, re-avaliou Microsoft as razões dados são armazenados no disco, em vez de na memória. Isso se reflete nos três principais características deste lançamento. Pressupostos válido quando o SQL Server 7 foi escrito já não são verdadeiras, ou seja: a memória principal era caro e limitado, e os sistemas de CPUs e operacionais tinha apenas espaços de endereçamento de 32 bits.


A memória principal é agora enorme, denso, e mais importante, muito barato. Memória flash tem durável e quase certamente irá continuar a seguir a mesma curva. Enquanto 32-bit do Windows lidou com no máximo 3 GB de memória utilizável, CPUs são agora de 64 bits e Windows Server 2012 pode endereçar 4 TB de RAM. Tamanhos de memória estão crescendo a uma taxa tão rápida, estima-se que mais de 95 por cento de processamento de transações on-line baseado em disco (OLTP) as bases de dados são pequenos o suficiente para ser armazenado na memória.


Por outro lado, há problemas com disco. Latência de recuperação de dados é ordens de magnitude mais lento do que a memória. Estamos falando de milésimos de segundo em relação a nanossegundos, uma diferença de mil vezes.


Além disso, como os processadores tenham atingido os limites de velocidade comercialmente viáveis, para aumentar os seus fabricantes de taxa de transferência computacional da CPU têm pipeline e escalado os seus processadores. Em 1996, os sistemas de CPU de núcleo duplo eram uma novidade rara e extremamente caro. Em 2014, encontrando 16, 24 ou 32 núcleos dentro de um servidor de banco de dados é um dado.


Estes gigantes paralelas consumir dados a um ritmo vertiginoso, gastando grande parte do seu tempo de espera no subsistema de disco para fornecê-lo, ao passo que os mecanismos orientados para o disco ter evoluído dentro do motor de banco de dados para garantir a atualização dos dados se comportar da maneira consistente esperamos que, a fim para manter a conformidade ACID.


É hora de repensar porque os dados são armazenados em lento, o disco não confiável, para outra coisa senão fins de recuperação e arquivamento.


Reiniciar


No SQL Server 2014, Microsoft começou novamente. O motor de banco de dados Hekaton - uma adição ao invés de um substituto para o motor de banco de dados SQL Server núcleo - agora tem a capacidade de armazenar tabelas na memória. Em contraste com a TimesTen da Oracle e da IBM soliddb, motor de banco de dados na memória do SQL Server está totalmente integrado ao produto principal, e sem nenhum custo adicional. Isso faz com que a adoção atraente tanto tecnicamente quanto financeiramente.


Uma mesa em uma migração de tempo é prático, reduzindo o risco sem a necessidade de consultoria caro ou novos conjuntos de habilidades. Todos os tipos de dados comuns são suportadas - apenas o XML com menos frequência utilizada, CLR e max () tipos são excluídos. Esquemas de tabela apenas, ou esquemas e os dados podem ser mantidos em memória, o ex-útil em casos onde dados temporários não tem que ser persistentes, tais como tabelas de teste. Além disso, em contraste com os seus concorrentes, todas as tabelas ou uma tabela de cada vez pode ser migrado.


Compatibilidade total com ACID é assegurada através MVCC otimista (controle de concorrência de multi versão). Linha de versão e time-stamping é usado em vez de bloqueios de página para assegurar o cumprimento ACID, agora uma técnica viável como cada linha é armazenado na memória em vez de disco. Isso resulta na eliminação de bloqueio e bloqueio, e as esperas e os tempos de espera associados a eles, uma grande desgraça da vida de qualquer administrador de banco de dados de produção.


Como resultado, o disco de leitura esperas são completamente eliminados, como todas as leituras são agora realizados a partir da memória. As alterações de esquema tem que estar conectado para o disco, não é grande coisa como eles são comparativamente raros. Se o esquema mais dados tipo de tabela é usado, as alterações de dados também são registradas em disco para fornecer durabilidade para o cumprimento e recuperação ACID.


Neste caso, o ponto de verificação e o registo de escrita ainda tem de ser realizada para manter a durabilidade, mas isso já é aplicada muito mais eficientemente, e num sistema bem configurado raramente apresenta um gargalo.


As feições de Hekaton na memória são suportados por backup tradicional e restauração e opções de alta disponibilidade do SQL Server, AlwaysOn e envio de log. Puzzlingly, a replicação não é suportado, embora nem é espelhamento de banco, o que é compreensível, uma vez que está prestes a ser reprovado.


Uma nova ajuda de migração, o Analysis, Migração e ferramenta de relatório, é incluído como parte do SQL Server Management Studio para ajudar o DBA na conversão de um esquema para tabelas na memória. Com alguns cliques, isso gera um relatório contendo recomendações e as alterações necessárias para a migração bem sucedida.


Embora esta seja uma grande ajuda, um pouco de novo conhecimento precisa ser adquirido pelo DBA para a transição de dados do disco para tabelas residentes na memória, especialmente no que diz respeito às restrições impostas sobre esquemas de tabela. Desenvolvedores não são susceptíveis de perseverar com eles na versão atual, mas histórico recente da Microsoft com o SQL Server é enviar funcionalidade e confiabilidade em primeiro lugar, em seguida, adicionar ferramentas de gerenciamento GUI front-end baseado mais tarde - a forma como deve ser.


Na versão final de pré-produção, as questões mais notáveis ​​são a falta de suporte para truncar e mesclar as declarações, e um punhado de dicas de consulta não permitidos que podem causar código existente para quebrar. Há outras restrições menores, mas a Microsoft tem de abordar a palavra-chave restrições, como Hekaton provavelmente será adotado pela primeira vez por clientes de data warehouse, onde o uso de ambas as afirmações é provável que seja mais prevalente. O assistente de migração também precisa de algum trabalho em termos de suas recomendações, mas isso vai melhorar, sem dúvida, com o tempo.



quarta-feira, 16 de abril de 2014

Granite se torna aço: Riverbed rebrands sua engrenagem ROBO


Acesso de alto desempenho para armazenamento de arquivos


O granito é uma rocha imutável. O produto ROBO de mesmo nome, no entanto, acaba de ser rebatizada pela Riverbed como SteelFusion, nominalmente amarrando-o em produtos Steelhead WAN Otimizador da Riverbed.


O produto Granite foi lançado na remoção de servidores de escritórios remotos e filiais e substituindo-os por um tubo rápido a um escritório central. Os desktops ROBO conversar com servidores do data center através do tubo em vez de servidores locais e, portanto, a Riverbed diz, torna-se uma operação mais eficiente e protegida.







O tubo tinha um dispositivo de granito Borda no escritório remoto ligando para a Granite núcleo no centro de dados: um aparelho físico ou virtual. O dispositivo Granite Borda poderia funcionar em uma caixa Steelhead EX porque, é claro, a ligação de rede de centro-ROBO foi otimizado para reduzir a vibração IP, etc


Agora temos componentes SteelEdge e SteelCore no conjunto de produtos SteelFusion; efetivamente, granito 3.0. Este conjunto, a Riverbed diz: "centraliza dados no data center e oferece um desempenho local e recuperação quase instantânea no ramo", usando o perito pessoal e as instalações do centro de dados em vez do pessoal do ramo que normalmente seria menos proficientes.


O que há de novo, além do rebranding, é a seguinte:



  • SteelFusion 1360P aparelho para ramo tem seis vezes mais desempenho do que a caixa anterior topo Granite Borda

  • SteelFusion Núcleo 3000 caixa de centro de dados tem capacidade 100TB em vez de 35 TB de caixa Granite anterior

  • Filial Recovery Agent (BRA - realmente) usa um conceito pré-busca preditiva para reduzir o tempo de recuperação

  • A gestão conjunta de controladores de entrega de armazenamento

  • Suporte para modo de cluster NetApp e EMC instantâneos VNX2


O que os usuários de acesso Filial agente de recuperação de pré-caches e arquivos pré-aquece e dados. Se houver uma queda de energia no centro de dados, a Riverbed diz que os usuários da filial pode continuar trabalhando como se não tivesse acontecido.


O principal passo aqui não mudou; ROBO operações de TI podem ter um custo total de propriedade mais baixo, usando SteelFusion em vez de servidores baseados em filiais ligadas ao armazenamento local de rede.


Depois de dois anos de granito foram vendidos 87.000 pontos finais - ou seja, escritórios remotos - estão usando. Há muito mais filiais lá fora e Riverbed quer matar a pedra negócio servidor filial morto. Como ambos os servidores e armazenamento obter mais poderoso e mais fácil de gerir, então tem que correr mais rápido e mais rápido para preservar as suas vantagens de TCO, e isso é tudo o que tem basicamente.


Para os usuários individuais nas filiais não pode obter nada vantajoso do SteelFusion em seu trabalho normal vive em tudo. Se tiverem sorte a sua produtividade não é afetada por aplicações mais lentas-execução e acesso a dados mais lento. Se não forem, então a sua produtividade foi considerada menos importante do que cortar o custo total de propriedade ROBO TI.


Leia a folha de especificações PDF aqui . A disponibilidade do produto é definido para o início de maio. ®



quinta-feira, 10 de abril de 2014

Morte de directiva de retenção de dados: O que significa para outras leis de dados


Acesso de alto desempenho para armazenamento de arquivos


O Tribunal de Justiça da União Europeia (TJUE) na terça-feira declarou a Directiva de Retenção de Dados (DRD) inválido .


Ele disse que a DRD "implica uma interferência ampla e particularmente grave com os direitos fundamentais ao respeito pela vida privada e à protecção de dados pessoais, sem que a interferência se limitar ao estritamente necessário."







O principal objectivo da directiva relativa à conservação de dados (DRD) é garantir que "certos dados estão disponíveis para fins de investigação, detecção e repressão de crimes graves". Mas esse objetivo é, e sempre foi, desde que o respeito aos direitos reconhecidos.


O julgamento do TJUE agora significa que os legisladores estaduais membro precisa pensar mais ainda nestes termos - devem garantir que todas as suas leis definir o equilíbrio entre o respeito pela privacidade e crime prevenção de uma forma que seja compatível com a Carta dos Direitos Fundamentais da UE e, talvez, como importante, a opinião do TJUE sobre como alcançar esse equilíbrio.


A nível da UE, as reformas estão sendo propostas que irá apresentar uma outra lei para apoiar o objectivo subjacente da DRD, muito do que está previsto na proposta da Comissão Europeia de uma directiva relativa à protecção das pessoas no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes .


O Parlamento Europeu aprovou uma versão alterada desta lei que, se introduzidas, coexistir com um novo Regulamento Geral de Protecção de Dados muito mais amplamente divulgado.


Embora muito pouco se tem escrito sobre a proposta de directiva, estabelece muito das mesmas regras em relação ao tratamento e à protecção de dados como o projecto de regulamento faz, só o faz em relação à finalidade específica de autoridades públicas que investigam atividades criminosas, enquanto o regulamento determina os detalhes em relação a empresas públicas e privadas que lidam com dados em geral.


Enquanto a nova legislação potencial não define o alcance do que os dados podem ser recolhidos ou acessível por autoridades públicas, não é omissa sobre o assunto também.


Versão da Comissão fornece alguns detalhes no considerando 19, por exemplo: "Para a prevenção, investigação e repressão de infracções penais, é necessário que as autoridades competentes para reter e processar dados pessoais, recolhidos no âmbito da prevenção, investigação, detecção ou repressão de infracções penais específicas para além desse contexto para desenvolver uma compreensão dos fenómenos e tendências criminosas, para reunir informações sobre as redes de crime organizado, e para fazer ligações entre as diferentes infracções detectadas. "


Embora o Parlamento Europeu não aceitou considerando 19, a sua inclusão pela Comissão destaca que ainda há incerteza quanto ao alcance das obrigações e restrições que poderiam ser impostas pela proposta de directiva.


Ele continua a ser visto que as disposições relativas ao âmbito semelhante pode ser incluído pelo Conselho de Ministros e que a Comissão estará disposta a aceitar. O Parlamento Europeu eo Conselho devem ambos concordar e voto para aprovar formalmente a mesma redacção da Directiva antes de se tornar lei.


A interpretação das leis directiva e dos Estados-Membros ao abrigo do mesmo sobre o que as autoridades públicas podem e não podem fazer com os dados pode ser afetada pela interpretação dada pelo TJUE quanto à legitimidade da Directiva relativa à conservação de dados.


A interpretação também pode ter impacto sobre a legitimidade de outras leis atuais que impõem obrigações de retenção nas organizações. É possível que os poderes de autoridade pública nos termos da legislação dos Estados-Membros terão de ser revistos, como resultado de pontos de vista do TJUE quanto à proporcionalidade da DRD no cumprimento dos seus objetivos.


O TJUE tenha fundamentado de que as leis que exigem que os dados sejam retidos que não incluem limitações quanto ao que as pessoas a que pertencem, o período de tempo e zona geográfica a que os dados que devem ser mantidos se relacionam, e que não têm restrições claras sobre o acesso, são geralmente incompatível com a Carta da UE. Empresas e indivíduos afetados por leis relativas a, por exemplo, as suas finanças ou outros assuntos que não atendam a esses critérios, provavelmente agora têm razão para rever a sua validade.


Há também a questão da interação entre o "direito a ser esquecido» e obrigações apagamento sob as leis de protecção de dados atuais e propostas e retenção de obrigações de dados. O direito de ser esquecido, tal como proposto pela Comissão não seria aplicável no caso de retenção é 'legal'.


Políticas que as empresas colocam em prática a respeito de quando eles devem responder às solicitações do sujeito dos dados em conexão com o direito a ser esquecido (se já deu força de lei) terão de reflectir as leis sobre a retenção de dados.


À luz do acórdão do TJUE, em muitos casos em que uma empresa poderia ter sido a impressão de que ele pode ter sido o direito de recusar um pedido de eliminação, agora pode não ser o direito de fazê-lo.


Geralmente, as empresas devem ser muito claras a respeito de como eles classificam de dados. Limpar protocolos de classificação de dados e ter políticas em vigor com base em distinções claramente entendido, será mais fácil para as empresas a responder às mudanças na lei em relação às obrigações de retenção e acesso aos dados. Ele também irá ajudar as empresas a evitar complicação quando solicitações de dados são feitas por órgãos reguladores e as pessoas em causa.


Lucas Scanlon é um especialista em direito de tecnologia para Pinsent Masons, escritório de advocacia atrás Out-Law.com


Copyright © 2014, Out-Law.com


Out-Law.com faz parte do escritório de advocacia internacional Pinsent Masons.



quarta-feira, 9 de abril de 2014

Falando em tecnologia: Como eu odeio-te, Google?


Acesso de alto desempenho para armazenamento de arquivos


Podcast


speaking_in_tech Greg Knieriemen podcast enterprise

É podcast de notícias de tecnologia de El Reg com os anfitriões Greg Knieriemen, Ed Saipetch e Sarah Vela. Esta semana, toda a tripulação está junto com o convidado especial Aaron Delp de SolidFire.


Esta semana vamos discutir ...



  • Montanha-russa de Eddie (00:55)

  • Cloudcast eo Krispy Kreme Challenge (02:00)

  • Aaron bustos um movimento para SolidFire (6:25)

  • Red Hat - anúncio Cisco parceria ... uma aquisição poderia ser o próximo? (14:00)

  • Nuvem batalha se desloca para a plataforma (22:10)

  • Odiando Google ... e Kevin Rose é um parasita (25:45)

  • Ed resolve San Francisco (35:40)

  • No entanto, outra TV Google (41:55)

  • O jogo conteúdo: Apple deve comprar a Disney (45:25)


Ouça com o jogador Reg abaixo, ou faça o download aqui .


Falando em tecnologia: Episode


Ligações Assinante Podcast


Assinar através do iTunes

Assinar através do Google

Assinar através de Stitcher


Alimente URL para outras ferramentas de podcast - Suco, Zune, et cetera: http://ift.tt/1a7oIH3



Cray flogs de 1 PB de armazenamento saborosa para boffins übercomputing alemães, deixa-os em camadas


Acesso de alto desempenho para armazenamento de arquivos


A Aliança do Norte Supercomputação alemão (HLRN) está comprando mais de 1 PB de armazenamento Cray camadas para armazenar dados de pesquisa científica arquivados.


HLRN (Norddeutscher Verbund für Hoch-und Höchstleistungsrechnen) é um projeto conjunto dos sete estados do norte da Alemanha, Berlim, Brandemburgo, Bremen, Hamburgo, Mecklenburg-Vorpommern, Niedersachsen, e Schleswig-Holstein.







Ela opera um sistema de supercomputador distribuído hospedado no Instituto de Berlim Zuse (ZIB) e no Regionales Rechenzentrum für Niedersachen (RRZN) na Universidade Leibniz de Hannover.


Os dados destinados ao armazenamento Cray TAS (camadas Adaptive Storage) é gerado pelo centro de computação da RRZN da ciência olhando pesquisas ambientais, climáticas e modelagem do oceano, física, química, bioinformática, engenharia e dinâmica de fluidos.


A instalação do TAS consiste em mais de um petabyte de armazenamento de dados e pode escalar 75PB passado, o que deve manter os dois administradores de armazenamento RRZN e Cray representantes de vendas muito feliz.


Cray em HLRN

Cray em HLRN



TAS usa software Versity para gerenciar as camadas de arquivo que podem ser baseadas em SSD, disco e mídia de armazenamento em fita. Cray anunciou TAS final do ano passado, dizendo que ele apresentava arquivo virtualização e orientada por políticas de movimentação de dados automatizada através de quatro camadas flexíveis. Estes podem funcionar de armazenamento mais rápido do zero, primário, secundário e armazenamento de arquivos


Cray TAS

Cray TAS diagrama



RRZN vai migrar de um sistema SAM-QFS Oracle para TAS da Cray, que apoiará "a enorme demanda por recursos de supercomputação de todo os estados do norte da Alemanha", de acordo com o PD Dr. Steffen Schulze-Kremer, que dirige o departamento de HPC em RRZN .


O arquivo TAS irá se integrar com sistemas de supercomputação do RRZN e, Cray nos diz, é um esquema de end-to-end de gerenciamento de dados que "inclui todo o software e hardware, e elimina as complexidades associadas ao planejamento, projeto e construção de arquivos em grande escala."


Os motores de políticas existentes para SAM-QFS vai continuar sendo usado. Cray diz RRZN está ficando "um roteiro forte para suas necessidades-hierarquização de dados futuros." Ler um whitepaper TAS aqui (PDF) . ®



Como fabricante de computadores Brit bater S/360 da IBM - e espiões soviéticos


Acesso de alto desempenho para armazenamento de arquivos


A IBM anunciou o Sistema de 360, em 1964, e afirmou que vende sua família de mainframes modernas 12 meses mais tarde. Mas como você vender mais que um problema como IBM?


O S/360 IBM custar US $ 5 bilhões para o desenvolvimento, ultrapassando o seu orçamento estimado em 1962 por mais de US $ 4 bilhões. No entanto, a IBM não pode ter preocupado.







Essa foi a taxa de vendas para a família S/360 que entre 1966 e 1970 a receita anual da IBM quase dobrou para US $ 7 bilhões, recuperando assim os custos do S/360.


Em 1970, a IBM tinha 70 por cento do mercado de mainframe.


A tecnologia uma coisa mas não pode vender si. Qual foi o argumento de negócios e de vendas da IBM usado em clientes a comprar, em vez de ir com a concorrência?


"A IBM teve um argumento simples:" Somos de longe o maior. É uma decisão segura para vir até nós '", diz Ralph Terreno de um dos concorrentes da IBM e que calcula sua empresa possuía máquinas realmente mais poderoso do que o S/360.


"Onde quer que fosse, nós enfrentamos isso e não havia nenhuma maneira que você pode vencê-lo."


Terra vendeu o LEO III e 4, o KDF8 e KDF9. Os LEOs eram descendentes de primeiro Electronic Office Lyons, baseado no Delay Eletrônico Armazenamento Calculadora Automática (EDSAC) de Sir Maurice Wilkes. Ela veio de LEO Computers, uma rotação para fora de J. Lyons & Company.


O KDF9 e KDF9 seguido fusão LEO Informática 'com o Inglês Electric para formar Inglês Elétrica LEO e depois Inglês Elétrica Leo Marconi.


A terra era gerente de exportação para a Europa do Leste e da União Soviética, com sede em Viena, Áustria. Ele tinha 120 funcionários, 30 localização hotéis na União Soviética, com suas famílias, mas foi fora assassinado pela IBM com 250 corpos reuniu em seus escritórios, também em Viena.


De acordo com o Terra, a IBM com o S/360 tornou-se uma espécie de profecia auto-realizável: mais clientes que se inscreveram, o mais persuasivo o argumento básico de se aliar com o maior ficava.


"Se você vai a uma grande organização e dizer 'Eu tenho equipamento de super", mas, em seguida, IBM chega e diz:' nós temos cinco empresas que utilizam equipamentos similares, "é que o argumento que faz com que uma empresa de marketing poderosa como a IBM ainda mais poderoso ", disse à Terra Reg.


IBM foi ajudado pela crescente reputação do S/360.


O S/360 foi um break-through em computadores do dia para um número de razões: a sua velocidade e capacidade de desempenho escala, para executar o mesmo aplicativo em diferentes tamanhos S/360s e custo relativamente baixo - tanto de compra para o cliente e fabricante para a IBM.


Foi tão bom que os soviéticos cobiçado do S/360 e têm a reputação de ter contrabandeado 11 mainframes IBM na URSS via Alemanha Oriental para tentar construir a sua própria.


Este foi o tempo da Guerra Fria, e exportar computadores para países comunistas foi proibido como o Ocidente e os países do bloco soviético na ponta dos pés em torno de uma guerra nuclear.


Os soviéticos conseguiram construir um clone S/360 - o ES EVM -, mas, de acordo com Terra, que nunca poderia obter o software para funcionar adequadamente.


Tanto a IBM e Inglês elétrica foram alvejados pelos comunistas, que tentaram furtos segredos comerciais e de tecnologia, enquanto eles se engajaram com vários ministérios, departamentos, órgãos e instituições comerciais.


Terra avalia que ele realmente fez vender mais que IBM por trás da Cortina de Ferro, e que seu negócio poderia ter sido maior se não fosse para "compra do maior" shtick da IBM. Ele alega ter aterrado "usuários pesados", como o planejamento e os ministérios de estatísticas.


"Eu sempre argumentou que, se retido peças poderíamos trazer as suas economias para baixo e assim, em certo sentido, eles se tornaram dependentes de nós", disse ao Terra Reg.


Assim como ele vender contra a IBM com um produto que estabeleceu o padrão para os computadores modernos?


A resposta: contra-comércio. Ele aproveitou a falta de moeda forte dos Reds 'para pagar por novos computadores por lidar com eles de forma criativa.


Isso significava que os investimentos e uma espécie de troca. Terra criou um departamento de contra-comércio especificamente encarregado de negócios em execução. "Minha atitude era: se vamos fazer contra o comércio, vamos fazê-lo corretamente", disse ele.


Inglês Elétrica financiou um filme checoslovaco, aceitou rolamentos de esferas da Roménia e levou cestas de suspensão da Bulgária como pagamento por máquinas, que a empresa rapidamente vendidos.


Terra também propôs cooperação técnica. Este valor correspondeu a montagem limitada, dentro dos limites das normas ocidentais de exportação.


As camisas de pelúcia da IBM foram mais relutantes em sujar as mangas azuis engomadas com tais ofertas.


"Nossas táticas eram sempre que possível para tentar entender as suas exigências de sistemas, para que possamos configurar o equipamento que atendesse suas necessidades e sempre que possível para ajudá-los a projetar os sistemas", disse Land.


"Comercialmente, precisamos entender que eles precisavam de nós para ajudá-los a obter a permissão para importar os computadores através do financiamento em moeda estrangeira para fazer a compra e por isso concordou em envolver-se em balcão de comércio."


"Nós os ajudamos fazer o comércio balcão de uma forma agressiva e disposta em vez de má vontade", disse Land. "Eles queriam que a cooperação tecnológica, por isso oferecemos um programa que deixá-los montar nossas máquinas, mas sob rigoroso controle."


Poderia ter acabado de trabalhar?


Nós nunca saberemos. Inglês Electric foi forçada a um casamento pelo governo britânico da época, que levou à criação do ICL, como idealizado pelo então ministro do governo Tony Benn . Todos ICL conseguiu reunir foi a quarta maior empresa de tecnologia na Europa, enquanto a IBM springboarded fora do S/360 para se tornar uma das maiores empresas de tecnologia e marcas do mundo. ®



terça-feira, 8 de abril de 2014

Centro de dados Azure Austrália passando por testes finais


Acesso de alto desempenho para armazenamento de arquivos


Um dos dois centros de dados da Microsoft Austrália usará para abrigar antipodean Azure está em fase de testes finais, o Reg entende.


Uma recente visita a um centro de dados no subúrbio de Sydney North Ryde onde Azure irá operar contou Reg. certas áreas da instalação estão fora dos limites, porque a Microsoft não quer que pessoas não autorizadas recebendo um olhar para o seu kit.







Uma pessoa familiarizada com o assunto disse ao The Reg que a instalação de plataformas de servidor de contentores da Microsoft foi concluída e que vários meses de testes estão em andamento antes que o serviço será levado ao vivo.


O Reg também entende que relatório do Australian nomear NextDC como sócio hospedagem local da Microsoft é preciso, pelo menos, nas instalações Sydney.


O teste do bit celeiro Sydney é, entendemos, bem avançada, mas deverá continuar por pelo menos várias semanas. ®



O dom da Graça: odisséia de COBOL do Vietnã para a Square Mile


Acesso de alto desempenho para armazenamento de arquivos


Cobol é a língua mais associadas a mainframes, especialmente o Sistema IBM 360, cujo 50 º aniversário se celebra ou pelo menos comemorou esta semana. Mas quando COBOL foi gerado pela primeira vez em meados dos anos 1950, não foi destinado para programadores.


Objetivou-se, em vez de "contadores e gerentes de negócios" - basicamente, uma Idade da Pedra do Excel que se transformou em algo completamente diferente. Na verdade a IBM passou combate esforço sério contra COBOL se tornar um padrão, por razões boas e más.







As ironias são profundas aqui: Grace Hopper está na parede de cada escola como um "modelo" para as mulheres na programação, apesar de ser uma força motriz no que é amplamente considerado como o pior erro na história da computação. Isto é devido à sua falta de quase todos os recursos que as linguagens de programação boas têm, além de ser absurdamente detalhado, como em:


ADD First, Second GIVING Sum COBOL


Ele também foi fundamental para os EUA o trabalho das forças armadas no Vietnã, o que também não é universalmente considerada como um sucesso. IBM 1950 (ou 1990 da IBM para que o assunto) não gostava de qualquer padrão não controlar e usar para alavancar suas garras vicelike em todo o mercado de TI, que foi centrada em mainframes.


Mas uma vez que o movimento Codasyl começou a rolar, a IBM tem a bordo com entusiasmo, ea ironia virou círculo completo: com a IBM agora a ser um grande jogador no open source.


A partir dos anos 50 até os anos 80, as empresas de informática fez a maior parte de seu dinheiro com hardware e software desenvolvidos como Cobol, CICS, DB2, VMS como formas de tornar o hardware útil e, portanto, criando mais demanda por mais potência. Fê-lo na medida em que grande parte da justificação comercial para o IBM PC era que cada terminal "inteligente" aumento da carga sobre o "host" (IBM-ese para mainframe) em cerca de metade de um MIP em termos de hardware rentáveis. Hoje, as duas restantes equipas de compilador COBOL realmente usar muito as mesmas técnicas para otimizar Cobol como para C + +.


Os programadores reais , é claro, usado Assembler e Fortran, porque os compiladores foram lamentavelmente ineficiente, apesar de conjuntos de instruções eram mais simples. Processadores não exigem que você instruções reordenar para melhor desempenho e RISC não foi sequer sci-fi ainda.


Se você pode se lembrar COBOL nos anos 60, você provavelmente estava lá, uma vez que rapidamente tornou-se a linguagem de escolha para o processamento de dados on-line para a manipulação de pagamentos, controle de estoque e sistemas de defesa aérea em tempo real. Não, eu não estou inventando isso. Temos medo dos russos tanto com a nossa sofisticada defesa baseado em COBOL que nunca ousou ataque e ele pode ou não pode ser coincidência que o presidente Putin começou a jogar seu peso em torno da mesma forma que se aposentou eles. Eles mantiveram por décadas, porque, apesar do escárnio dos miúdos frescos (como eu) que empurrou C & C + + eo fanbois Quiche Comer Pascal / Java, o material de mainframe Cobol focado em ser sólido em vez de interessante rock; pergunte-se se você quer um sistema de controle de tráfego aéreo mais seguro ou um que é mais emocionante?


Remuneração e status reflete os diferentes níveis de complexidade, com programadores Assembler que ganham mais de COBOLers e de mainframe pessoas que ganham mais de minis. Isso é, em média, é claro, mas na maior parte do período 1955-1995, a maior da máquina em que você trabalhou, mais você tem pago, Mainframe> Mini> PC. Mesmo quando a maioria de nós se mudou para cliente / servidor, durante os anos 80 e 90, execução de sistemas de banco de dados grandes foi um dos melhores shows da cidade ... se você pudesse resistir ao tédio.


O S/360 tinha feito a programação menos de uma ciência experimental e algo que, pelo menos, chamava-se uma forma de engenharia (algo que ainda não se realizou totalmente). Isso aconteceu porque o S/360 foi projetado, em vez de "nós precisamos de uma coisa para fazer isso, então vamos colocá-lo nessa parte", e deu origem ao livro mais importante já escrito sobre Engenharia de Software, The Mythical Man-Month , um livro de ensaios que é tão bom que não só têm quatro dos meus exemplares foram roubados por programadores menores, mas eu passei o meu próprio dinheiro comprando substituições.



Um computador portátil: circa 1977



Cobol não tive nenhum problema abraçar e esmagando os sonhos dos anos 70 e os fabricantes de minicomputadores como PDP-11-maker dezembro, o primeiro-Computador, DG, IBM e mesmo Wang Lab. Cada um destes jogadores tiveram um Cobol própria, cada um diferente o suficiente para torná-lo fácil de escrever, mas difícil de código de porta. Isto criou um lock-in que enriqueceu os fabricantes, mas no longo prazo o único que restou em pé no mesmo setor é a IBM.


Isso criou um nicho importante que a Micro Focus fez realmente muito bem fora de, fornecendo um caminho para plataformas viáveis ​​de hardware e do sistema operacional para muitas empresas. Então por que não lançá-lo para longe e se mudar para uma linguagem mais jovem do que as pessoas que escrevem isso? Você acha que porque como ITPro maior parte de seu trabalho está em mudar as coisas, mas aqueles sob a ilusão de que a empresa existe para fazer dinheiro são mais do que feliz em deixar muito sozinho.


Cobol Desenvolvedores fez muito bem para fora da grande expansão dos serviços financeiros na década de 1980. Apesar de PCs foram aparecendo na mesa de trabalho, eles não tinham músculos, as aplicações e confiabilidade adequadas, de modo VAXes tornou-se tão quente que um super-animado Headhunter decidiu que, porque os meus companheiros e eu fiz VAX C, esta foi a mesma coisa e se referiu a mim como uma "merda quente ace Cobol" e de alguma forma persuadiu Chase Manhattan Bank para nos voar para Nova York, vista incognoscível. As taxas oferecidas foram tão bons que por um bom minuto de duração eu estava tentado a passar o vôo com os manuais sobre os meus joelhos, mas um surto raro de honestidade e de ser parte do "Cobol vai morrer em breve" consenso me mantido fora de perigo .



Open-sourcer Nexenta dispara OS armazenamento V4


Acesso de alto desempenho para armazenamento de arquivos


Fornecedor de software de armazenamento Open source Nexenta tem acelerado o seu OS NexentaStor para a versão 4.0, tornando-o mais digno de empresa, oferecendo maior escalabilidade, desempenho e confiabilidade. Mas este não é o arquivo de Borda unificado, bloco e produto de armazenamento objeto discutido em janeiro.


O fornecedor de armazenamento definido por software claramente quer atrair mais usuários corporativos NexentaStor. Ele adicionou:



  • Escala para petabyte capacidades do sistema

  • Seamless manuseio de dispositivos de forma intermitente com defeito

  • Assistentes guiadas para instalação e configuração do sistema

  • Mais de 50 por cento de redução nos tempos de failover HA

  • 4X desempenho mais rápido

  • 512GB cache de leitura dinâmica por cabeça

  • 2.1 suporte SMB nativo, além de NFS, iSCSI e FC

  • Replicação assíncrona periódica Reestruturado

  • Integração Illumos do kernel

  • Deeper integrações VMware, Windows e OpenStack


Este não é o software radicalmente estendido que o CEO entrante Tarkan Maner discutido conosco em janeiro. Isso envolve um novo produto, Nexenta Edge, e da "Lista 2 de armazenamento de dados não estruturados utilizando uma pilha de software que inclui o armazenamento de objetos e um meio de bloco de unificação, arquivo e acesso a objetos por trás de um sistema de acesso automatizado e camada de gerenciamento."


NexentaStor e Edge serão combinadas em um produto de fusão.







NexentaStor estará disponível em duas edições:



  • Community Edition - livre, full-featured, suportado pela comunidade de software para configurações de até 18TB

  • Enterprise Edition - licenciada pelo tamanho do pool de armazenamento


Estamos informados de NexentaStor 4.0 é Citrix e VMware-pronto e certificado para rodar em uma variedade de configurações de hardware de referência de tecnologia e de canais parceiros estratégicos.


O El Reg secretária de armazenamento vê acima é um reforço da NexentaStor de modo que ela pode proporcionar um complemento fundamental para o produto de ponta que vem. Essa é a nossa forma de ver isso. ®



Tribunal de Justiça Europeu rasga Directiva de Retenção de Dados


Acesso de alto desempenho para armazenamento de arquivos


A directiva da União Europeia que exigiu ISPs para manter os dados por dois anos foi considerado "inválido", o mais alto tribunal de Bruxelas decidiu hoje.


A medida "implica uma interferência ampla e particularmente grave com os direitos fundamentais ao respeito pela vida privada e à protecção de dados pessoais, sem que a interferência se limitar ao estritamente necessário", disse (PDF) , o Tribunal de Justiça das Comunidades Europeias .







Ele acrescentou que o fato de que a informação poderia ser realizada e, posteriormente, utilizados sem o assinante ou o utilizador registado estar ciente de tais ações "vigilância constante" de espiões e policiais poderia intrometer na vida privada de um indivíduo.


No ano passado, Tribunal de Justiça advogado-geral Pedro Cruz Villalón disse que a diretiva de sete anos de idade UE exigindo telecomunicações roupas para reter detalhes de telefonemas e e-mails - como tráfego e localização - entraram em confronto com os direitos de privacidade do bloco de 28 membros para cidadãos.


Ele opinou no momento em que a Directiva de Retenção de Dados 2006 ", constitui uma grave interferência com o direito fundamental dos cidadãos à privacidade".


O Tribunal de Justiça concordou hoje com a apreciação da medida da UE. Ele disse:



[T] ele retenção de dados para fins de sua possível transmissão às autoridades nacionais competentes genuinamente satisfaz um objectivo de interesse geral, ou seja, a luta contra a criminalidade grave e, em última instância, a segurança pública.


No entanto, o Tribunal é de opinião que, ao adoptar a Directiva relativa à conservação de dados, o legislador comunitário ultrapassou os limites impostos pela observância do princípio da proporcionalidade.



Damningly, o tribunal acrescentou que a directiva não ofereceu garantias suficientes "contra o risco de abuso e contra qualquer acesso ilegal a utilização dos dados".


O pior de tudo para os funcionários de Bruxelas nervosos sobre a informação descuidada derramar para fora da UE para as mãos de os EUA na sequência do estado de mestrado blabbermouth Edward Snowden espionagem revelações, a directiva foi encontrado pelo tribunal não exigir que os dados sejam mantidos dentro da bloco de 28 nações.


"A directiva não assegura totalmente o controle da conformidade com os requisitos de proteção e segurança por uma autoridade independente, como é, no entanto, explicitamente exigido pela Carta", concluiu. "Tal controle, realizada com base na legislação da UE, é um componente essencial da protecção das pessoas no que diz respeito ao tratamento de dados pessoais". ®