quinta-feira, 28 de julho de 2011

Dê adeus aos megahertz!

SÃO FRANCISCO, ESTADOS UNIDOS - Setembro foi mês de IDF (Intel Developer Forum), um dos eventos mais importantes da indústria de PCs. Nele, a Intel e seus parceiros mostram as tecnologias que estão desenvolvendo. É, portanto, uma oportunidade única de ver o que há de novo em termos de pesquisa e desenvolvimento de hardware, bem antes que os produtos que usarão as tecnologias apresentadas cheguem ao mercado.
Esta edição de outono do IDF foi realizada entre os dias 7 e 9, em São Francisco, Califórnia. Aberta por Pat Gelsinger, vice-presidente sênior e executivo-chefe de tecnologia (CTO) da empresa, marca o início de uma nova era: a da plataforma. Conceito que a Intel deve apresentar também no Brasil, já que está confirmada a entrada do País no circuito oficial do IDF.
Não há mais dúvidas: o o futuro é Dual/Multi Core
Mais uma vez, Paul Otellini, presidente e executivo-chefe de operações (COO) da Intel, foi o arauto das tendências. Subiu ao palco para falar sobre a visão da companhia para os próximos anos e o que podemos esperar para os próximos seis meses. Rápido e rasteiro, anunciou o fim da era dos megahertz. A partir de agora, o desempenho das máquinas deixará de ser medida pela velocidade dos processadores, isolados. Passará a valer a combinação de vários deles em uma plataforma, através das tecnologias Dual-Core e HyperThreading.
Os processadores dois-em-um, com mais de um núcleo, começarão a ser realidade já este ano, com o lançamento do Montecito, nome-código do processador Itanium dual-core. Ter mais de um núcleo significa que o processador, na realidade, tem dois ou mais processadores dentro dele, podendo realizar tarefas em paralelo, da mesma forma que ocorre atualmente com computadores que possuem mais de um processador na placa-mãe. Há várias vantagens em se colocar mais de um processador diretamente dentro do próprio processador, como a velocidade de comunicação entre os núcleos (em um sistema multiprocessado tradicional os processadores comunicam-se através da placa-mãe, que não proporciona a maior velocidade de comunicação possível entre eles) e menor custo.
A Intel apresentou um protótipo de servidor com quatro processadores de núcleo duplo. O Windows reconheceu a presença de 16 processadores – cada processador tinha dois núcleos, e cada núcleo usava a tecnologia HyperThreading, que faz o sistema reconhecer cada núcleo como sendo dois processadores, daí o Windows reconhecer cada processador de núcleo duplo como sendo quatro processadores.
Mas a Intel também aposta no crescimento de outra tecnologia para um futuro bem próximo: a WiMax (IEEE 802.16), das redes metropolitanas sem fio (ou seja, uma única antena que atenderá a uma área muito maior do que a tecnologia WiFi IEEE 802.11 (WiFi) podendo cobrir um bairro inteiro, com raio de até 45Km). Na visão da Intel, o WiMax será para a banda larga o que os “celulares” já estão sendo para a telefonia fixa. A empresa aproveitou o evento para apresentar o primeiro sistema WiMax em um único chip.

A tendência dois-em-um proporciona ganhos de desempenho também entre as placas de vídeo
A nVidia aproveitou o IDF para fazer uma apresentação explicando tecnologias atuais, como o modelo Shader 3.0 (já citado na edição de 28 de abril, no teste da GeForce 6800), o módulo MXM, para o upgrade da placa de vídeo de notebooks e as novas tecnologias SLI (Scalable Link Interface) e SDI (Serial Digital Interface).
A tecnologia SLI é uma conexão entre placas de vídeo que permite que os processadores gráficos trabalhem em paralelo, similar ao que ocorre em computadores multiprocessados. Um demo do simulador de vôo profissional Aechelon, usado pelas forças armadas americanas foi usado para provar o aumento de desempenho. Uma placa Quadro FX 3400 produzia 30 quadros por segundo. Colocada junto a outra, ligada via SLI, o desempenho pulou para 60 quadros por segundo. O ponto forte é que não há necessidade de qualquer modificação no software para o funcionamento.
Já a tecnologia SDI é voltada para aplicações profissionais de vídeo, como em estúdios de TV. É uma interface de vídeo profissional. Outra aplicação cogitada pela nVidia é em cinemas digitais. O distribuidor de filmes, em vez de fazer cópias físicas da película, transmitiria o filme via satélite, em tempo real, para o cinema, que então projetaria usando um computador equipado com esta interface. A transmissão seria criptografada.
A empresa apresentou também alguns demos das tecnologias de correção de imagem presente nos processadores GeForce da série 6. Estes processadores de vídeo são na realidade “dois em um”: além do chip gráfico em si, há integrado ao próprio chip um processador de imagens, para a decodificação de vídeo. O que permite a visualização de imagens sem aqueles “quadrados” típicos de quando aumentamos a janela de reprodução e o fim das pausas durante essa reprodução, o que é muito comum de ocorrer especialmente se o processador da máquina não for tão rápido.

Cuide do pessoal e salve a empresa

Hábitos de segurança dos usuários podem evitar fraudes e invasões

Você recebe um e-mail que tem como remetente o gerente ou o departamento de suporte do seu banco. A mensagem informa que o serviço de Internet Banking está com um problema que pode ser corrigido se você executar o aplicativo anexado. A execução mostra uma tela bem parecida àquela que você utiliza para ter acesso à sua conta bancária, aguardando que você digite a sua senha.
Já aconteceu? E mais de uma vez? Pois saiba que você foi vítima de um típico ataque de Engenharia Social. Que pode não estar causando prejuízos só para você, mas também para a empresa em que você trabalha. Paranóia? Não mesmo! “Muitos administradores de rede não sabem como é fácil invadir uma empresa conhecendo o nome, o CPF e o cargo de alguém. Some-se a isto o endereço de e-mail e uma senha... e é por aí que muita coisa acontece”, afirma o mestre em segurança de redes e consultor de segurança da Casa & Vídeo e do Senac-Rio, Gustavo Alberto Alves.
Para ele, a melhor forma de proteger os sistemas é pensar como hacker. “Sua empresa investiu milhões em segurança, o sistema está totalmente fechado, mas você tem um funcionário curioso que navega na Web, se cadastra em um monte de sites, tem várias contas de e-mail gratuitos, faz parte de um monte de listas, tem blog, fotolog... Basta que uma das senhas usadas por ele nesses locais seja igual a que ele usa na rede da empresa e está feito o trabalho. O hacker invade o seu sistema pela porta da frente, sem cerimônia”, diz Alves.
Por isso, a proteção da imagem da empresa, o cuidado com a privacidade dos usuários e com perdas provocadas por códigos maliciosos (vírus, vermes, back-door, spywares etc) e por spams, o vazamento de informações (via cookies, scams etc), e a disseminação da política e da cultura de segurança da informação entre os empregados devem ser as grandes preocupações, hoje, entre os administradores de sistemas.

O hacker é um exímio coletador de informações
Um ataque é sempre precedido de uma pesquisa extensa. Uma pessoa bem preparada para invadir um sistema começa procurando conhecer todas as vulnerabilidades reportadas, de todos os sistemas. Razão pela qual, nos últimos anos ficou muito mais difícil ver empresas reportando falhas e vulnerablidades, abertamente, na Internet. Hoje elas circulam só entre grupos fechados. “Os hackers mais perigosos ficam horas na Rede tentando saber tudo o que está acontecendo no mundo da informática, em fóruns e listas de discussão, trocando informações sobre as vulnerabilidades”, afirma Gustavo. “Um bom profissional de segurança deve fazer o mesmo, para tentar proteger eus sistemas”.
O passo seguinte é a coleta de informações sobre a empresa: quais sistemas usa (versão etc), nome completo dos funcionários, data de nascimento, telefone, informações sobre parceiros, código fonte do site institucional (principalmente em cima de servidores SQL) etc. O acesso a muitas dessas informações é possível através de Engenharia Social (direta ou indireta), pesquisas no lixo (especialmente o tecnológico), visitas a registros de domínio etc.
De posse desses dados, o hacker analisa e seleciona o que é útil, e monta a lógica de como usá-los. Em seguida, parte para o mapeamento da rede da empresa, através de ferramentas que mapeiam portas de acesso para vários protocolos. Só depois traça a estratégia da invasão – que depende basicamente de dois fatores: velocidade e pouca rastreabilidade.
Parece um processo lento, com muitas etapas, mas um hacker bem aparelhado, que use as ferramentas certas, consegue realizá-lo em poucas horas. A invasão é a parte mais fácil. O difícil é a coleta das informações. E eles estão cada vez mais engenhosos neste quesito.

Engenharia social: evite este ataque
Engenharia Social é o nome que se dá para a obtenção de informações importantes de pessoas ou empresas através do estabelecimento de uma relação de confiança ou mesmo através de um teatro (se fazer passar por outras pessoas). Existem duas formas de realizar este tipo de ataque: direta ou indiretamente. Os ataques diretos são feitos por contatos pessoais (telefonemas e até pessoalmente). Os indiretos, através de correspondência,scam, spam, conversas em salas de bate-papo, falsas telas de login e etc.
A melhor forma de se proteger é ficar atento aos detalhes e desconfiar de tudo o que fugir ao padrão. E mudar alguns hábitos e comportamentos, seus e dos departamentos de suporte da empresa.
Imaginem só o que um funcionário insatisfeito pode fazer se souber o nome do administador da rede? Basta um telefone para a mocinha do Financeiro (que não sabe nada de informática e vive pedindo suporte), fazendo-se passar pelo administrador, para ter acesso à senha dela depois de informá-la de que, para resolver problemas com a conta, precisa que ela altere a senha para a que ele vai passar.
O profile do Orkut é o Éden para as mentes mal intencionadas. É comum saber de casos como os da Flávia Lima, que em um dia de manutenção do site foi desviada pelo hacker para uma falsa tela de login, onde ele capturou sua senha. Que, por acaso, é a mesma de uma de suas contas de correio eletrônico. “Tenho dois e-mails do Hotmail, dois do Yahoo e um do BOL, mas o que mais uso foi justamente o invadido, e exatamente o que possui o login e a senha iguais aos da minha conta no Orkut e consta do profile do serviço”, conta ela.
Fazendo-se passar por Flávia, o invasor provocou algumas baixas no rol de amigos da moça. Mas foi só, porque ela agiu rápido.
“ O cara simplesmente se diverte vivendo a vida dos outros! Tem louco pra tudo nesse mundo, né?”, dispara.

Conscientização do usuário é o início de uma rede segura
Por mais que as empresas se protejam contra possíveis invasões de seus sistemas e roubos dos seus dados por agentes externos, não é surpresa quando esse ataque é detectado como feito de dentro do próprio ambiente corporativo. “Historicamente, as ameaças à segurança da empresa partem do ambiente interno. Isso é um dado estatístico”, garante Daniel Domeneghetti, diretor de estratégia e conhecimento da e-Consulting, que prepara uma grande pesquisa com empresas brasileiras, a ser divulgada semestralmente, como uma das iniciativas do Movimento Internet Segura (MIS).

Movimento Internet Segura tem início em novembro
Coordenada pela Câmara-e. net, a campanha visa ensinar ao internauta medidas para prevenir fraudes eletrônicas e operar na Web com mais confiança. “Queremos divulgar informações claras e precisas para os mais de 25 milhões de brasileiros com acesso à Rede”, diz o presidente da Câmara-e.net, Gastão Mattos. “Freqüentemente, a sensação de insegurança dos consumidores é muito maior que o problema em si”, afirma.
No MercadoLivre, o phishing scam (roubo da identidade do internauta, ludibriado por falsos e-mails de companhias sérias) anda tirando o sono de muita gente. “Os bancos costumam ser as vítimas preferidas dos scammers. Mas não são só eles. O MercadoLivre também tem sido vítima desses criminosos”, conta o diretor-presidente, Stelleo Tolda.
Segundo ele, o alvo preferido dos scammers são os vendedores com bom histórico no site. “Eles entram pela porta da frente, roubam o ID desses vendedores e depois trocam os dados de contato. Os compradores, por sua vez, atraídos pela boa reputação do vendedor, acabam ludibriados”, explica.
Os dados da sua empresa estão seguros? Duvido!
Esse é o provocativo título do livro de João Rocha Braga Filho, que pretende colocar ‘uma pulga atrás da orelha’ não só de diretores de tecnologia de grandes corporações. Mesmo tratando de um problema corporativo, o lançamento editorial é voltado especialmente para o usuário comum. Mas por quê? “Infelizmente, o usuário comum acaba sendo o elo mais fraco dessa corrente de segurança, por mera falta de conscientização. Atualmente, a segurança da informação não é um problema só do gerente de redes e sim, de todos”, explica o autor.
“ Muitas vezes a própria diretoria da empresa está disposta a pagar fortunas num firewall comercial, mas acaba deixando brechas numa política de usuários confusa. É bom lembrar que o valor do investimento nem sempre quer dizer retorno”, ressalta.
A conscientização sobre a importância do papel de todos os funcionários para a segurança da empresa pode ser feita através de palestras, Intranets sobre o tema, e-mails informativos e educativos. “E, principalmente, por uma política clara de usuários, mostrando o que é arriscado ou não, o que pode e o que não pode ser feito na rede da companhia”, diz Braga Filho.
Da Editora Brasport (), Os Dados da sua Empresa estão Seguros? Duvido! será constantemente atualizado em . Por R$ 39.

Confira algumas dicas que te ajudam na hora de se proteger contra hackers

Use o bom senso. A forma mais comum de propagação de vírus é o e-mail. Portanto, desconfie sempre de anexos e mensagens provenientes de remetente desconhecido. E não caia em arapucas do tipo “parabéns, você ganhou...”, nem em phishing scams, cada vez mais comuns.
Descarte senhas fáceis. Não seja óbvio ao criar suas senhas. Evite caracteres em seqüência ou repetidos, datas pessoais ou números de telefones, por exemplo. Vale misturar números e letras (maiúsculas e minúsculas). Senha não deve ser algo fácil de se memorizar. Quanto maior ela for, melhor.
Troque sua senha com freqüência. Semanalmente, de preferência. Nunca use uma senha para tudo: uma vez descoberta, o hacker vai testar em tudo o que você tenha acesso, de sites de e-commerce a de bancos. Não a forneça a ninguém, mesmo que solicitada por supostos funcionários de bancos.
Cuidado com micros de terceiros. Evite acessar Internet Banking ou comprar on-line em micros de terceiros. As ações podem estar sendo monitoradas.
Atenção ao acesso WAP. Nunca digite sua senha em celular que não seja o seu. Os números podem ser recuperados na memória do aparelho.

Biometria: prevenir, não remediar

Há anos as instituições financeiras têm corrido atrás de soluções mais confiáveis para a identificação de clientes. Senhas e assinaturas "analógicas" apresentam lá as suas falhas e podem ser substituídas - só não o foram ainda devido à pequena oferta de produtos e ao preço dos poucos que existiam. Se depender, no entanto, da oferta de soluções, em breve será possível, através de um único olhar 43, por exemplo, acessar a conta corrente.
Durante o Congresso e Exposição de Tecnologia da Informação das Instituições Financeiras (CIAB), que aconteceu na semana passada, em São Paulo, três estandes (DBA, Politec e Itautec-Philco) chamavam a atenção dos visitantes por produtos capazes de reconhecer pessoas por meio do que elas são - íris, pontas dos dedos e geometria da face são apenas três exemplos do que já é possível ser usado atualmente como ferramenta de reconhecimento.
No estande da DBA, a estrela foi o Zyt, criado pela Tauá Biomática. O aparelho, voltado (por enquanto) para o mercado corporativo, pesa menos de 300 gramas e é uma solução completa de hardware e software que combina biometria (usa um leitor de impressões digitais) com certificação digital e smartcard.
Além de leve, o Zyt é simpático e intuitivo. O hardware criptográfico, que elimina o uso de senhas e roda em Linux, tem um visor de cristal líqüido que permite ao usuário acompanhar toda a operação, seja ela depósito bancário ou transferência de valores, entre outras. Um detalhe interessante: ele permite a assinatura de documentos feitos em Word, por exemplo.
- É possível assinar documentos, imagens, contratos de câmbio, serve para qualquer aplicação do governo, para qualquer transação que exija um nível mais alto de segurança - diz Márcio Campos de Lima, diretor da Tauá Biomática, que dá uma boa notícia: já há estudos para o desenvolvimento de um Zyt doméstico, para acesso a internet banking, entre outras aplicações de segurança.
Com cerca de US$ 1,5 milhão gastos em dois anos de pesquisa para o desenvolvimento do produto, o Zyt está em processo de certificação e já é objeto de estudo de grandes bancos privados.
Reconhecimento atravésda íris: coisa de filme
Também durante o CIAB, a empresa Politec demonstrou o Identity Management, que permite a identificação de pessoas através das suas íris, eliminando senhas e impressões digitais. Segundo geneticistas, a íris de um ser humano é única e ninguém pode "cloná-la" - segundo a Politec, as chances de duas íris serem iguais são de uma em milhares de quatrilhões. Assim, especialistas de segurança consideram este tipo de biometria a mais confiável, embora ainda seja muito cara.
O software para identificação via íris contém algoritmos que transformam a imagem da íris num código. O sistema de reconhecimento da Politec acopla câmeras de autenticação desenvolvidas por empresas como LG Electronics e Panasonic. O equipamento não usa laser ou quaisquer outras luzes danosas aos olhos. O produto é capaz de captar a imagem da íris em uma distância de até 53cm.
Entre os clientes da Politec que já adotaram o reconhecimento pela íris estão o Departamento de Estado dos EUA, o Exército e a Marinha americanos, além do Children National Medical Center, todos nos EUA.
A Itautec-Philco conseguiu impressionar os visitantes do CIAB ao provar que é perfeitamente possível identificar uma pessoa através da geografia de sua face. É que a estrutura óssea é única. A face tem 32 diferentes pontos de identificação. A senha, neste caso, está... na cara.

Batalha: Pentium 4 3 GHz x Athlon XP 3200+

Quando a Intel lançou sua nova linha de processadores Pentium 4 e também de chipsets para placa-mãe, fiz uma matéria mostrando as principais características dos processadores e chipsets lançados. Leitores mais exigentes vão lembrar que prometi um teste comparativo entre o Pentium 4 de 3GHz e o AMD Athlon XP 3200+. Depois de usar sistemas com os dois processadores por quase duas semanas, posso passar uma impressão mais correta sobre o desempenho das duas CPUs.
Antes de tudo, é bom lembrar que não existe processador “bom” ou “ruim”. Os dois processadores são excelentes. Muita gente diz que os processadores da AMD “esquentam muito”. Isso acontece porque montadores mal qualificados usam coolers de baixa qualidade nos processadores Athlon “OEM” (comprados de maneira avulsa e sem cooler), enquanto a maioria dos Pentium 4 é do tipo “Box”, ou seja, já vem com um cooler próprio da Intel de ótima qualidade.
Teste usou sistema igual para os dois processadores
Para comparar os dois processadores, montei um sistema igual para as duas máquinas, que incluiu: gabinete com fonte de 500W genérica, HD IDE de 80Gb Western Digital , drive de disquete e gravador de CD-RW, 512Mb de memória DDR 400MHz (módulos Kingston ValueRAM), placa de vídeo Asus 7100 (chipset GeForce2 MX) e outros acessórios. Obviamente, placa-mãe e processadores eram diferentes.
O Athlon XP 3200+ usou uma placa-mãe da Asus modelo A7N8X com chipset nVidia nForce2 e o Pentium 4 de 3GHz usou uma placa Intel D865GBF e chipset i865. Ambas as placas têm suporte a memórias DDR de 400MHz e a HDs no padrão Serial ATA. Infelizmente, não consegui um HD neste padrão para realizar o teste.
Foram usados os seguintes programas para testes de desempenho (benchmark): PCMark2002, Sandra 2003 e o POV-Ray, programa “freeware” recomendado por um de meus alunos e excelente para avaliar desempenho da CPU. Também foram feitas análises do comportamento da máquina em programas como Office e Internet Explorer, apenas por curiosidade. Nestes programas usados no dia-a-dia, notei que a diferença de desempenho entre processadores “top” como Athlon XP e Pentium 4 e processadores mais simples como Duron e Celeron é mínima, desde que a máquina tenha 128Mb de RAM ou mais (o que, atualmente, é muito comum). Os processadores “top” se destacam mesmo é nas aplicações gráficas, jogos e programas científicos e, nestes casos, benchmarks como o PCMark e o Sandra costumam ser boas medidas de desempenho.
Pentium 4: bom desempenho com todos os programas
O Pentium 4 “arrasou” nos testes. Simplesmente conseguiu o melhor desempenho em todos eles. Com barramento de 800MHz em conjunto com as memórias DDR 400MHz trabalhando em modo “Dual”, além da tecnologia Hyper-Threading, mostrou toda a sua força. É bom lembrar que o Athlon XP 3200+ só ficou bem atrás nos testes relacionados à banda de memória. Nos outros testes ele teve resultados próximos ao Pentium 4 de 3GHz.
De qualquer forma, os resultados mostraram que, no mínimo, é exagerada a classificação do Athlon XP como 3200+. O mais correto seria dizer que esse Athlon XP é equivalente a um Pentium 4 de 3GHz (ou até 2.8GHz), ou seja, Athlon XP 3000+ ou 2800+. É bom que os fãs da AMD entendam que isso não é demérito algum. Afinal de contas, um processador que roda a 2200MHz se equiparar a um que roda a 2800MHz ou mais, mostra a qualidade do projeto da companhia.
Infelizmente, enquanto não lançar uma nova linha de processadores a AMD vai continuar perdendo para a Intel em desempenho. A única saída é diminuir o preço para tornar seu produto mais competitivo, mas no caso do Athlon XP 3200+ isso ainda não foi feito. Ou seja, o Pentium 4 de 3GHz tem preço semelhante e melhor desempenho. Aí fica difícil não tomar partido pelo produto da Intel.
Atualmente, o maior problema da AMD é competir com a Intel nos produtos top. É nessa faixa de produtos que estão os maiores lucros. Para a maioria das pessoas, escolher um micro com Athlon XP com desempenho mais modesto (como, por exemplo, o 1700+) ainda deverá ser uma excelente opção a curto prazo, pois o preço de sistemas baseados nesta CPU está muito baixo e a maioria dos programas roda bem nela. Mas se no médio prazo a Intel baixar os preços de seus processadores Pentium 4 de clock menor (como 2,4GHz ou 2,6GHz), a decisão não vai ser escolher entre a AMD e a Intel, e sim escolher o clock do Pentium 4.
Espero que o Athlon64, que será o sucessor do Athlon XP, consiga, pelo menos, equilibrar as coisas para a AMD. Mas o processador ainda é uma incógnita para a maioria dos entusiastas do hardware. Enquanto isso, a Intel anuncia o Pentium 4 3,2 GHz.

Barramentos I

Por mais complicada que possa parecer a placa-mãe de seu computador, você pode reduzir todo aquele emaranhado de circuitos a três elementos principais: microprocessador (ou CPU), memória e sistema de entrada e saída (E/S, o conjunto de “slots” onde se encaixam as placas controladoras dos periféricos e os conectores na própria placa-mãe onde se encaixam os cabos dos drives de discos). Esses três elementos estão permanentemente trocando informações: o sistema de entrada e saída troca (envia e recebe) dados com a CPU e, eventualmente, com a memória e esta, por sua vez, está em constante comunicação com CPU e sistema de E/S. E durante todo o tempo, dados fluem entre os três elementos básicos da placa.
Esse fluxo ocorre através do “barramento”, o nome que se dá ao conjunto de condutores elétricos e seus circuitos de controle que interligam os elementos da placa-mãe. Sua manifestação mais visível é aquele conjunto de riscos metálicos paralelos que recobre quase toda a superfície da placa. São os condutores por onde circulam os “sinais”, ou seja, pulsos elétricos que representam os bits (que, oito a oito, formam os bytes), além de outros tantos pulsos que controlam todo o sistema (os “sinais de controle”, que informam se uma dada operação é de leitura ou escrita, se a operação anterior foi executada com sucesso, se o barramento está livre e pode receber novos dados, etc).
Tudo isso obedece a um certo ritmo, a “freqüência de operação” do barramento. Esta freqüência é controlada por um circuito especial montado em torno de um cristal de quartzo que vibra, emitindo pulsos que ditam o ritmo em que os dados fluem no barramento.
No começo tudo era muito simples: o primeiro PC usava um microprocessador simples e lento, o Intel 8088, cuja freqüência de operação era de cerca de 5MHz, ou seja, executava cinco milhões de ciclos (ou operações elementares) por segundo. Pois bem: o barramento que o ligava à memória e ao sistema de E/S era controlado pelo mesmo cristal, ou “clock”, e os dados fluíam no barramento no mesmo ritmo de 5MHz (para os puristas: 4,77MHz).
Acontece que os processadores evoluíram. Depois do 8088 do “PC”, veio o 8026 do “AT”, cuja freqüência de operação chegou a 20MHz. Ora, 20 milhões de pulsos a cada segundo eram demais para os lentos periféricos ligados ao sistema de E/S. Eles não conseguiam absorver pulsos em um ritmo tão elevado. A IBM, que naqueles dias ditava os padrões para a linha PC, decidiu “quebrar” o barramento em dois: um, mais rápido, ligando a CPU à memória, operando na mesma freqüência da CPU, chamado de “barramento frontal” (ou FSB, de “Front Side Bus”). Outro, ligando a CPU aos slots ou aos conectores dos periféricos, chamado “barramento de entrada e saída” (ou de E/S), operando em uma freqüência menor (cerca de 12MHz). Esse barramento de E/S criado pela IBM para seu AT acabou sendo adotado como padrão pelos demais fabricantes e passou a ser conhecido por barramento ISA (de Industry Standard Architecture, ou arquitetura padrão da indústria) e foi usado por muitos anos, até os tempos do 486 (na verdade, embora raros, ainda hoje são encontrados em algumas placas-mãe; é fácil identificar sua presença pelos slots, geralmente pretos e divididos em duas partes).
Além da freqüência de operação, os barramentos têm outra característica importante: a “largura”, ou número de linhas paralelas usadas para transportar dados, endereços e sinais de controle. Fixemo-nos na largura do barramento de dados. O do PC tinha apenas oito linhas, ou seja, transferia um byte (oito bits) de cada vez. O ISA tinha 16, portanto transferia dois bytes a cada ciclo. Essas duas características refletem o fluxo (ou “vazão”) de dados através do barramento. No PC, que transfere um byte a cada ciclo e operando a cinco milhões de ciclos por segundo, o fluxo é de 5MHz x 1 byte, ou 5Mb/s (megabytes por segundo). No ISA o fluxo é de 12MHz x 2 bytes, ou 24Mb/s (para os puristas: na verdade é menor, mas para esclarecer o conceito de fluxo de dados o exemplo serve perfeitamente).
Ocorre que nos tempos do 286, 24Mb/s era muito mais do que os periféricos de então precisavam, portanto o barramento ISA era perfeitamente aceitável. Mas à medida que os microprocessadores evoluíram, também evoluíram os periféricos. Que precisavam de maior fluxo de dados. Algumas tentativas foram feitas e barramentos de E/S novos foram criados, como o MCA (Micro Channel Architecture, da IBM) e EISA (Enhanced ISA), do restante da indústria. Isso sem falar no VESA Local Bus, especialmente para o vídeo. Mas nenhum deles vingou. Até que a Intel teve a idéia de criar o PCI. Mas isso é papo para a próxima coluna.

Banda larga com velocidade de 30 Megabits: é um sonho?

Conectar-se à internet, em banda larga, a 30 Megabits de velocidade, que tal? Só para ter uma
noção da extensão desse “sonho”: usuários de conexão ADSL de 256kbps não passam de 100kbps, 150kbps. Pois, de acordo com o francês Jean Pierre Lartigue, vice-presidente mundial de estratégia e marketing de redes e acessos da Alcatel — que detém 54 milhões de linhas DSL instaladas no mundo — de sonho a banda super larga para conexão à internet já existe. As novas tecnologias de altíssima velocidade são conhecidas como VDSL (com velocidade média de 30 a 40 Megabits) e ADSL2Plus (média entre 16Megabits e 25 megabits).
Para que isso tudo? Para tudo, principalmente para o compartilhamento de vídeos. Nos EUA, as operadoras de TV a cabo já oferecem banda larga, voz e vídeo (triple play). A SBC, que tenciona chegar a 18 milhões de lares americanos (50 milhões de usuários) já vende o triple play e anunciou que vai prover vídeo on demand sobre DSL. Para tanto, vai investir US$ 1,4 bilhão nos próximos cinco anos. Na Itália, 80% dos novos assinantes de TV têm vídeo disponível e mais de 20% não têm nem PC para usar banda larga. Na França, a France Telecom já lançou serviço de TV sobre DSL com 70 canais disponíveis.
A tendência, segundo Jean Pierre, é que tudo caminhe para a banda larga, com preponderânciado DSL. E esse tudo inclui de acesso à internet através da TV — passando pelo acesso de vídeo on demand em TV Digital e programação personalizada — até a chegada do vídeo em todos os aparelhos: celular, palmtop, ou o que mais vier por aí.
J. Horacio Carbone, vice-presidente da Alcatel, lembra que o Brasil tem apenas 19 milhões de PCs, contra mais de 90 milhões de aparelhos de TV e cerca de 60 milhões de telefones celulares. Uma das maiores expectativas no momento é a chegada da TV Digital e, o que é melhor, rodando sobre banda larga.
— No Rio, a Telemar, tem dez milhões de clientes e só uma pequena parte tem computador. TV todo mundo tem — diz.
Hoje, já são mais de 150 milhões de assinantes de banda larga no mundo. Com um crescimento de 55%/ano, a tendência é as empresas investirem cada vez mais em táticas de sedução — ainda mais por conta da estagnação do mercado de voz. E, em se tratando de banda larga, velocidade é palavra mágica.
— A tendência é que o telefone fixo desapareça — decreta Jean Pierre.
A questão é que no Brasil a regulamentação do setor ainda é confusa. Empresas de TV a cabo e
operadoras de telefonia não podem oferecer os mesmos serviços, assim, fica complica o triple
play.
— Acreditamos que é uma incrível evolução oferecer às pessoas a experiência de navegação através do telefone ou da TV. Usando um teclado para acesso à TV, ainda mais com conexão em banda larga, fica perfeito — diz Jean Pierre.

As chaves da memória

O bom e velho disquete? O CD regravável? O Zip drive? Que mídia de armazenamento anda fazendo a cabeça do pessoal techie? Se você pensou num dos três exemplos acima, enganou-se. Ninguém está resistindo às memory keys , ou chaves de memória, verdadeiros HDs portáteis, capazes de armazenar entre 8Mb e 512Mb e continuar cabendo no bolso (medem entre dois e seis centímetros). A principal vantagem delas é praticamente não precisar de drive nenhum (embora isso dependa do sistema operacional usado) a não ser uma saída USB. Você grava, põe no bolso de uma camisa listrada e sai por aí, relaxado. Ou pendura no cinto, como um chaveirinho digital.
O técnico em informática carioca Luís Gomes gostou tanto da sua memory key de 8Mb da IBM que comprou outra, genérica, de 128Mb. Nelas, ele carrega de tudo: de programas e arquivos de trabalho a MP3 para festas nas quais dá uma “canja” de DJ:
— A memory key preencheu uma lacuna do mercado. — diz. — Ela é a mídia particular de portabilidade. É de uma utilidade incrível, mais confiável, mais rápida que um CD ou disquete e muito mais fácil de transportar do que uma memory stick ou uma flash memory.
Já existem vários modelos disponíveis no mercado brasileiro ( veja quadro na página 2 ). A IBM comercializa chaves de 32Mb e 128Mb de capacidade e, segundo Manuel Parra, gerente de monitores da empresa, em dois a três meses devem aportar por aqui as de 64Mb e 256Mb.
— A chave de 128Mb gera uma partição, com senha, para que o usuário tenha sua área privativa dentro da mídia — diz Parra. — É possível transferir para elas áreas inteiras do próprio HD, bastando, após a instalação, arrastar arquivos para lá. E, se necessário, pode-se executar o arquivo de dentro da própria chave.

A Saga do Pingüim

O mercado dá mostras de estar sequioso por alternativas ao mundo Windows. Estima-se que em três anos o Linux será o sistema operacional número um em servidores, se forem consideradas novas remessas. Seguindo esta trilha, em seu sexto ano, o LinuxWorld Conference & Expo firmou-se como o mais importante evento focado em Linux e em soluções utilizando sistemas abertos. A conferência ocorreu há duas semanas em San Francisco, com um verdadeiro chuá de palestras, sessões de mão-na-massa e encontros de grupos de interesse.
Executivos pesos-pesados de empresas como BEA Systems, HP, IBM, Oracle e Red Hat mostraram como estão aproveitando novas oportunidades de inovar, cortar custos e ganhar produtividade usando Linux e a tecnologia de sistemas abertos. Um dos pontos altos do evento foi a palestra de Nick Donofrio, vice-presidente-sênior de tecnologia e manufatura da IBM, um dos principais arquitetos da estratégia tecnológica global da empresa. Ele mostrou como a Big Blue está apostando alto em Linux no ambiente empresarial. Demonstrou também como funciona o ambiente de negócios “on-demand”, através da integração de funcionários, clientes e parceiros dentro deste ambiente Linux.
Poder: IBM & Linux-on-Power
No pontapé inicial que deu há dois anos em prol da explosão do Linux no mundo corporativo, a IBM liderou uma iniciativa de desenvolvimento de aplicações usando este sistema operacional em máquinas Intel. O resultado foram 4.200 aplicações estalando de novas no mercado. Depois disso, apontou a mira para sua nova arquitetura de 64-bits Power5, como resposta à crescente demanda de aplicações nesta plataforma. Deu também significativos passos para solidificar ainda mais seu comprometimento com Linux no ambiente empresarial: fechou parceria com a Red Hat Inc. e com a Novell Inc.; estabeleceu uma aliança com a escola de engenharia da Universidade de Portland; e desenvolveu um portal web focado em Linux-on-Power, além de outros programas de desenvolvimento de aplicações. Em apenas seis meses do programa Linux-on-Power, o número de aplicações rodando redondas passou de 300 para 600. Seu site DeveloperWorks dedicado a este programa vem recebendo cerca de 320 mil visitas mensalmente.
No Brasil, estima-se em US$ 400 milhões a janela de mercado para o Linux, refletindo a preferência mundial de 40% dos desenvolvedores de sistemas, que escolhem Linux como plataforma ideal para trabalhar. Quem apostou neste sistema operacional há alguns anos viu sua ousadia dar bons frutos. A IBM, por exemplo, vem metendo a cara neste nicho desde 1999, com iniciativas como os LTC (Centros de Treinamento Linux) e os LIC (Centros de Integração Linux) espalhados pelo mundo inteiro, congregando mais de 400 profissionais conectados via internet.
O Brasil não está fora dessa. Em Campinas já existe um LTC, cujo objetivo é treinar desenvolvedores de software para contribuir para a melhoria do kernel (núcleo) do Linux. Além disso, em Sampa foi criado um LIC, sob a égide da sede central que fica em Austin, no Texas, com o objetivo ser um centro de referência no Brasil para clientes desejosos de implantar soluções de software baseado em Linux rodando em hardware IBM. Empresas que contaram com o apoio do LIC falam maravilhas dele, como é o caso da Voxline, que presta serviços de contact center para clientes como a rede Habib's de lanchonetes. Num ambiente crítico, os bambas do LIC daqui junto com os de Austin configuraram à distância os servidores da empresa sem gastar um centavo com viagens.

‘ Um dia as linhas de Linux e Windows vão se cruzar ’
Scott Handy é o responsável, na IBM, pela estratégia mundial de negócios em Linux. Em entrevista ao GLOBO, durante o LinuxWorld, Handy, que já está na IBM há 19 anos, comenta os planos da Big Blue em relação ao Linux e sugere novos modelos de negócios que podem ser gerados a partir do sistema operacional dos pingüins. Handy conta também o que a empresa espera do governo brasileiro quanto à adoção do software livre.
Carlos Alberto Teixeira
SAN FRANCISCO
Qual é sua área de atuação na IBM e na indústria do Linux e dos softwares abertos?
SCOTT HANDY: Sou o responsável na IBM pela estratégia de negócios em Linux, incluindo hardware, software e serviços. Faço o planejamento das atividades durante o ano, definindo em que áreas iremos focar. Em 2004 temos várias áreas de atuação: 1) Infraestrutura, servidores de arquivos e de impressão, firewalls, tudo isso tem sido nosso principal gerador de receita; 2) Blades e clusters. Cerca de 70% dos clusters IBM estão sendo entregues com Linux, como o do Exército americano com dois mil processadores e o do Ministério de Informação e Tecnologia da Espanha, também com dois mil processadores; 3) Consolidação de cargas de trabalho tem sido uma área forte na IBM. Quando se fala em negócios “on demand”, as empresas precisam dispor de uma infraestrutura comum e começam por simplificar o que já têm, às vezes cinco sistemas operacionais ao mesmo tempo. Nossa missão é preparar uma equipe que faça este trabalho nas instalações do cliente; 4) Base de aplicações: temos cerca de 4.200 aplicações rodando Linux e suportando alguma tecnologia IBM, em plataforma Intel ou Linux-on-Power. Em Linux-on-Power passamos de 300 para 600 aplicações. Temos mais de 500 aplicações em Linux para mainframe. Esperamos triplicar o número de aplicações até 2007, gerando mais renda para os parceiros. Já estamos num embalo com Linux-on-Power e começando agora com Linux para clientes. Estamos entrando em acordo com vendedores independentes de software (ISVs) sobre aplicações para Linux no desktop; 5) Países emergentes: temos verbas especiais e foco numa fórmula para abrir centros de Linux, formar parceiros, fazer contato com governos e instituições de educação. A aceitação do Linux nestes países tem sido ótima e o crescimento é fantástico, maior do que nos países desenvolvidos. Linux é o sistema operacional que mais cresce no mundo no segmento de servidores e tem sido assim nos últimos cinco anos.
Se lembrarmos da bolha da internet e do ciclo usual por que passam as novas tecnologias (moda, decepção e maturidade), é possível manter uma comunidade entusiasmada por tempo indefinido com relação a um grande projeto de software aberto?
HANDY: O que aconteceu com a bolha da internet foi excesso de marketing. As empresas gastaram fortunas em suas imagens e marcas, quando na verdade tinham mais valor em tecnologia. Com o Linux se deu o oposto. Não houve marketing no começo, eram apenas desenvolvedores mostrando e usando uma forma melhor de escrever código. Cada módulo que era escrito para Unix era produzido por times isolados, mas no Linux era um conjunto grande de cabeças pensantes, e o resultado era muito melhor. Assim, a partir do momento em que o marketing das grandes companhias entrou em cena, como quando a IBM pulou para dentro desta arena, em 2000, o Linux já estava entregando um milhão de licenças por ano, ou seja, já tinha atingido uma massa crítica de usuários. A história da tecnologia na indústria tem mostrado que algumas coisas precisavam acontecer antes de se atingir este volume crítico. Em primeiro lugar, é preciso que exista uma “killer application”, aplicativo realmente bom que caia nas graças dos usuários. No caso do Linux, foi o Apache, que hoje tem 67% do mercado, líder disparado e um padrão de fato. Outra killer application foi o Samba. Na época da bolha era um monte de ídolos envolvidos, mas ninguém realmente pagando por soluções. No caso do Linux, trata-se agora de uma indústria de muitos bilhões de dólares. Segundo o IDC, a renda envolvendo Linux, sem contar com desktop, é da ordem de US$ 9 bilhões.
Que novos modelos de negócio serão criados em cima da filosofia de software?
HANDY: É preciso haver um modelo sustentável de negócio, algo que gere renda. Mas não será através da venda de licenças de software, e sim através do suporte e das atualizações do software. O sistema operacional se transforma numa “commodity” e o verdadeiro valor se faz naquilo que se empilha no sistema operacional. O dinheiro se faz mesmo no hardware, no software e nos serviços em cima do sistema operacional. No caso da Microsoft há um relatório do IDC demonstrando que para cada dólar gasto com Windows são gastos nove dólares com hardware, software e serviços ligados a Windows. No caso do Linux, pode-se questionar se o usuário paga de fato este dólar, mas o que importa é que 90% do que ele gasta está fora do sistema operacional.
Em quanto tempo o Linux vai ser o líder?
HANDY: Se a curva de crescimento continuar como está não vai demorar muito. Mas é difícil prever com exatidão. Até o fim de 2003, o número de servidores rodando Linux já era maior que o somatório dos servidores rodando os outros sabores de Unix. Este foi um marco, pois agora o Linux só perde para o Windows. O IDC projeta que em 2007 ele pode se tornar o primeiro. Não sabemos ao certo, mas qualquer matemático dirá que um dia as linhas do Windows e do Linux vão se cruzar no gráfico.
Como se faz dinheiro desenvolvendo software aberto?
HANDY: Clientes compram soluções. É preciso estar dentro do real valor de uma solução. As pessoas sempre perguntam sobre os desenvolvedores que estão trabalhando com Linux. A resposta é que eles são “voluntários”, trabalham para alguma empresa. Linus Torvalds, criador do Linux, por exemplo, trabalha para a OSDL (Open Software Development Labs). A IBM tem mais gente desenvolvendo em Linux do que a Red Hat ou a SUSE. São mais de 600 pessoas trabalhando em mais de 150 projetos de software aberto, patrocinados pelo meu time, via Linux Technology Centers. Empresas como HP, Intel e Oracle têm gente desenvolvendo para Linux na comunidade de software aberto. Essas pessoas são funcionárias de companhias que de algum modo lucram com a plataforma Linux. Elas não necessariamente fazem dinheiro vendendo Linux, mas em torno do Linux.
No Brasil, 87% dos habitantes não têm computador e 97% das pessoas não têm acesso à internet. Com problemas prioritários na saúde, educação e transportes, como inserir no contexto a necessidade de diminuir a exclusão digital?
HANDY: Uma das razões pelas quais estamos interessados no Brasil é essa característica da infraestrutura do país, ainda muito imatura. Por isso estamos trabalhando junto ao governo, pois ele pode alcançar de alguma forma estes excluídos. Claramente, os métodos em voga, ou seja, o uso de PCs, não funcionam. Basicamente em virtude do custo. Linux é uma opção mais viável, em função do preço menor da licença. Em termos de hardware, poderia ser adotada a tecnologia de “thin clients”. Uma das vantagens dos países emergentes é que não há tecnologia já estabelecida, não é preciso substituir infraestrutura preexistente. No Brasil, onde ainda não se tem absolutamente nada digital em várias regiões, qualquer coisa nova é positivo, não há legado a ser gerenciado. Além disso, o governo aprendeu várias lições e já se vê disposto a começar com sistemas abertos de modo a não se ver trancado em programas-proprietários logo de início.

A mágica que mistura Windows e Linux

Um bocado de redes hoje em dia usa um servidor GNU/Linux e workstations rodando Windows. Embora isso possa atender ao quesito estabilidade, já que o pingüim é reconhecidamente mais estável do que o software da MS, por outro lado, se a idéia é economizar em pagamento de licenças de software proprietário, não adianta muito, porque há um bocado de “janelas” rodando nos micros clientes.
Meditando sobre isso, a Brasil Informática criou um software chamado Lin2Win (pronuncia-se “Lin-txu-uín”) cuja mágica é criar uma conexão Linux com um servidor Windows. Assim, através de processamento remoto, as workstations, mesmo rodando Linux, podem fazer um login gráfico no Windows e trabalhar em suas aplicações office.
— O Lin2Win é, na verdade, a consolidação de algumas ferramentas que o Linux disponibiliza para obter acesso num servidor Windows — explica Adriano Filadoro, diretor de tecnologia da empresa.
E como é o processo? Primeiro, instala-se um servidor Windows 2000 na rede. Já as estações de trabalho rodam um software Linux que pode funcionar de três maneiras com o Lin2Win. Na primeira, o próprio Linux tem os ícones dos programas Windows que estão no servidor e, a um clique do mouse, a estação faz uma chamada para lá. Abre-se no servidor, então, uma sessão apenas da aplicação Windows e o usuário trabalha com ela à vontade a partir de sua workstation.
Uma tela com Linux, outra com Windows
Já no caso de clientes que queiram manter o ambiente da MS mesmo nas workstations, é possível conectar a rede de modo que as estações Linux, uma vez ligadas, acessem de imediato o servidor e abram uma sessão do Windows full-screen. O usuário, então trabalha sobre uma plataforma Linux, mas sem executar um único comando do pingüim. E a terceira modalidade de uso do Lin2Win permite trabalhar com Linux e Windows ao mesmo tempo. O usuário, aí, se vale de uma segunda tela no monitor na estação para mexer nos dois.
— Basta utilizar uma resolução menor que a do monitor — diz Adriano. — Por exemplo, a segunda tela pode ter 640 x 480 pixels num monitor de 1.024 x 768. Assim dá para usar os dois sistemas simultaneamente.
Essas “idas e vindas” entre o pingüim e as janelas podem representar uma economia de 60% a 70% em software, segundo Adriano. No caso do hardware, ela seria maior ainda, já que o Linux pode rodar até em Pentiums 100 com 16Mb de RAM.
A Brasil Informática trabalhou durante um ano no Lin2Win. Voltado para pequenas empresas e baseado no Red Hat, consagrada distribuição Linux, ele funciona em qualquer versão do pingüim e, segundo Adriano, já está sendo usado em projetos por vários clientes.