sexta-feira, 29 de julho de 2011

Dicas para novatos no Linux

Descobrir qual a distribuição ideal para você, ler, frequentar fóruns e conhecer a filosofia do software livre são os primeiros passos.
Decidiu largar o seu sistema operacional antigo e embarcar na filosofia Linux? Se você se deparou com algumas dificuldades e está precisando de dicas para facilitar a entrada nesse novo mundo digital, a primeira coisa a fazer é começar a ler. A dica é do consultor técnico de software livre, Bruno Gurgel, que garante que a melhor maneira de aprender a mexer no sistema é ler as documentações da sua distribuição escolhida.

Segundo ele, a internet está cheia de fóruns e blogs lotados de perguntas sobre a plataforma, mas muitas delas nem precisariam estar lá se os usuários tivessem o costume de ler. "Lendo, você aprende como fazer instalações, quais as diferenças entre as distribuições e para que usar cada uma delas”, comenta.

Outro ponto importante para quem pensa em abandonar o Windows ou já o abandonou é descobrir qual é a sua distribuição ideal. Bruno comenta que não existe uma distribuição melhor que a outra, apenas a certa para um objetivo, pois cada uma delas é focada em algo diferente. "Uma boa dica para conhecê-las melhor é acessando o site Distro Watch. Lá tem informações sobre as novas versões e dicas para entender o que faz cada distribuição", diz.

Conhecer a filosofia do software livre também faz parte do aprendizado. Se você entrou nessa só por curiosidade ou porque estava cansado dos vírus e travamentos dos outros sistemas operacionais, vale a pena ler o livro "Catedral e o Bazar", de Eric S. Raymond, um ensaio que apresenta dois diferentes modelos de desenvolvimento de um software livre.

Depois das leituras iniciais, a dica é se infiltrar em fóruns e listas de discussões para interagir com pessoas que tenham gostos parecidos. Frequentar eventos de Linux e software livre também é necessário. "Brincamos que o importante não é saber fazer, mas conhecer pessoas que saibam", comenta Bruno. "A colaboração faz parte da filosofia do software livre e é por meio dela que os usuários vão aprender cada vez mais", completa.

Os iniciantes também devem procurar entender como funciona o gerenciamento de pacotes de uma determinada distribuição e a ferramenta Make. Dessa forma, é possível instalar novos softwares no sistema. Ainda nos termos técnicos, Bruno ressalta a importância de saber trocar o Windows pelo Linux e, mais ainda, se forçar a realizar tarefas normalmente. "Tente fazer a mesma coisa que você fazia no Windows com o Linux. Se você editava fotos no Photoshop, por exemplo, ache o software similar para o Linux e comece a usá-lo", comenta. "Achar o software semelhante pode não ser uma tarefa muito fácil, mas os fóruns ajudam bastante", conclui.

Para quem quer seguir carreira, os cursos são o diferencial na aprendizagem. Com eles, você otimiza tempo e aprende mais rápido a mexer no sistema. Porém, segundo Bruno, as leituras não podem ser deixadas de lado, pois são elas que complementam qualquer curso.

Tem alguma outra dica para compartilhar? Escreva nos comentários abaixo!

Fonte: Olhar Digital

A evolução da banda larga

Conheça mais sobre a tecnologia Ethernet, padrão que possibilita a existência da internet mundial.
Quando o assunto é internet, algo que todos concordam é que, quanto maior a largura de banda disponível, melhor a experiência do usuário. Afinal, uma maior capacidade de transmissão de dados significa downloads mais rápidos e acesso a uma quantidade vasta de conteúdos em menos tempo. O que nem todos sabem é que todos os aumentos de velocidade testemunhados nas últimas décadas são resultados de um trabalho iniciado na década de 1970.

Falar da evolução das velocidades de conexão é contar a história do padrão Ethernet, criado há mais de 30 anos com o objetivo de facilitar a comunicação entre múltiplos computadores.

Neste post, há alguns detalhes sobre a tecnologia, sua história e os desenvolvimentos futuros. Note que as informações contidas são apresentadas de forma resumida, já que diversos pontos da tecnologia possuem detalhes suficientes para justificar a criação de postagens específicas.

Um produto Xerox
O padrão Ethernet foi desenvolvido no centro de pesquisa da Xerox em Palo Alto, na Califórnia. O responsável pelo projeto é Bob Metcalfe, que em 1973 enviou um memorando a seus chefes no qual destaca o potencial da tecnologia para redes locais.

O nome Ethernet tem como origem o éter luminoso presente na natureza, considerado por físicos do século XIX como o meio pelo qual as ondas eletromagnéticas se propagavam.

Somente em 1980 a tecnologia ganhou força, após a empresa unir esforços com a DEC e a Intel no desenvolvimento de uma especificação Ethernet de 10 Mbps. Além de aumentar a velocidade com que os dados eram enviados, o novo padrão corrigia vários dos bugs presentes na versão anterior, que possui velocidade de somente 3 Mbps.

Na época, a tecnologia possuía dois grandes competidores: a token ring e a ARCNET. Os fatores mais importantes para o sucesso da Ethernet foram o apoio de empresas de renome e o fato de que a tecnologia apresentava uma maior velocidade, acompanhada por um número menor de restrições em relação aos concorrentes.

Como funciona a tecnologia?
O padrão Ethernet é baseado na ideia de diversos pontos de uma rede enviando mensagens entre si. Cada ponta dos cabos utilizados possui uma chave de 48 bits globalmente única, conhecida como endereço MAC, forma de garantir que todos os sistemas da rede possuam endereços distintos.

Para evitar a colisão de pacotes, o padrão checa se o canal está inativo, para só então iniciar a transmissão dos dados. Caso mesmo assim ocorra algum problema, o sistema envia um sinal alertando sobre o acúmulo excessivo de informações na rede.

A partir desse momento, todos os lados envolvidos na colisão iniciam novamente o envio dos pacotes. Para evitar que novos problemas ocorram, a Ethernet usa um sistema que determina um tempo de espera para que o processo ocorra novamente nas máquinas conectadas à rede.

Caso os pacotes colidam novamente, o sistema determina intervalos de tempo que se multiplicam por dois a cada nova tentativa. Por exemplo: na primeira colisão, os tempos de espera são de 0 e 1 segundos, o que resulta em chances de 50% do problema voltar a ocorrer. Caso isso aconteça, são determinados tempos de espera de 0, 1, 2 e 3 segundos, o que aumenta as chances de sucesso para 75%.

Após 16 colisões seguidas, a rede desiste do processo e joga fora o pacote. No começo, havia muitas dúvidas quando à efetividade da tecnologia, porém, já em 1976 um trabalho de Bob Metcalfe e David Boggs provou que a eficiência na transmissão de dados chegava a 95%, mesmo em redes com um grande número de máquinas.

Cabeamento
No início, a Ethernet utilizava cabos coaxiais de 9,5 mm para estabelecer as conexões entre diferentes computadores. Devido à necessidade de se adaptar a redes domésticas e aproveitar o cabeamento já existente, foi desenvolvido um novo padrão mais fino, semelhante ao utilizado para o acesso à televisão a cabo.

Durante a história da tecnologia, diversas adaptações tiveram que ser feitas para possibilitar uma maior velocidade no avanço dos cabos. Atualmente, a maioria dos sistemas Ethernet utiliza o padrão 100BASE-T, que permite o uso de switches com velocidades variadas e comunicações Full Duplex, que possibilitam o envio e recebimento de dados em dois sentidos.

Padrão em constante evolução
Evolução da Ethernet
Apesar de 10 Mbps representarem uma velocidade absurda na década de 1980, 10 anos depois não parecia mais algo tão interessante e rápido. Felizmente, na época já havia sido desenvolvida uma tecnologia dez vezes mais rápida, a Fiber Distributed Data Interface (FDDI).

O FDDI é uma rede em forma de anel capaz de alcançar velocidades de até 100 Mbps, com suporte a um segundo anel redundante que entra em ação caso o principal deixe de funcionar. Apesar de se diferenciar bastante do padrão Ethernet, a troca de pacotes entre as duas tecnologias é possível através do uso de pontes de comunicação.

Tais pontes são conectadas a múltiplos segmentos LAN, e são capazes de detectar os endereços usados por cada um deles. Uma das principais vantagens da tecnologia é o fato de que comunicações e colisões locais ficam restritas às redes em que acontecem, sem prejudicar a estrutura geral. Além disso, os pacotes enviados possuem liberdade total para trafegar livremente entre os diferentes locais conectados.

Apesar de ser útil para conectar múltiplos segmentos e servidores, a FDDI sofria com os mesmos problemas dos cabos coaxiais: se um ponto fosse desconectado, toda a rede caía. Somado aos custos elevados, foi necessário o desenvolvimento de um novo padrão, conhecido como Fast Ethernet.

Fast Ethernet
Emprestando a codificação 4B/5B MLT-3 da CDDI, em 1995 foi lançada a norma 802.3u, resultando no padrão 100BASE-T de Ethernet a 100 Mbps. A principal vantagem da tecnologia é manter intactas características como tamanho máximo dos pacotes enviados e o mecanismo de controle de acesso CSMA/CD.

A principal diferença está na taxa de transmissão de dados, que podem ser enviados com velocidades 10 vezes mais rápidas do que o padrão original. Outro destaque é a capacidade de alcançar até 200 Mbps na Fast Ethernet Full Duplex, algo que só é possível caso o tráfego de dados entre dois pontos seja totalmente simétrico.

Gigabit Ethernet
Em 1997, a Fast Ethernet foi superada por um novo padrão capaz de entregar velocidades de conexão de 1 Gbps. Assim como a tecnologia que a precede, a Gigabit Ethernet pega emprestadas características de um competidor para possibilitar tamanho salto tecnológico.

A escolhida dessa vez foi a Fibre Channel, tecnologia usada principalmente em redes de armazenamento de dados. A migração para a tecnologia Gigabit não exige grandes investimentos, já que as especificações técnicas se mantêm as mesmas das versões anteriores.

A rede Gigabit Ethernet suporta transmissões tanto no modo Half Duplex quanto em Full Duplex, dependendo do modo como é configurada. A principal mudança da tecnologia foi a introdução de um recurso conhecido como frame burst, através da qual uma estação pode transmitir diversos pacotes para o meio físico sem perder o controle.

O que o futuro nos reserva?
Atualmente, já está sendo desenvolvido o padrão Gigabit Ethernet de 100 Gbps, algo que se mostra especialmente desafiador devido à dificuldade em manter a forma dos pulsos de lasers transmitidos por fibra ótica. Dessa forma, a tecnologia está em um estado em que só funciona de forma eficiente em curtas distâncias e ainda está longe de ficar disponível ao grande público

O que o futuro nos reserva para banda larga?

O principal problema enfrentado para o avanço da Ethernet é sua retrocompatibilidade. Como durante os anos o tamanho máximo dos pacotes enviados permaneceu exatamente o mesmo, uma mudança nesse sentido faria com que milhões de pessoas perdessem o acesso à internet. Isso traz como consequência o subaproveitamento das velocidades de conexão disponíveis atualmente, que perdem muito tempo com o envio de milhões de pacotes que atualmente são considerados minúsculos.

O futuro aponta para um caminho semelhante ao usado no desenvolvimento de CPUs modernas, com o uso de cabos capazes de enviar sinais de forma paralela. Outra esperança é o uso da tecnologia DWDM (Dense Wavelenght Division Multiplexing), que usa uma única fibra ótica para a transmissão de dados através de lasers com comprimentos de onda ligeiramente diferentes entre si, técnica amplamente usada pelos cabos de transmissão submarinos.

Fonte: Tecmundo

Constituição da Islândia pode ter sugestões de redes sociais

Bandeira da Islândia.
O Parlamento da Islândia recebe nesta sexta-feira o projeto da primeira Constituição do mundo formulada com sugestões populares enviadas por meio de redes sociais na internet. A experiência islandesa com a criação de leis por meio de crowdsourcing (uso de habilidades individuais para gerar uma produção coletiva pela internet) levanta o debate sobre as possibilidades e os limites do uso da rede na formulação de políticas públicas.



A nova Constituição islandesa, que ainda deverá ser discutida no Parlamento e aprovada em um possível referendo, foi formulada por um conselho formado por 25 membros eleitos, mas contou com cerca de 3.500 sugestões enviadas por meio do Facebook, do Twitter, ou diretamente na página do conselho constitucional na internet. "Sem a participação popular, o projeto final da Constituição seria certamente diferente", afirmou a presidente do conselho constitucional, Salvör Nordal, em entrevista à BBC Brasil.



"Tivemos sugestões populares muito boas, que foram incorporadas à proposta final, principalmente nas áreas de transparência, direitos humanos e uso dos recursos naturais", observa Nordal.



Crise global
A proposta da constituinte islandesa, discutida há tempos nos meios políticos do país, ganhou força em 2008, quando o país foi um dos mais atingidos pela crise financeira global e assistiu ao colapso de seu sistema bancário. No final do ano passado, um fórum nacional com 950 membros, escolhidos por sorteio entre o eleitorado total do país, discutiu os princípios básicos para a formulação da nova Carta do país em um documento de 700 páginas.



Entre esses princípios, estavam os da transparência e abertura. Para garanti-los, os membros do conselho constitucional estabelecido em abril deste ano recorreram à internet.



Pelos mesmos canais, os eleitores eram convidados a enviar sugestões ao conselho e comentar cada rascunho de artigo, que poderia então ser reescrito para incorporar as demandas populares. As 3.500 sugestões e comentários recebidos podem parecer um número baixo, mas para um país de 400 mil habitantes é uma participação considerável. A página do conselho constitucional no Facebook conseguiu 4.300 "amigos".



Participação facilitada
"O povo da Islândia é bastante ativo politicamente, com um alto índice de filiação aos partidos políticos, mas ainda assim a resposta do público aos nossos trabalhos foi maior do que esperávamos", comenta a presidente do conselho. A participação popular dos islandeses na formulação da nova Constituição é facilitada pelo fato de quase 100% da população do país ter acesso à internet. Mais de 80% dos adultos islandeses têm perfis no Facebook.



Para Nordal, o exemplo islandês poderia ser aproveitado por outros países, mas ela reconhece que as particularidades de seu país favoreceram o sucesso da experiência da constituinte. "As coisas são mais simples aqui", reconhece. Para o especialista Charlie Beckett, professor do departamento de mídia e comunicação da LSE (London School of Economics), a questão chave para o sucesso da experiência islandesa é o fato de ser um país com uma população pequena, socialmente coesa, com alto nível de educação e amplamente conectada à internet, numa situação que é difícil de se encontrar em outros lugares.



Para Beckett, a internet pode ser útil para envolver o público em debates políticos, mas não é uma boa ferramenta para a tomada de decisões. "A proporção de gente que participa é sempre pequena, e os mais articulados ou com maior capacidade de mobilização acabam dominando as decisões", osberva. Ele cita como exemplo o Citizen's Briefing Book, compilação de sugestões populares coletadas na internet pelo presidente americano, Barack Obama, no início de sua gestão, em 2009, para orientar as prioridades de seu governo.



Mais de 500 mil pessoas participaram da consulta, mas a iniciativa acabou sendo deixada de lado após a legalização da maconha ser escolhida como a prioridade número um do público, à frente de questões como o fim da guerra no Afeganistão ou o controle das contas públicas.



Representantes
"Há uma boa razão para que a maioria das democracias se apoiem em representantes do povo em vez de votações diretas", observa Colin Delany, editor do site americano Epolitics.com. "A maioria das leis são altamente detalhadas, então a habilidade de um cidadão comum interpretar, digamos, uma mudança no parágrafo terceiro da subseção 8 de uma lei particular é limitada", afirma.



Para Delany, nos poucos casos em que há participação popular direta, como no caso dos Estados americanos que permitem projetos de lei sugeridos pelos eleitores, os resultados são desanimadores. "As pessoas podem votar em qualquer coisa que querem sem levar em consideração as consequências, por um lado, e por outro as empresas e outros interesses particulares frequentemente controlam o processo por meio de propagandas na TV ou outros meios", diz. "No mundo legislativo, o processo de crowdsourcing é comumente usado como artifício de propaganda", conclui Delany.



Na Islândia, a contribuição popular para a formulação da Constituição ainda deverá passar pela prova do Parlamento do país, que ainda poderá alterar o texto recebido nesta sexta-feira. O projeto final poderá ainda passar depois por um referendo popular, cuja realização ainda é discutida.



Pela atual Constituição do país, adotada após a independência da Dinamarca, em 1944, a única provisão para a realização de um referendo é a eventualidade de uma mudança na relação entre a Igreja e o Estado, mas o governo do país estuda a possibilidade de submeter o texto final do projeto à consulta popular para manter o princípio de abertura e transparência.



Fonte: Terra Tecnologia

Entendendo e localizando gargalos

Como localizar os gargalos em seu PC.
Para que seja completo e funcional, um PC não deve apenas dispor de todos os componentes necessários, como também precisa oferecer uma configuração equilibrada. Por exemplo, um equipamento voltada para o uso em jogos não precisa dispor de uma gigantesca capacidade de armazenamento; mas por outro lado, o HD precisa ser veloz o suficiente para garantir uma boa fluidez no carregamento das bibliotecas dos mesmos. O mesmo se dá com a Memória RAM, que deve ser suficiente requerimentos dos jogos bem como para o swap de disco do sistema. Quando isto não acontece, temos aquilo que chamamos de "gargalo"...

Em Tecnologia da Informação, gargalo é toda e qualquer especificação técnica de um equipamento, dispositivo ou componente, a qual não seja dotada dos recursos e funcionalidades necessários para o desenvolvimento de uma atividade específica.

De uma maneira mais vulgar, poderíamos dizer que o sistema acima citado é "tão poderoso o quanto o elo mais fraco de uma corrente". Na teoria, parece uma observação tão simples, que sequer justificaria a publicação de um artigo como este; mas na prática, as coisas são bem mais complicadas do que parece...

PC para gamers

Um entendido de Informática certamente vai saber identificar os gargalos de uma configuração específica; mas para os usuários comuns, esta é uma tarefa bem mais difícil para eles, uma vez que eles não dispõem dos conhecimentos técnicos necessários para esta tarefa.

Para variar, a grande maioria dos usuários de PCs desktops se enquadram nesta última categoria, que por sua vez geralmente não solicitam o Suporte Técnico dos especialistas no assunto. O resto, vocês já sabem: o leigo compra o seu equipamento "auxiliado" pelo vendedor da loja, julgando-o apto a rodar os jogos de última geração do mercado, quando na prática mal conseguem rodar alguns títulos de jogos mais antigos!

No máximo, tais equipamentos são dotados de bons processadores, o quais ironicamente não precisam ser poderosos para rodar os jogos mais atuais, embora eles auxiliem bastante no desempenho geral do sistema.

Em contrapartida, a existência de uma Placa de Vídeo 3D com um bom desempenho, assim como a razoável quantidade de Memória RAM e uma unidade de armazenamento veloz, geralmente são negligenciadas no processo de escolha e aquisição. Muitas vezes, o equipamento em questão possui tantas limitações, que fica difícil identificar qual dos componentes mais influenciará negativamente no desempenho geral do PC desktop!

Felizmente, a maioria dos problemas causados pelos gargalos podem ser resolvidos de forma simples, uma vez que basta identificar o componente limitado e promover a sua substituição.

Entretanto, uma vez que as especificações técnicas dos demais componentes podem influenciar na substituição do componente limitado, a troca acaba trazendo mais inconvenientes a que soluções. Por exemplo, vejamos um caso clássico em que um usuário leigo decide "transformar" o seu simples e modesto PC desktop em uma "poderosa" máquina de jogos, pensando que uma simples adição da placa aceleradora de vídeo irá "resolver" o seu caso...

Tais PCs desktops geralmente são montados sobre uma Placa-Mãe mini-ATX, com a maioria dos componentes integrados (a vulgar "Placa-Mãe tudo-onboard"). Como estas máquinas geralmente são usadas para a execução de atividades básicas (em geral o acesso a Internet e a editoração de documentos), o montador ganha maior flexibilidade para projetar um sistema de refrigeração modesto, sem se preocupar muito sobre as possibilidades de sobre-aquecimento em atividades mais pesadas.

Então, com a adição da aceleradora de vídeo, o sistema de refrigeração será sobrecarregado, uma vez que o componente irá gerar mais calor interno. Para variar, ele também irá interferir no fluxo de ar interno do sistema, comprometendo a função dos exaustores, já que terão mais dificuldades para puxar o ar quente.

À partir do momento em que temos uma placa aceleradora de vídeo, outro subsistema será sobrecarregado, se não for devidamente projetado para este propósito: a fonte de alimentação. Embora a sua capacidade nominal atenda aos pré-requisitos do sistema como um todo, a maioria dos usuários preferem utilizar as fontes genéricas disponíveis no mercado, acreditando que elas realmente forneçam 450 Watts!

Geralmente, a sua substituição é simples, bastando adquirir um modelo de boa reputação no mercado, dotadas preferencialmente dos circuitos de PFC e com uma eficiência próxima dos 80%. Mas até o usuário descobrir que será necessário substituir a fonte, alguns estragos poderão acontecer...

Continuando, uma vez que tais fontes são bastante exigidas na execução dos jogos mais modernos, entra em cena mais um importante dispositivo integrado da Placa-Mãe: o circuito regulador de tensão. Ele é o responsável por converter a tensão proveniente da fonte de alimentação (12v) para os valores utilizados pelos componentes da Placa-Mãe, como o processador, o chipset e a Memória RAM. Quanto maior for a carga de processamento sobre o sistema, maior será a necessidade de contar com os circuitos reguladores de tensão apropriados!

Além de não contarem com todos estes requintes na definição dos componentes em seu processo de fabricação, as placas-mãe baratas oferecem circuitos reguladores de tensão com 3 ou 4 fases no máximo. Então, as consequências disto poderão ser bastante desastrosas: com menos fases, tais circuitos sofrerão bastante com problemas de aquecimento; além disso, o calor excessivo irá interferir na estabilidade geral da tensão de trabalho fornecida, causando os clássicos problemas de instabilidade, travamentos e erros de proteção geral (a famosa tela blue-screen). Dependendo da qualidade dos componentes utilizados, a vida útil da placa-mãe poderá ser abreviada.

Placa mãe para PC Games

Viu como este simples upgrade da placa aceleradora de vídeo, pode potencializar uma série de problemas e limitações em um PC desktop básico? Embora as necessidades computacionais apontassem a ausência da placa aceleradora de vídeo como o principal gargalo de uma máquina destinada a rodar jogos (mas que não foi projetada para este propósito), uma série de fatores definiram estes limites para a expansão do PC desktop.

Em poucas palavras: outros gargalos puderam ser identificados! Muitas das vezes, um upgrade mais conservador e bem definido, pode trazer resultados mais desejáveis a que um upgrade mais agressivo, já que os novos componentes se situariam no mesmo patamar dos demais componentes. Por exemplo, a inclusão de uma simples placa aceleradora de vídeo intermediária (como uma Radeon 6570) não irá comprometer tanto os recursos de alimentação e refrigeração do sistema hospedeiro, tal como aconteceria com uma Placa de Vídeo mais avançada (como uma Radeon 6870), que consumirá muito mais energia e dissipará mais calor.
Placa de Vídeo
E agora, vem o aspecto mais irônico: um sistema com componentes superdimensionados também pode apresentar os seus gargalos! Por exemplo, as CPUs mais modernas podem não contar com todos os recursos tecnológicos mais recentes, dependendo da Placa-Mãe em questão.

Geralmente, isto acontece especialmente com o upgrade de CPUs, onde a Placa-Mãe projetada para funcionar com uma plataforma mais antiga ou até mesmo para atender a uma revisão anterior, não reconhece as novas funcionalidades da nova CPU em questão.

Por exemplo, as CPUs desenvolvidas pela AMD e baseados na arquitetura K10 (Phenom) são retro-compatível com as placas-mãe da arquitetura K8 (Athlon64), mas algumas concessões serão obrigadas: o uso do barramento HyperTransport mais lento e dos estágios de gerenciamento de energia menos agressivos. Não raro, muitas placas-mãe suportavam somente as memórias DDR2-800, ao passo que os novos processadores são compatíveis com as memórias DDR2-1066 (mas que não poderiam utilizá-las em virtude das limitações das placas-mãe).

Fonte: Guia do Hardware

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Powered by Blogger