segunda-feira, 28 de fevereiro de 2011

Tecnologia brasileira premiada no exterior

A Módulo, empresa brasileira especializada em soluções automatizadas para GRC (Governança, Riscos e Compliance), acaba de receber o prêmio internacional “Global Excellence Awards 2011”, concedido pela Info Security Products Guide, publicação norte-americana voltada para a Segurança da Informação. A empresa foi premiada na categoria “melhor solução em Gestão de Riscos”, pelo software Módulo Risk Manager. O júri que escolheu os vencedores foi composto por mais de 50 especialistas de diversos países. O anúncio foi feito no último dia 16 em um jantar em San Francisco, Estados Unidos, país onde a empresa possui escritório e planeja crescer.

Fundada em 1985, a Módulo é uma empresa brasileira, com atuação internacional, especializada em prover soluções automatizadas para Governança, Riscos e Compliance (GRC). Atua nas áreas de software, consultoria e educação. Com sede no Rio de Janeiro, tem cerca de 350 funcionários, distribuídos entre a matriz e filiais em São Paulo, Distrito Federal, Estados Unidos e Europa. Primeira empresa de segurança da informação no mundo certificada ISO 27001 e ISO 9001 desde 1998, a Módulo conta com clientes de todos os setores, tendo participado de projetos reconhecidos internacionalmente como as eleições eletrônicas brasileiras, a entrega de imposto de renda via Internet e o Sistema de Pagamentos Brasileiro (SPB).

Home Page: Módulo

Os mais seguros e inseguros programas P2P

software, segurança, Ares, Azureus, BitComet, Bittorrent, DreaMule, DC++, <br />Deepnet Explorer, E-Mule, eXeem, FileCroc, Frostwire, Gnucleus, Halite, KCeasy, <br />Limewire, Phex, Shareaza, Soulseek, µTorrent.
P2P é a designação para programas de partilha de arquivos entre computadores que façam parte da rede do programa usado, (do inglês: par-a-par), entre pares (tradução livre ponto a ponto), é uma arquitetura de sistemas distribuídos caracterizada pela descentralização das funções na rede, onde cada nodo realiza tanto funções de servidor quanto de cliente, isto só por si já representa um risco para a segurança de cada PC, no entanto temos alguns programas que nos oferecem alguma segurança.

Inseguros:
(Programa que trás algum tipo de Spyware ou Adware)

Azureus Vuze 4.0.0.2
BittorrentUltra
Blubster
eDonkey2000 (DEAD)
Freewire (DEAD)
Kazaa
Kiwi Alpha
NeoNapster
OneMX
Piolet
Shareaza V4 (non-official Shareaza)
Warez P2P
Xunlei (WebThunder

Seguros:
(Limpo de Spyware ou Adware)

Ares
Azureus 2.5.0.0
BitComet
Bittorrent
DreaMule--- Programa Brasileiro e considerado como um dos mais seguros e confiáveis.
DC++
Deepnet Explorer
E-Mule
eXeem (DEAD)
FileCroc
Frostwire
Gnucleus
Halite
KCeasy
Limewire
Phex
Shareaza
Soulseek
µTorrent

Cuidado:
(São programas que rapidamente mudam as suas políticas, não se sabendo se de um momento para o outro poderão ou não incluir Spyware ou Adware)

BearShare
Crazaa
iMesh
Morpheus
Tuotu
Bitlord

Fonte: Blogrodpaulo

A fórmula secreta da Coca-Cola

Receita mais bem guardada do mundo teria óleos de noz moscada e laranja e até coentro.
O site de um programa de rádio pública, nos Estados Unidos, revelou, nesta terça-feira (15/02/2011), todos os ingredientes da receita mais bem guardada – há mais de 125 anos – do mundo: a fórmula da Coca-Cola. Alguns dos ingredientes listados pelos produtores do programa de rádio This American Life (a vida americana, em tradução livre) são familiares para qualquer pessoa que já leu o rótulo do refrigerante: água, açúcar, ácido cítrico e caramelo.

Mas ninguém imaginava que o refrigerante teria óleos de noz moscada e laranja, ou óleo de néroli. Segundo o site, a receita foi publicada em 1979 em um jornal local de Atlanta, nos Estados Unidos, onde fica a sede da empresa, mas ninguém parece ter prestado muita atenção na época. A reportagem de 32 anos de idade, que estava na página 28 do jornal , mostra a fotografia de uma fórmula que dizia ser a cópia da Coca-Cola.

Aparentemente, a fórmula foi escrita por um farmacêutico, amigo do criador da Coca-Cola, John Pemberton, e teria sido passada de mão em mão ao longo de várias gerações. Atualmente, uma lata de Coca-Cola diz ter como ingredientes apenas "aromas naturais, incluindo cafeína, açúcar, ácido fosfórico e colorantes".

O site consultou o historiador Mark Pendergrast, que escreveu sobre a história do refrigerante. Pendergrast, que diz acreditar que a fórmula pode ser verdadeira, disse que “certamente é uma versão da fórmula”.

Veja abaixo a lista de ingredientes do famoso refrigerante divulgada pelo site:

Extrato líquido de folha de coca: 11,07 mililitros (ml)

Ácido cítrico: 90 ml

Cafeína: 30ml

Açúcar: 30 (medida desconhecida)

Água: 9,46 l

Suco de limão: 0,946 l

Baunilha: 28,35 g

Caramelo: 42,525 g (a quantidade pode ser maior para dar cor)

O sabor secreto 7X (60ml do sabor 7x a cada 18,927 l de xarope)

Álcool: 240 ml

Óleo de laranja: 20 gotas

Óleo de limão: 30 gotas

Óleo de noz-moscada: 10 gotas

Coentro: 5 gotas

Néroli (extrato de flor de fruta parecida com mexerica): 10 gotas

Canela: 10 gotas



Fonte: R7- Tecnologia e Ciência

domingo, 27 de fevereiro de 2011

Como procurar emprego no Twitter

dicas, twitter, carreira TI, internet, rede social, microblogs, emprego, vagas.
Atualmente existem vários ferramentas e serviços para se encontrar um emprego usando a internet, mas grande parte deles são sites ou blogs focados em determinados nichos e que não necessariamente oferecem as vagas mais novas, ou as informações mais recentes. Neste caso, o Twitter poder ser uma ferramenta e tanto na sua recolocação profissional.


O Twitter é uma rede social de microblogs que, após uma primeira onda de usuários conversando sobre uma vaga, outras empresas e perfis especializados em vagas de emprego e estágio começam a divulgar essas tais vagas dos usuários. Mas há um método para que você encontre esses empregos em praticamente qualquer área pretendida, e normalmente já com o contato direto do responsável pela vaga.

Aprenda, em apenas três passos, como procurar empregos usando o Twitter:

Passo 1. Acesse a busca do Twitter (http://search.twitter.com/)

Página inicial de busca no Twitter
Página inicial de busca no Twitter


Passo 2. Efetue sua busca usando uma das hashtags relacionadas a vagas de emprego (#emprego, #vaga, #estagio) em conjunto com a especialidade da vaga (engenheiro, programador, designer, telemarketing, etc).

Exemplos de busca:
#vaga engenheiro
#estagio programador
#emprego administrador

Passo 3. Agora basta selecionar a vaga e acessar o endereço anunciado, ou enviar seu currículo para o e-mail especificado.

Um exemplo de busca por vaga para programador
Um exemplo de busca por vaga para programador


Dicas Extras

Passo 4. Geralmente você pode ignorar todas as respostas que tenham o desenho de um ovo como avatar, pois estes são compostos de usuários novos ou que só fazem spam.

Um exemplo de busca de baixa qualidade, veja<br />como o avatar é o desenho de um ovo
Um exemplo de busca de baixa qualidade, veja como o avatar é o desenho de um ovo


Passo 5. Se você busca uma vaga somente na sua cidade ou estado, pode personalizar colocando o nome dela na busca também, por exemplo: #vaga analista #bh, que indica vagas de analistas para Belo Horizonte.

Passo 6. Para buscar vagas em empresas estrangeiras, uma boa ideia é procurar em inglês, usando a hashtag #job, como em #job developer, em busca de uma vaga para desenvolvedor.

Agora é com você! Boa sorte na sua busca por um novo emprego!

Fonte: TechTudo

sábado, 26 de fevereiro de 2011

Celulares afetam atividade cerebral

gadgets, celular,
Pesquisadores do NIH (National Institutes of Health) - órgão norte-americano de pesquisas na área de saúde - emitiram um relatório no dia 22/02/2011, afirmando que os celulares afetam as atividades cerebrais, quando ficam no ouvido dos usuários durante longos períodos. Para chegar a essa conclusão, os pesquisadores realizaram um estudo para analisar como o cérebro reage aos campos eletromagnéticos gerados pelos sinais de telefones móveis.


E uma das constatações foi a de que após 50 minutos em que uma pessoa fica ao celular é possível verificar um aumento de cerca de 7% do metabolismo da glicose - utilizado para medir o nível das atividades dos neurônios.

O relatório aponta, no entanto, que não é possível afirmar que essa alteração da atividade cerebral pode gerar câncer ou qualquer outro dano aos usuários de celular. O NIH pretende agora aprofundar os estudos, com o intuito de verificar quais os efeitos negativos que a exposição aos sinais eletromagnéticos pode causar aos seres humanos.

Fonte: Agência Reuters

sexta-feira, 25 de fevereiro de 2011

Verifique o sinal de seu celular

gadgets, celular, Open Signal Maps, operadora de celular, 3G, velocidade, conexão 3G, iPhone, Android.
Não tem jeito: não importa a operadora ou o lugar onde você mora, o sinal do celular pode sumir de repente, quando você menos espera. Com o site Open Signal Maps você escolhe determinada região e vê toda a cobertura de sinal, inclusive em 3G, de todas as operadoras de telefonia do local.


No menu à direita você pode selecionar uma das duas opções disponíveis: a localização das torres ou uma mapa de calor. Com o mapa de calor, o site indicará as regiões mais “quentes”, ou seja, com sinal mais forte, utilizando a cor vermelha.

As regiões com sinal fraco ficam em um tom mais próximo do azul. Já os lugares sem sinal ficam sem cor nenhuma. Logo abaixo, você pode selecionar se deseja ver a cobertura total disponível na região ou se prefere conferir a de cada uma das principais operadoras do país.

Em Tower Locations você pode ver a quantidade e localização das torres de celular espalhadas pela cidade. Do mesmo jeito que no mapa de calor, é possível selecionar cada uma das operadoras ou ver toda a cobertura disponível.

Ainda mais legal que o site é o aplicativo disponível para a plataforma Android do serviço. Nele você pode checar a potência do seu sinal, além de saber qual a distância e em que direção está a antena de celular mais próxima da sua operadora.

O programa te mostra, em tempo real, qual a variação do sinal do local onde você está. Já em velocidade, você pode ver quão rápida está sua conexão 3G em determinado lugar. Infelizmente, o app ainda está em desenvolvimento para o iPhone e também não tem previsão de chegada para outras plataformas.

Conheça e teste o Open Signal Maps, acompanhe o vídeo abaixo para sanar alguma dúvida que você ainda tenha:



Fonte: Olhar Digital

quinta-feira, 24 de fevereiro de 2011

O Google não é mais o mesmo?

Google, Groupon, IPO, Google Wave, Google Buzz, Google Notebook, AdSense, AdWords, Gmail, CEO, Larry Page, Sergey Brin, Eric Schmidt, Steve Jobs, Apple.
Quem tem mais de 30 anos deve se lembrar do clássico comercial do Banco Bamerindus que dizia assim: “O tempo passa, o tempo voa, e a poupança Bamerindus continua numa boa”. Esse é um daqueles comerciais que nunca vamos esquecer apesar do banco não existir mais. Como a própria história do banco conta, nem tudo continua numa boa ao longo do tempo.

O tempo e o mercado costumam ser implacáveis com as empresas. Nessa hora pego para Cristo o Google, alguns acontecimentos recentes e outros não tão recentes assim.

O Google deixou escapar na mídia a sua intenção de criação de um novo produto chamado Google Offers para competir no mercado mais quente do momento, as compras coletivas. A novidade veio após a tentativa do Google de comprar o Groupon, maior empresa desse segmento, por US$ 6 bilhões. O Groupon recusou a oferta e vai tentar um IPO na casa dos US$ 15 bilhões.

O fato mais relevante nessa história, não foi a recusa da oferta, nem o IPO, nem tão pouco o tamanho que o segmento de compras coletivas está tomando. Mas sim o fato de que o Google está deixando de ser uma empresa que as outras empresas seguem e copiam, característica de empresas inovadoras e líderes, para ser, ela própria, uma empresa que segue o caminho de outras empresas. Em certos segmentos, o Google já não é mais quem abre o caminho mata a dentro, e sim quem apenas segue o líder desbravador.

E a história recente do Google trás alguns capítulos interessantes. Mesmo quando o Google tentou inovar drasticamente, ele falhou miseravelmente. Vide Google Wave, Google Buzz e Google Notebook. O Google hoje vive de seus antigos sucessos arrebatadores como o AdSense/AdWords e Gmail.

Estaria o Google sentado no trono dos seus sucessos anteriores tentando (e desistindo de) inovar drasticamente, deixando seu papel de líder inovador e passando a seguidor das tendências bem sucedidas do mercado?

Parece que sim. A sorte do Google é que seu produto principal, o AdWords/AdSense parece ser inabalável, o que lhe garante um belo colchão bem gordo para fazer o que quiser, como inovar drasticamente sem se preocupar com o sucesso ou entrar em mercado de sucesso que nunca fizeram parte do seu portifólio.

A mudança do CEO da empresa, foi anunciado que Eric Schmidt será substituído por Larry Page, co-fundador da empresa, como CEO. Só para contextualizar, 10 anos atrás Larry e Sergey Brin, ambos então com 27 anos, dividiam a presidência da empresa quando foram substituídos por Eric, então um experiente gestor de 45 anos.

Era o que o Google precisava, de alguém experiente para fazer acontecer o que estava na mente jovem de dois rapazes incríveis. Eric conseguiu com maestria conduzir a empresa durante um período de forte crescimento que costuma ser muito doloroso para empresas menos preparadas.

Mas agora, com a volta de Larry como CEO, o Google parece querer resgatar seu mojo de startup, tentando resgatar aquela mentalidade empreendedora jovem, talvez com o objetivo de tentar transformar Larry Page no “Steve Jobs” do Google.

Isso sem perder a sua capacidade de gestão, já que Eric continua na empresa como Executive Chairman. Se Larry não tivesse continuado na empresa após ser presidente, até arriscaria dizer que o Google estaria tentando escrever a mesma história da Apple com a volta do Steve Jobs, mas isso é outro papo.

O que me chama a atenção nesse contexto todo é a mudança de mind set do Google, de achar que é tão poderoso que não possa falhar por completo – Too big to fail -, de que passar de seguido à seguidor é irrelevante para a manutenção do seu sucesso e de que pode facilmente resgatar seu jovem espirito original e se reencontrar com seu passado. Posso estar enganado, mas essa mudança parece ser o início do fim do Google como nós o conhecemos.

Talvez o tempo esteja passando para o Google e as coisas deixando de continuar numa boa.

Fonte: Blogs/Negócios - TechTudo

quarta-feira, 23 de fevereiro de 2011

Como procurar emprego usando o Google Alerts

Como achar vagas de trabalho em sua área usando o Google Alerts.<br />
Com a popularização da internet, a busca por informação facilitou muito a vida das pessoas, principalmente no que diz respeito à procura de empregos. Se antes comprávamos jornal todo domingo para fazer as buscas, hoje temos a disposição diversos sites que oferecem vagas, páginas das empresas atualizadas diariamente, redes sociais direcionadas ao networking e à divulgação de oportunidades.


Mas existem algumas ferramentas gratuitas que podem facilitar e ampliar ainda mais essa busca, como o Google Alerts. A ferramenta de monitoramento do Google pode ser usado para diversas finalidades: Atualização sobre uma área profissional; monitoramento de atividades de uma empresa em que você deseja trabalhar e, também, procurar oportunidades de trabalho.

Quer aprender a configurar o Google Alertas para te avisar das próximas vagas? Basta seguir o passo a passo abaixo:

Passo 1. Entre em www.google.com/alerts.

Passo 2. Escolha os termos que deseja adicionar. Dica: Misture sempre duas variáveis, como “Analista da Qualidade” vagas, ou “Assistente Administrativo” vagas. Use sempre aspas em termos exatos para não buscar termos que não desejar. Também é interessante usar uma terceira variável: Cidade. Isso, claro, se você tiver alguma de preferência.

Procurando vagas de trabalho usando o Google Alerts

Passo 3. Você pode escolher entre receber oportunidades de sites, blogs, fóruns e discussões (redes sociais). O ideal aqui é que você escolha “Todos”, pois nunca se sabe onde uma vaga pode ser publicada.

Procurando vagas de trabalho usando o Google Alerts

Passo 4. A frequência fica a seu critério. A sugestão é que use ao menos a opção diária, para não perder nenhuma seleção.

Procurando vagas de trabalho usando o Google Alerts

Passo 5. Se você possuir e-mail de uma conta Google, é possível configurar os alertas para que sejam enviados para o seu email ou leitor de RSS diariamente.

Procurando vagas de trabalho usando o Google Alerts

Toda vez que os termos que você estiver monitorando for indexado, ou seja, visto pelo Google, ele te avisará dos novos conteúdos, da forma que escolheu quando inseriu o alerta.

Esse é um dos meios para se achar vagas que normalmente não seriam facilmente encontradas. Para melhorar o sistema de monitoramento, refine as palavras-chave, utilize sinônimos e faça os ajustes necessários.

Fonte: TechTudo

terça-feira, 22 de fevereiro de 2011

Informação que vicia

As diversas possibilidades de comunicação pela internet e pelos dispositivos móveis, tornam os usuários cada vez mais dependentes da tecnologia.
O uso cada vez maior de aparelhos como smartphone e iPhone atrelado à proliferação dos canais de comunicação à distância como MSN, skype e redes sociais, fez nascer um novo tipo de usuário: o infoholic, viciado em informação, que usa a tecnologia para manter-se conectado aos amigos ou ao mundo corporativo 24 horas por dia.


Atualmente, não é incomum ver alguém em um restaurante ou em uma loja com a atenção mais voltada ao seu celular do que ao mundo ao seu redor. E não é para menos. O mundo produz cerca de 1,5 bilhão de gigabytes de informação impressa ou audiovisual por ano, e estimase que já possua muito mais que 4 bilhões de páginas da internet. Estes dados justificam o crescente número de pessoas incapazes de se desconectar do universo virtual.

OUTRO LADO DA MOEDA
Entretanto, apesar da sua praticidade, a comunicação digital pode ser prejudicial aos relacionamentos pessoais e profissionais se não houver um equilíbrio entre mundo virtual e real. É preciso saber a hora de promover um encontro pessoal e não ficar somente por trás da tela do computador. O contato por e-mail, por exemplo, é frio e permite uma série de fragilidades na comunicação.

A tecnologia alia distância à facilidade de acesso rápido. Mas, em um mundo cada vez mais veloz, é no contato próximo que conseguimos ações mais assertivas e percebidas de forma real. Em um ambiente corporativo em que há um crescimento estrutural voraz, é preciso conhecer e reconhecer quem está sentado na mesa ao lado.

Façamos uso da tecnologia para aumentar nossa rede, aproximar a informação que precisa de imediatismo. Porém, vamos utilizá-la com sabedoria de forma que o contato interpessoal seja a ponta final para resolução do entendimento.

Não se deve usar a tecnologia para justificar o surgimento dos infoholics, a culpada é a ansiedade pela qual esse grupo foi tomado. É como se a pressão e a competitividade do mundo atual exigissem estar por dentro das notícias e das informações que a internet instantaneamente disponibiliza.

É evidente que a telefonia celular e o e-mail, por exemplo, se tornaram ferramentas fantásticas para o trabalho, tendo ampliado os limites geográficos na atuação das empresas e oferecido uma velocidade operacional extraordinária.

Mas jamais podemos nos tornar reféns da tecnologia e deixando de lado outras atividades que não dependam dela. Acredito que aqueles que vão concentrando o contato só nos meios virtuais perderão competitividade em relação àqueles que conseguem fazer um mix das duas formas de relacionamento.

Não há tecnologia que substitua uma boa conversa em um bar ou na casa de um amigo. Mesmo conversando com alguns amigos todos os dias no MSN ou skype. Espero que as novas gerações não percam isso.

Os prós e contras da comunicação virtual


Fonte: GESTÃO & NEGÓCIO

segunda-feira, 21 de fevereiro de 2011

Celular movido a energia solar

Android Umeox Apollo.
A empresa holandesa Intivation aproveitou o Mobile World Congress, que está ocorrendo em Barcelona, na Espanha, para apresentar o celular Android Umeox Apollo. O aparelho é equipado com uma placa que capta energia solar e a usa para recarregar a bateria do celular. A novidade, chamada de Umeox Apollo, foi considerada ecologicamente correta por proporcionar uma fonte de energia alternativa de fácil utilização e praticidade. Além disso, ele foi criado para pessoas com um perfil aventureiro, que necessitam de um aparelho mais resistente, sua estrutura é reforçada e o acabamento foi feito com materiais rígidos.

As funções do Android seguem os padrões do mercado. A tela de 3.2”, assim como a de outros smartphones, é sensível ao toque. O Umeox tem memória interna de 1 GB, rádio FM, câmera digital, Bluetooth e processador Media Tek.

Para que o celular seja mantido com a bateria carregada sempre, o ideal é que ele permaneça exposto ao sol diariamente por duas horas e meia. Caso a bateria se esgote por inteiro serão necessárias até 17 horas para que ela seja recarregada 100%.

Além de aproveitar a energia limpa, o celular foi desenvolvido para ter um preço acessível. A expectativa é de que o aparelho custe até R$ 200 no Brasil, já que ele será comercializado internacionalmente a US$ 100. A empresa informou que ele deve chegar às lojas da Europa, Índia e América já em maio deste ano.

Fonte: Rede TV! Notícias/Tecnologia

domingo, 20 de fevereiro de 2011

Como publicar seu livro na web

Scribd: A maneira mais prática de publicar seu livro na web.
Se você tem textos, artigos ou livros prontos, saiba que você já pode publicá-los na web de forma rápida e gratuita. Foi com essa proposta que o Scribd conquistou mais de 60 milhões de usuários, formando a maior rede de compartilhamento de documentos da web. Siga os passos abaixo e seja você o seu próprio editor:


Passo 1. Faça seu cadastro e o primeiro upload

Acesse o Scribd. Logo na home você preencherá um cadastro com e-mail e senha, ou entrará com sua conta do Facebook. Escolha a opção "Upload" ou "Carregar" (em português) e clique na pasta onde está o arquivo (as extensões aceitas são doc, txt, xls, ppt e pdf) , que será convertido em formato web.

Faça seu cadastro e o primeiro upload

Passo 2. Descreva seu documento

Ao fazer o upload, você preenche dados como título, categoria, tags (palavras-chave) e resumo. Na forma padrão, seu documento ficará acessível à leitura do público, mas é possível modificar isso. Todos os dados preenchidos sobre o seu documento são importantes pois o Scribd indexa e disponibiliza os documentos para todos os mecanismos de busca da internet.

Descreva seu documento
Descrevendo e categorizando o seu texto

Passo 3. Visualize o documento e divulgue

Após a publicação, o Scribd permite que você compartilhe seus documentos nas redes sociais, principalmente Twitter e Facebook. Se você tiver um blog ou site para colocar, também pode copiar o código, ou também enviar diretamente o link de sua publicação para uma lista de e-mails.

A visualização da leitura é feita por um menu de navegação bem fácil de usar. O usuário pode escolher entre a opção "livro", "apresentação de slide" ou "rolar" (com mouse ou setas para baixo). Você pode dar zoom, ver o conteúdo em tela cheia, buscar palavras e explorar a biblioteca.

Visualizando seu arquivo
Visualizando seu arquivo

Passo 4. Detalhando seu perfil e interagindo

A sua página de usuário é o local onde você colocará a sua foto, dados pessoais e e-mail para contato. O programa incentiva muito a interação e a troca. Você pode pesquisar por assunto e adicionar títulos à sua coleção pessoal, seguir pessoas, e fazer comentários em documentos lidos. Em sua conta, ainda, você terá acesso a uma estatística de quantas pessoas leram o seu documento, quando, e quem compartilhou ou comentou em seus textos.

Preenchendo as informações sobre você
Preenchendo as informações sobre você

Você não precisa mais esperar que alguém publique seus escritos. Aproveite também para pesquisar e estudar, pois o Scribd tem livros, revistas, manuais e documentos de todos os tipos, assuntos e abordagens. E além de ver seu texto publicado, você vai poder trocar ideias com muita gente interessante.

Fonte: TechTudo

sábado, 19 de fevereiro de 2011

Como tirar a poeira do PC

Com o tempo, seu computador pode ficar inteiramente sujo; veja como tirar toda essa poeira e deixá-lo limpinho!

Dicas: Veja como deixar seu PC limpo por dentro e por fora.
A poeira acumulada em seu PC pode parecer inofensiva, mas na verdade é um perigo. Ela pode se aglomerar em “tufos” que atrapalham o funcionamento das ventoninhas que retiram o calor de componentes críticos, como o processador, e entupir saídas de ar dificultando a refrigeração. Com isso o PC pode superaquecer, o que pode levar a “reboots” misteriosos ou até a uma falha total de hardware.


Mas resolver esse problema é fácil e não leva mais que alguns minutos. Em primeiro lugar, desligue o micro e desplugue todos os cabos, exceto o de força. Toque em alguma parte de metal exposto do gabinete (como a cobertura dos slots PCI) para descarregar a energia estática acumulada em seu corpo e impedir que ela danifique componentes internos. Agora sim, desplugue o cabo de força.

Prepare o ambiente

Use sapatos e trabalhe em um ambiente sem carpete. Algumas precauções adicionais podem proteger ainda mais seu equipamento. Coloque uma camada de borracha (como um Mouse Pad, por exemplo) entre o PC e a mesa de trabalho. O ideal é trabalhar usando um bracelete anti-estática (encontrado em lojas de componentes eletrônicos) conectado a uma parte de metal do PC.

Abra o gabinete. Muitos deles possuem portas laterais presas por parafusos Phillips, mas os mais recentes tem parafusos que podem ser removidos com os dedos, apelidados de “thumbscrews” – consulte o manual do fabricante para checar as instruções corretas.

Faxina completa

Tire com as mãos qualquer tufo de cabelo, poeira e outras obstruções que você encontrar dentro do micro. Não use um aspirador de pó!. Depois, use uma lata de ar comprimido (também encontrada em lojas de componentes) para “soprar” o restante da poeira para longe dos slots e frestas. Use um bico comprido para alcançar os cantos mais difíceis.

Use ar comprimido, e amarre os cabos para desobstruir a ventilação
Use ar comprimido, e amarre os cabos para desobstruir a ventilação

Se possível faça uma limpeza completa em todo o gabinete, mas concentre-se em tirar a sujeira das áreas de ventilação. Amarre os fios em feixes e fixe-os nas laterais, para que não obstruam o fluxo de ar. Feche novamente o gabinete e reconecte tudo. Para diminuir o acúmulo de poeira, tente manter o computador longe do chão, já que a maioria da poeira é originada aí. Repita esse ritual de limpeza anualmente, principalmente se você tiver animais de estimação em casa.

Não se esqueça das portas

Com o passar do tempo, portas e conectores também podem ficar cheios de poeira, o que pode ocasionar mau-contato e outros problemas. Se você estiver com problemas ao conectar dispositivos USB, por exemplo, limpar os conectores pode ser o primeiro passo rumo à solução.

Antes de mais nada, desligue o micro. Se alguma das portas estiver visivelmente entupida – com papel, giz de cera, chiclete ou vítima de outra arte similar de uma criança – remova gentilmente a “obstrução” usando um palito de dente. Lembre-se: as portas Ethernet, serial e similares possuem pinos frágeis. Faça movimentos cuidadosos de dentro pra fora para evitar que eles se dobrem ou quebrem, o que só iria piorar o problema.

Tire a poeira acumulada nas portas para evitar mal-contato
Tire a poeira acumulada nas portas para evitar mal-contato

Para situações menos “grudentas”, use a lata de ar comprimido para se livrar da poeira. É muito importante lembrar que essas latas contém gás comprimido que sai muito gelado e pode ser perigoso se inalado, então é importante manter a lata fora do alcance de crianças. Use os jatos de ar em pequenos disparos.

No caso das portas USB, termine a limpeza com um cotonete embebido em álcool isopropílico ou em uma solução de limpeza própria para componentes eletrônicos. Não use o cotonete nas portas Ethernet, serial ou qualquer outra com pinos visíveis, já que fiapos de algodão podem se prender a eles e piorar o problema. Deixe o micro desligado por uma hora até a solução secar e pronto.

Fonte: IDG Now!

sexta-feira, 18 de fevereiro de 2011

O melhor processador é o Intel Celeron 430 1,8 GHz

Qual é melhor: a arquitetura NetBurst do Pentium 4 ou a arquitetura Core 2 do novo Intel Celeron.
O processador Intel Celeron 430 1,8 GHz dá aos PCs desktop um nível equilibrado de tecnologia comprovada a um preço excepcional. Este processador Celeron é baseado na nova microarquitetura de uso eficiente de energia, o que permite integrar PCs desktops menores, mais silenciosos e com maior capacidade. É baseado na mesma tecnologia dos processadores Core 2. Oferece performance suficiente para uso no dia-a-dia a um custo excepcionalmente baixo.


A meu ver, não somente por minha máquina ter esse processador, o Celeron 430, é o melhor processador, embora seja a linha de baixo custo da Intel, é uma escolha preferível a qualquer Pentium 4, isso porque ele é um processador de arquitetura Core, muito superior à arquitetura do Pentium 4.

Não que eu não sonhe em ter um computador com processador Intel Core i7, pois tenho consciência que esse é bem superior, mas por hora não dá, então para mim o Intel Dual Core Celeron é o melhor justamente por isso, porque sem ele meu computador não "roda".

E também pela sua avançada arquitetura, o Celeron 430 apresenta desempenho muito próximo à antiga família Pentium 4, mas com um consumo de energia é até 75% menor! E o que isso quer dizer? isso quer dizer que este Celeron 430 é extremamente frio, e esquenta muito pouco (não passa de 40°C) e portanto permite que o seu PC seja significativamente mais econômico e silencioso, ideal para quem quer silêncio e conta de luz mais barata.

Se queremos chegar a algum lugar, acredito que devemos parar de acreditar nas antigas e vagas argumentações de leigos como: "Pentium 4 é primeira linha, Celeron é segunda linha", ou "Pentium 4 é muito melhor".

Clique aqui e compre um ótimo processador para seu PC

quinta-feira, 17 de fevereiro de 2011

O velho problema dos travamentos

O Windows e seus famigerados travamentos.
O Windows, como qualquer outro sistema operacional, bem como os aplicativos, drivers e outros softwares do gênero, sempre travou ao longo dos anos, desde a época de suas primeiras versões ao mais moderno e atualizado Windows 7. No entanto, ele ganhou a fama de ser um sistema operacional instável, graças em grande parte ao gerenciamento de processos, que antigamente não recebia tanta atenção o quanto nos dias atuais, onde a estabilidade passa a ser tão importante quanto o desempenho.

Independente do sistema operacional em uso, qualquer PC desktop irá travar ou sofrer problemas relacionados à instabilidade, se a montagem, configuração e integração dos dispositivos físicos, não for feita de forma adequada.

À começar pela "espinha dorsal" - placa-mãe, CPU e RAM - certifique-se de que todos estes componentes sejam compatíveis entre si. Parece óbvio? Para muitos técnicos de informática que se limitam a encaixar as peças, sim; mas para especialistas e entusiastas do assunto, existem alguns detalhes técnicos que podem se passar despercebidos, mas devem ser analisados mais minuciosamente...

À primeira vista, as placas-mãe adquiridas geralmente são compatíveis com as CPUs que os usuários desejam equipar seus PCs desktops. No entanto, uma determinada placa-mãe lançada em uma data específica, somente garantirá o suporte aos processadores lançados antes daquela época em questão.

Muitos fabricantes lançam revisões da arquitetura, oferecendo processadores mais atuais, eficientes e estáveis. Embora "funcionem", estes não são devidamente reconhecidos pelo sistema, tendo inclusive muitos de seus recursos desabilitados.

Nesses casos, uma atualização de BIOS geralmente resolve, DESDE que o fabricante da placa-mãe informe o suporte oficial do novo processador, através dos changelogs (uma documentação que descreve as melhorias feitas nos softwares - neste caso, o firmware - desde a versão anterior).

Ainda considerando a atualização de BIOS, nem todos os firmwares são isentos de erros, sendo necessário efetivar as devidas correções. Novamente, confiram nos changelogs oficiais se tais correções feitas afetam a estabilidade do sistema e faça o update, se necessário.

Já os módulos de memória, estes também podem padecer do mesmo mal que as CPUs: muitos módulos recém-lançados podem não ser totalmente compatíveis com as placas-mãe mais antigas; para variar, os updates de BIOS geralmente não contemplam o suporte a novos módulos de memória, embora funcionem na grande maioria dos casos (por isto, há uma tabela publicada no manual da placa-mãe, informando os fabricantes e modelos dos módulos de memória RAM testados pelo fabricante).

Por fim, o manuseio descuidado também pode causar danos aos chips de memória, devido à ação destrutiva da transferência de carga elétrica entre diferentes corpos. Tal fenômeno é chamado de eletricidade estática e os chips de memória RAM são os mais afetados por ela, dada a delicadeza do processo de fabricação.

No primeiro caso, a primeira coisa fazer é observar os valores dos parâmetros configurados automaticamente através do chip SPD (Serial Presence Detect), responsável por informar o BIOS os valores corretos de frequência de operação, tempo de latência e tensão de alimentação, entre outras opções.

Embora a detecção ocorra sem maiores inconvenientes, muitas vezes a placa-mãe não está preparada para trabalhar com estes valores, causando as instabilidades e os travamentos tão indesejados. A solução se resume em alterar tais parâmetros manualmente, utilizando valores mais conservadores para garantir a estabilidade, embora isto afete levemente o desempenho. Os parâmetros que possuem maior efeito na estabilidade do sistema são o CAS Latency e o Command Per Clock (também chamado de Command Rate).

Na dúvida ou não entendimento dos parâmetros listados, uma forma mais simples de promover as alterações sem "tecnicismos", seria reduzir o clock padrão do módulo para valores mais baixos.

Por exemplo, módulos DDR2 podem ser reduzidos de 800 para 667 MHz, ao passo que módulos DDR3 podem ser reduzidos de 1600 para 1333 MHz. Muitas vezes, as placas-mãe suportam oficialmente módulos até uma certa frequência específica, mas podem operar com módulos de frequências maiores, sujeitando-se a alguns problemas de compatibilidade.

Uma Abit VA-10 que tive, baseada no chipset Via KM400 suportava oficialmente apenas os módulos DDR-333, embora os módulos DDR-400 pudessem funcionar nela. Ao reduzir a frequência de operação dos módulos, os parâmetros CAS Latency e o Command Per Clock poderão trabalhar com os seus valores default, sem afetar a estabilidade geral do sistema.

Por fim, há o truque de aumentar o valor de tensão fornecido para a alimentação da memória RAM. Os módulos DDR operam sob 2.5V, ao passo que os módulos DDR2 operam sob 1.8V e os atuais módulos DDR3 operam sob 1.5V (com alguns modelos funcionando a apenas 1.35V).

Para garantir que os módulos funcionem de forma estável, algumas placas-mãe já promovem o acréscimo de 0,05V automaticamente. Por exemplo, não será difícil encontrar configurações de módulos DDR operando sob 2.55V ou 2.60V e DDR2 operando sob 1.85V., embora ainda não tenha encontrado exemplos práticos de módulos DDR3 operando com valores levemente maiores.

Tais acréscimos também são muito utilizados em overclocks, necessários para garantir que as memórias funcionem a um clock maior sem desestabilizarem o sistema. Nem é preciso dizer que, superando a casa dos 5% de diferença, a vida útil dos módulos pode ser reduzida.

Já nos casos em que a suspeita das instabilidades recaem sobre o estado dos módulos, o principal responsável pelas anomalias é a eletricidade estática. Neste caso, melhor maneira de verificar se os chips não foram danificados, será com a realização de testes de leitura e escrita em todos os setores, com o uso de softwares especiais.

Para esta necessidade, o famoso Memtest86 é uma das principais opções gratuitas. Mas uma observação se faz necessária: utilize a versão baseada em modo-texto, já que o Windows irá "mascarar" os resultados, pelo simples fato do utilitário estar impedido de testar as áreas da memória utilizadas pelo próprio Windows.


Mentest86 em funcionamento

A placa de vídeo, esta é praticamente um subsistema computacional à parte, a qual é extremamente exigida em jogos e outras aplicações gráficas que exijam desempenho. Os modelos de entrada e mainstream não requerem a alimentação extra, as quais podem ser perfeitamente alimentadas pelo slot PCI-Express.

No entanto modelos mais avançados exigem mais alimentação, o que torna o essencial o bom dimensionamento da fonte de alimentação adequada para o sistema como um todo. Por fim, o calor gerado por estes dispositivos pode sobrecarregar todo o sistema de refrigeração, obrigando os demais componentes internos a trabalharem sob condições de temperatura mais agressivas que as recomendadas.

Os demais periféricos - que não exigem tanta carga de processamento - podem perfeitamente trabalhar bem, sem exigir muito a alimentação e refrigeração do micro.

No entanto, se os parâmetros destes dispositivos não forem devidamente configurados, poderemos ter problemas relacionados à conflitos de recursos, onde dois ou mais dispositivos podem requerer o mesmo IRQ, canal DMA, endereço de memória ou endereço de porta. Nestes casos, a configuração manual - embora complexa - poderá resolver o conflito, devolvendo a estabilidade do sistema.

Ao concluir inspeção de cada item, faz-se necessária uma análise superficial do estado geral da placa-mãe e os demais dispositivos conectados. Checar o estado das trilhas, dos capacitores e outros componentes eletrônicos, bem como a limpeza e organização geral, previne uma série de anomalias que podem vir a causar as instabilidades e travamentos.

Por exemplo, slots PCI, bancos de memória e outros tipos de conectores e encaixes, precisam ser limpos de tempos em tempos, através do uso de soluções apropriadas (pano seco, álcool isopropílico e spray limpa-contatos). Já o emaranhado de fios e cabos flat precisam ser organizados, de forma a facilitar a ventilação interna do PC desktop.

Por fim, não deixem de gerenciar o fornecimento da energia elétrica adequado, assim como adotar as proteções adequadas para os problemas relacionados, como o uso de filtros de linha e nobreaks.

Fonte: Guia do Hardware

quarta-feira, 16 de fevereiro de 2011

O que esperar da TV 3D e do Blu-Ray

TV 3D e Blu-Ray.
Todos os anos surgem tecnologias que prometem revolucionar o mercado. No entanto, diversos motivos contribuem para o fracasso ou o sucesso dessas novidades no mercado. Descubra se as TVs 3D e o Blu-Ray irão, finalmente, deslanchar em 2011. As duas tecnologias já têm algum tempo de vida, mas ainda não emplacaram no mercado. Será que este será o ano delas? É um modismo ou realmente vingará?


TVs 3D
No ano passado, houve todo um furor em torno do lançamento dos televisores 3D no mercado. A imagem em terceira dimensão, em alguns aparelhos, é realmente de impressionar. Além disso, a alta definição, combinada com uma tela grande, faz o telespectador se sentir “dentro” da programação.

Mas essa é uma tecnologia que a gente duvida um pouco de sua sobrevida. Primeiro, porque as TVs são mais caras. Depois, porque existem poucos filmes em 3D disponíveis e é necessário um Blu-Ray player para reproduzi-los, o que aumenta ainda mais a conta.

E ainda têm os óculos, que tornam praticamente impossível assistir TV 3D e fazer qualquer outra coisa ao mesmo tempo. Programação em 3D, talvez só nas salas de cinema, onde as pessoas estão dispostas a manter atenção exclusiva na tela.

É claro que assistir a jogos, corridas e outros eventos esportivos em três dimensões pode ser bem legal. Mas, de novo, o difícil vai ser arranjar pares de óculos para todo mundo, se o usuário resolver compartilhar a experiência com amigos.

Portanto, essa é uma tecnologia que, na nossa visão, não deve ir muito longe. A não ser que alguém consiga criar, de fato, um televisor 3D que dispense os óculos.


Blu-Ray
Já faz 3 anos que os discos Blu-Ray chegaram ao mercado consumidor. Mas, até agora, eles não estouraram. Ainda são raras as casas brasileiras que têm um tocador de Blu-Ray.

E são duas as explicações: a primeira é o preço, uma vez que os aparelhos chegam a ser até cinco vezes mais caros que os DVDs; outra razão é a escassez de títulos nas locadoras, pois só nos últimos meses começaram a aumentar os acervos disponíveis para locação.

E, para quem resolver comprar o disco, a diferença de preço também é enorme: um filme em DVD, custa, em média, entre R$ 20 e R$ 40 no varejo. O mesmo título em Blu-Ray não sai por menos de R$ 70.

Nos Estados Unidos, a vida do Blu-Ray também não anda fácil. Por lá, ele sofre a concorrência dos downloads. Com banda larga de verdade, os consumidores preferem alugar filmes online em alta definição, em vez de comprar um aparelho caro. Isso sem contar que o download poupa o trabalho de ir até a locadora.

Por essas e por outras, o Blu-Ray é uma das tecnologias sobre as quais nós temos dúvidas. Será que ele vai vingar?




Veja preços de TV e Blu-Ray Player



Fonte: Olhar Digital

terça-feira, 15 de fevereiro de 2011

Tecnologia USB 3.0

u ésse bê três ponto zero.
A tecnologia USB (Universal Serial Bus) é sinônimo de comodidade e agilidade, afinal, é um padrão que permite a interconexão de dispositivos dos mais variados tipos. No entanto, cada vez mais surgem no mercado aparelhos que geram grandes volumes de dados e que, consequentemente, necessitam de maior velocidade na transmissão destes. É neste ponto que entra em cena o padrão USB 3.0 (também chamado de SuperSpeed USB), cujas principais características serão mostradas a seguir:

Por que o USB 3.0 foi criado?
A tecnologia USB surgiu no ano de 1994 e, desde então, foi passando por várias revisões. As mais populares são as versões 1.1 e 2.0, sendo esta última ainda bastante utilizada. A primeira é capaz de alcançar, no máximo, taxas de transmissão de 12 Mbps (megabits por segundo), enquanto que a segunda pode oferecer até 480 Mbps.

Como se percebe, o USB 2.0 consegue ser bem rápido, afinal, 480 Mbps correspondem a cerca de 60 megabytes por segundo. No entanto, acredite, a evolução da tecnologia está fazendo que velocidades muito maiores sejam necessárias.

Não é difícil entender o porquê: o número de conexões à internet de alta velocidade cresce rapidamente, o que faz com que as pessoas queiram consumir, por exemplo, vídeos, músicas, fotos e jogos em alta definição. Some a isso ao fato de ser cada vez mais comum o surgimento de dispositivos como smartphones e câmeras digitais que atendem a essas necessidades. A consequência não poderia ser outra: grandes volumes de dados nas mãos de um número cada vez maior de pessoas.

Com suas especificações finais anunciadas em novembro de 2008, o USB 3.0 surge para dar conta dessa e da demanda que está por surgir. É isso ou é perder espaço para tecnologias como o FireWire, por exemplo. Para isso, a novidade tem como principal característica a capacidade de oferecer taxas de transferência de dados de até 4,8 Gbps (gigabits por segundo). Mas não é só isso...

O que é USB 3.0
Como você viu no tópico acima, o USB 3.0 surgiu porque o padrão precisou evoluir para atender novas necessidades. Mas, no que consiste exatamente esta evolução? O que o USB 3.0 tem de diferente do USB 2.0? A principal característica você já sabe: a velocidade de até 4,8 Gbps, que corresponde a cerca de 600 megabytes por segundo, dez vezes mais que a velocidade do USB 2.0. Nada mal, não?

Símbolo para dispositivos USB 3.0
Símbolo para dispositivos USB 3.0

Mas o USB 3.0 também se destaca pelo fator alimentação elétrica: o USB 2.0 fornece até 500 miliampéres, enquanto que o novo padrão pode suportar 900 miliampéres. Isso significa que as portas USB 3.0 podem alimentar dispositivos que consomem mais energia.

É claro que o USB 3.0 possui as características que fizeram as versões anteriores tão bem aceitas, como Plug and Play (plugar e usar), possibilidade de conexão de mais de um dispositivo na mesma porta, hot-swappable (capacidade de conectar e desconectar dispositivos sem a necessidade de desligá-los) e compatibilidade com dispositivos nos padrões anteriores.


Conectores USB 3.0
Outro aspecto no qual o padrão USB 3.0 difere do 2.0 diz respeito ao conector. Os conectores de ambos são parecidos, na verdade, mas não são iguais.

Conector USB 3.0 A
Como você verá mais adiante, os cabos da tecnologia USB 3.0 são compostos por nove fios, enquanto que os cabos USB 2.0 utilizam apenas 4. Isso acontece para que o padrão novo possa suportar maiores taxas de transmissão de dados. Assim, os conectores do USB 3.0 possuem contatos para esses fios adicionais na parte do fundo. Caso um dispositivo USB 2.0 seja utilizado, este usará apenas os contatos da parte frontal do conector. As imagens a seguir mostram um conector USB 3.0 do tipo A:

Estrutura interna de um conector USB 3.0 A
Estrutura interna de um conector USB 3.0 A


Conector USB 3.0 A
Conector USB 3.0 A

Você deve ter percebido que é possível conectar dispositivos USB 2.0 ou 1.1 em portas USB 3.0. Este último é compatível com as versões anteriores. Fabricantes também podem fazer dispositivos USB 3.0 compatíveis com o padrão 2.0, mas neste caso a velocidade será a deste último. E é claro: se você vai interconectar dois dispositivos por USB 3.0, o cabo precisa ser deste padrão.

Conector USB 3.0 B
Tal como acontece na versão anterior, o USB 3.0 também conta com conectores diferenciados para se adequar a determinados dispositivos. Um deles é o conector do tipo B, utilizado em aparelhos de porte maior, como impressoras ou scanners, por exemplo.

Em relação ao tipo B do padrão USB 2.0, a porta USB 3.0 possui uma área de contatos adicional na parte superior. Isso significa que nela podem ser conectados tantos dispositivos USB 2.0 (que aproveitam só a parte inferior) quanto USB 3.0. No entanto, dispositivos 3.0 não poderão ser conectados em portas B 2.0:

Conector USB 3.0 B
Conector USB 3.0 B


Micro-USB 3.0
O conector micro-USB, utilizado em smartphones, por exemplo, também sofreu modificações: no padrão USB 3.0 - com nome de micro-USB B -, passou a contar com uma área de contatos adicional na lateral, o que de certa forma diminui a sua praticidade, mas foi a solução encontrada para dar conta dos contatos adicionais:

Conector micro-USB 3.0 B

Conector micro-USB 3.0 B


Para facilitar a diferenciação, fabricantes estão adotando a cor azul na parte interna dos conectores USB 3.0 e, algumas vezes, nos cabos destes. Note, no entanto, que é essa não é uma regra obrigatória, portanto, é sempre conveniente prestar atenção nas especificações do produto antes de adquirí-lo.

Sobre o funcionamento do USB 3.0
Como você já sabe, cabos USB 3.0 trabalham com 9 fios, enquanto que o padrão anterior utiliza 4: VBus (VCC), D+, D- e GND. O primeiro é o responsável pela alimentação elétrica, o segundo e o terceiro são utilizados na transmissão de dados, enquanto que o quarto atua como "fio terra".

No padrão USB 3.0, a necessidade de transmissão de dados em alta velocidade fez com que, no início, fosse considerado o uso de fibra óptica para este fim, mas tal característica tornaria a tecnologia cara e de fabricação mais complexa. A solução encontrada para dar viabilidade ao padrão foi a adoção de mais fios. Além daqueles utilizados no USB 2.0, há também os seguintes: StdA_SSRX- e StdA_SSRX+ para recebimento de dados, StdA_SSTX- e StdA_SSTX+ para envio, e GND_DRAIN como “fio terra” para o sinal.

O conector USB 3.0 B pode contar ainda com uma variação (USB 3.0 B Powered) que utiliza um contato a mais para alimentação elétrica e outro associado a este que serve como "fio terra", permitindo o fornecimento de até 1000 miliampéres a um dispositivo.

Quanto ao tamanho dos cabos, não há um limite definido, no entanto, testes efetuados por algumas entidades especialistas (como a empresa Cable Wholesale) recomendam, no máximo, até 3 metros para total aproveitamento da tecnologia, mas esta medida pode variar de acordo com as técnicas empregadas na fabricação.

No que se refere à transmissão de dados em si, o USB 3.0 faz esse trabalho de maneira bidirecional, ou seja, entre dispositivos conectados, é possível o envio e o recebimento simultâneo de dados. No USB 2.0, é possível apenas um tipo de atividade por vez.

O USB 3.0 também consegue ser mais eficiente no controle do consumo de energia. Para isso, o host, isto é, a máquina na qual os dispositivos são conectados, se comunica com os aparelhos de maneira assíncrona, aguardando estes indicarem a necessidade de transmissão de dados. No USB 2.0, há uma espécie de "pesquisa contínua", onde o host necessita enviar sinais constantemente para saber qual deles necessita trafegar informações.

Ainda no se que se refere ao consumo de energia, tanto o host quanto os dispositivos conectados podem entrar em um estado de economia em momentos de ociosidade. Além disso, no USB 2.0, os dados transmitidos acabam indo do host para todos os dispositivos conectados. No USB 3.0, essa comunicação ocorre somente com o dispositivo de destino.

O USB 3.0 veio para substituir o padrão anterior? Pode até ser que isso aconteça em um futuro próximo, mas no momento a resposta é: não. Isso porque ainda há uma série de dispositivos que são bem atendidos pela tecnologia USB 2.0, tanto que, pelo menos nesta fase inicial, será comum encontrar laptops e placas-mãe, por exemplo, que oferecem portas nos dois padrões.

Fonte: Info Wester

Tenha um e-mail @facebook.com

Facebook Logo.
Como se não bastasse ter o maior site de relacionamento do mundo, Mark Zuckerberg, o CEO mais pop de todos os tempos, também está apostando em um serviço de e-mails com o nome de sua rede social. O webmail funciona integrado a sua conta do Facebook, ou seja, se você já possui um perfil na rede social pode requisitar um endereço de e-mail agora mesmo.





O serviço de e-mail do Facebook, porém, ainda está em fase de testes e é bastante restrito. Mas se você quer ser um dos primeiros a possuir um endereço @facebook.com, basta seguir mais a dica. Abaixo como você entrar na fila de espera do “Facebook Mail”.

Passo 1. Acesse sua conta do Facebook -- caso ainda não possua, obviamente, crie uma antes de continuar;

Passo 2. Na página inicial do seu perfil, clique em “Conta”, e depois em “Configurações da conta”;



Passo 3. Em nome de usuário, clique no link “editar”;

Passo 4. Crie um nome de usuário. Ele será o seu endereço de e-mail. Além disso, você poderá acessar o seu perfil utilizando o link “facebook.com/seu.nome”;

Passo 5. Acesse essa página e clique em “Solicitar um convite”.

Pronto! Agora é só esperar. Você será avisado quando o convite lhe for concedido, e poderá testar em primeira mão o webmail do Facebook.

Fonte: TechTudo

Deixe sua Internet tinindo com o Complete Internet Repair

Complete Internet Repair.
Estamos vivendo na era da Internet, e é inevitavel que com as tecnologias amplamente utilizadas, vem um novo conjunto de problemas. É por isso que foi desenvolvido este conjunto de reparação completa para Internet, cujo principal objetivo é resolver estes problemas, à medida em que eles aparecem. O Complete Internet Repair tenta reparar todos os problemas relacionados à Internet, incluindo problemas de rede. Basta lembrar sempre de duas regras essenciais: em primeiro lugar, não tente consertar algo que não está quebrado, você pode quebrá-lo.

E em segundo lugar, esta ferramenta auxilia a resolver vários problemas relacionados à Internet, mas nem tudo pode ser reparado em um passe de mágica. A maioria das situações possui resolução, e é para isso que o Complete Internet Repair foi criado.

Complete Internet Repair é basicamente uma combinação entre o kit Internet Recovery e Winsock Repair. Uma grande ajuda, caso você esteja enfrentando algum dos seguintes erros:

- Problemas após a remoção de adware, spyware, vírus, worms, cavalos de Tróia etc.
- Perda de conexão de rede após a instalação/desinstalação de um malware, VPN, firewall, antispam etc.
- Problemas ao acessar qualquer página da web
- Pop-ups relatando erros de rede
- Falta de conectividade de rede devido a erros de registro
- Problema ao encontrar DNS
- Erro de renovação do endereço de IP do adaptador de rede ou outros erros DHCP
- Problema de conectividade de rede com pouca ou nenhuma mensagem de conexão
- Atualização do Windows não funciona
- Problemas para se conectar a sites protegidos, como sites de bancos
- O Internet Explorer parou de funcionar ou falha o tempo todo
- Outros problemas de rede.

clique para baixar o complete-internet-repair






Fonte: Olhar Digital

segunda-feira, 14 de fevereiro de 2011

Divirta-se com o Googleoke

Googleoke.
O site Googleokê utiliza frases traduzidas pelo serviço Google Translate para fazer com que a voz computadorizada cante músicas famosas nacionais e internacionais. A voz do "robô" do serviço, até o momento, canta músicas "Meteoro da Paixão", de Luan Santana, "Poker Face", de Lady Gaga, "Eguinha Pocotó", de MC Serginho, e "Bom Chi Bom", do grupo As Meninas. "Não queremos ganhar dinheiro com o site. Fizemos ele apenas por diversão", disse um dos criadores do Googleokê, Eduardo Araújo, publicitário mineiro de 23 anos.

Ele conta que o site foi lançado dia 10/02/2011, mas que as músicas foram criadas aos poucos há mais ou menos uma semana. "Tivemos a ideia ao colocar frases de músicas no Google Translate e ver no que dava. Não demorou muito para surgir a ideia de mixar as frases com músicas de karaokê, disponíveis no formato midi na internet".

As versões fazem sucesso nas rede sociais como Twitter e o Facebook. Na tarde do dia 10/;02/2011, o termo "Googleokê" entrou no Trending Topics mundial, serviço que mede os termos que passam a ser utilizados abruptamente no Twitter. A conta no microblog do Googleokê, @realgoogleoke, é uma das mais acessadas. Lá, os criadores pedem sugestões de músicas.

Eduardo conta que, ao lado dos colegas de trabalho Mateus Martins, Lucas Bandeira, Gustavo Costa, Rodrigo Simão, Guilherme Araújo, fora do horário de trabalho, pegam poucas frases das músicas e colocam no Google Translate, para depois colocar a voz computadorizada na música. "Fazemos isso depois do horário de trabalho, por isso que ainda não temos um volume grande de canções". O trabalho leva entre 30 minutos e 1 hora.

A escolha das músicas, segundo ele, não tem critério. "Escolhemos pelo refrão e pela sonoridade da voz do Google Translate", afirma. "Jamais imaginamos que nossa brincadeira faria tanto sucesso". Perguntado sobre quais seriam as próximas canções a serem publicadas no Googleokê, Eduardo conta que ele e os amigos ainda não sabem, mas que já têm uma ideia: "Pensamos em um rap, mas o desafio seria colocar músicas mais longas. Acho que 'Faroeste Caboclo' [da banda Legião Urbana] seria nosso maior desafio".

O publicitário disse que quando tiveram a ideia do Googleokê, não temiam uma possível retaliação do Google, pedindo para retirar o site do ar. "Agora que ele está fazendo sucesso, ficamos com um pouco de medo", conta. "Mas não queremos ganhar dinheiro com o site, apenas divertir todo o mundo".

clique para acessar o site googleoke





Fonte: G1 - Tecnologia e Games

domingo, 13 de fevereiro de 2011

Firefox 5, 6 e 7 em 2011

Firefox.
A Mozilla pode soltar as versões 5, 6 e 7 do navegador Firefox até o final deste ano. A informação foi divulgada no roadmap de desenvolvimento do browser. O roadmap, vale dizer, é um rascunho e apresenta um horizonte viável para o time de desenvolvedores da Mozilla. Contudo, ninguém sabe se ele será seguido à risca. A empresa, por exemplo, planejava ter lançado a versão final do Firefox 4 há algum tempo, e o software ainda está em estágio de testes.

Segundo o roadmap, o Firefox 5 chega em poucos meses e virá com o recurso F1, que integra o browser às redes sociais. O software terá ainda compatibilidade nativa ao sistema Windows 7 de 64 bits, o que o deixa mais rápido e seguro, e um recurso para criação perfis.

No Firefox 6, a Mozilla quer um motor JavaScript novo e totalmente adaptado aos padrões do HTML5, melhorias no CSS3 e suporte ao Mac OS X 10.7. A versão contará ainda com recursos avançados para suportar aplicativos web.

O Firefox 7 que, segundo o cronograma, é para o final do ano, virá com modificações na linguagem XBL e, principalmente, uma arquitetura nova que separa as funções do navegador por processos – o deixando menos vulnerável a bugs e problemas de desempenho.

Com o roadmap, a Mozilla apresenta um claro movimento para acelerar a inserção de novos recursos no navegador e deixá-lo mais conectado às redes sociais de forma nativa (ou seja, sem a necessidade de add-ons). Um movimento, digamos, bem parecido ao do Google com o seu navegador Chrome.

Fonte: Mais Brasília Tecnologia

sábado, 12 de fevereiro de 2011

Qual é melhor: estabilizador ou no-break

Estabilizador ou no-break? Qual é o melhor no quesito custo e benefício?
Picos de tensão, piscadas, blecautes, etc. Infelizmente o sistema elétrico brasileiro, assim como o de vários outros países está muito longe se ser seguro ou estável. Você está trabalhando no micro e de repente as luzes piscam, seu micro desliga e você perde tudo o que estava fazendo.


O pior de tudo é que um sistema elétrico instável coloca em risco o hardware. Quem mais sofre é o HD, que com o tempo começa a apresentar vários setores defeituosos, seguido pelos módulos de memórias e a placa mãe, que também podem danificar-se com facilidade.

Também são comuns os casos de fontes queimadas e, em casos mais extremos, (principalmente em cidades do interior) até mesmo perda total dos micros, literalmente torrados devido a algum raio que caiu nas proximidades.

Existem dois acessórios destinados a proteger o aparelho desse tipo de desastre, os estabilizadores e no-breaks. Qual deles é melhor na questão custo e benefício:

Estabilizador

Os estabilizadores teoricamente serviriam para amenizar picos de tensão, como os provocados raios, protegendo o equipamento, mas de qualquer forma não oferecendo nenhuma proteção contra perda de dados ou resets quando a luz piscar.

O grande problema é que os estabilizadores baratos, que costumamos ver à venda por 30 ou 40 reais não servem para absolutamente nada. Se você ler os termos de garantia desse tipo de aparelho, verá que em muitos casos não existe garantia contra raios.

Um bom estabilizador (geralmente custa a partir de 100 reais) pode oferecer proteção contra raios, mas apenas casa seja ligado a um fio terra, caso contrário também será um gasto inútil.

Uma forma de tentar diferenciar os estabilizadores é pelo peso, os estabilizadores muito leves ou muito baratos quase sempre são de baixa qualidade, pois são cortados vários componentes essenciais.

No-break

Os no-breaks, são de longe os ideais para proteger seu micro, já que como vimos, a maioria dos estabilizadores não oferecem lá grande proteção. A grande vantagem de usar um no-break é ter garantia de um fornecimento contínuo de eletricidade. Mesmo que a luz pisque ou o fornecimento seja cortado, você poderá continuar trabalhando até que as baterias do no-break se esgotem, tendo tempo para salvar seus documentos e desligar tranqüilamente o micro. Se a luz voltar dentro de uns 5 ou 10 minutos, então beleza, você nem precisará parar o trabalho.

Existem dois tipos de no-breaks, os on-line e os off-line.

Os primeiros, os on-line, são melhores, pois neles a bateria é alimentada continuamente e o micro é alimentado diretamente pela bateria, tendo um fornecimento 100% estável.

Nos no-breaks off-line a energia da toma é repassada diretamente para o micro, sendo a bateria usada apenas quando a corrente é cortada, não oferecendo uma proteção tão completa quanto o primeiro.

Para diferenciar os dois tipos, basta observar as luzes. Um no-break geralmente vem com duas luzes, "rede" (ou "bi-pass") e "Battery". A primeira indica que a energia da tomada está sendo repassada para o micro (off-line) enquanto a segunda indica que está sendo usada a bateria (on-line). Se a luz de rede ficar acesa continuamente, se apagando apenas quando a energia da tomada for cortada, então você tem em mãos um no-break off-line.

Autonomia

Em geral o no-break começa a bipar quando a energia é cortada. Conforme a bateria for ficando fraca os bips vão se tornando cada vez mais freqüentes, indicando que você deve começar a desligar o micro. Se você ignorar a advertência, ele continuará bipando até que as baterias se esgotem completamente.

A autonomia das baterias varia de acordo com a capacidade das baterias (medida em VAs) e o consumo elétrico do seu micro (e do que mais você ligar na saída do no-break).

Geralmente o considerado ideal é uma autonomia de 15 minutos, o que em geral será suficiente para terminar algo mais urgente e salvar tudo antes de desligar o micro. Mas, você poderá optar por um modelo de maior autonomia caso ache que vale à pena. Existe no mercado no-breaks com autonomia para mais de uma hora, vai do que você pretende gastar...

Caso no mesmo micro você deseja uma autonomia de 30 minutos, então pense um no-break de pelo menos 1 KVA, se a sua idéia é uma autonomia de uma hora, então o mínimo sobe para um no-break de 2 KVA (esses são bem caros).

Existe no mercado alguns modelos de baixa autonomia, de apenas 250 ou 300 VA, cujas baterias duram por volta de 5 minutos. Eu particularmente não recomendo a compra de no-breaks abaixo de 600 VA, pois a diferença de preço é muito pequena.

Muitos modelos possuem uma saída para baterias externas, que permitem aumentar a autonomia do aparelho, geralmente é usada uma bateria de carro. Consulte as especificações do aparelho sobre esse recurso.

Muitos no-breaks vem com interfaces inteligentes. Nestes casos, ligando o no-break a uma das saídas seriais do micro e instalando o software que o acompanha, você poderá programar o programa para que desligue o micro automaticamente caso a energia seja cortada, salve documentos, etc. Este é um recurso útil apenas caso você costume deixar o micro ligado sozinho ou no caso de um servidor.

Clique aqui para comprar seu estabilizador!

Ou aqui para comprar um no-break por um preço bem acessível!


Fonte: Guia do Hardware

sexta-feira, 11 de fevereiro de 2011

E-mails perdem espaço para as redes sociais

Estudo aponta declínio no uso do correio eletrônico entre internautas de até 55 anos.
Nos primórdios da internet, o e-mail era a porta de entrada de quase a totalidade dos novos usuários da rede. Parecia inimaginável que um dia aquela ferramenta indispensável para quem quer que se dissesse “conectado” fosse, um dia, se tornar obsoleta; esse dia parece estar chegando perto. Um levantamento feito por uma empresa de análise digital monitorou cerca de 2 milhões de pessoas ao redor do mundo para apontar as tendências digitais para os próximos anos.

Ele mostra que as pessoas de até 55 anos estão cada vez mais mudando sua forma de se comunicar, abandonando gradualmente os e-mails para os SMS e os posts em redes sociais.

O relatório aponta que com o avanço dessas novas tecnologias o uso do velho e-mail está em franco declínio, especialmente entre os mais jovens: “o uso total de e-mail caiu 8% no ano passado, com o maior declínio sendo verificado entre jovens de 12 a 17 anos”, dizem os analistas, entre eles a queda teria sido de 59%.

Entre os usuários mais velhos, no entanto, o uso da ferramenta ainda é forte. O estudo mostra que a tendência se inverte entre pessoas entre 55 e 64 anos. Neste grupo, o uso de e-mails cresceu 22% no ano passado.

Ainda é cedo para declarar a morte dos e-mails, claro, mas os dados mostram que o avanço tecnológico e as novas formas de comunicação tendem a reduzir cada vez mais o uso do tradicional correio eletrônico.

Fonte: MSN Notícias

Apple desenvolve versão mini do iPhone

Mini iPhone.
A Apple está desenvolvendo uma versão mini do seu popular smartphone iPhone com o objetivo de frear o crescente avanço dos dispositivos equipados com o sistema Android, do Google, informou nesta quinta-feira (10/02/2011) a agência Bloomberg. O plano da Apple é lançar um iPhone com a tecnologia da versão 4 do aparelho, mas um terço menor, que seria vendido nos Estados Unidos sem associação com empresas de telecomunicações por um preço em torno dos R$ 335 (US$ 200).

No último trimestre de 2010, o Google tornou-se o líder mundial de telefonia graças ao aumento do uso de seu sistema operacional Android entre os fabricantes de telefones celulares.

Entre outubro e dezembro foram comercializados 33,3 milhões de telefones com o sistema Android em todo o mundo, número pela primeira vez superior ao do registrado pela Nokia, até então a líder do mercado e que vendeu 31 milhões de unidades.

O crescimento do Android foi muito significativo no segmento dos smartphones, onde sua presença aumentou 32,9% durante o último trimestre de 2010 e ofuscou a alta de 16% do iPhone da Apple.

Fonte: R7 - Tecnologia e Ciência

Qual o hardware do seu PC?

CPU-Z.
Será que aquele computador que você comprou veio com todas as placas informadas pelo vendedor? Qual o driver correto para a sua placa de vídeo? Para responder estas perguntas, a melhor maneira é ter um confiável programa de diagnóstico instalado no seu PC. Um dos programas mais populares e mais usados é o CPU-Z, que informa as características básicas do seu hardware. Assim, você fica sabendo qual o seu processador, qual é a memória instalada, entre outras informações.


Passo 1. Baixe e instale o CPU-Z no seu computador com Windows;

Passo 2. Abra o CPU-Z pela primeira vez, e ele automaticamente fará a varredura da sua máquina e apresentará os detalhes do seu hardware;

Passo 3. Na primeira tela, você verifica as informações do seu processador, enquanto em “Memory”, você confere as especificações técnicas do seu pente de memória RAM;

Passo 4. Em "Graphics", você tem acesso as informações sobre a sua placa de vídeo.

Fonte: TechTudo

quinta-feira, 10 de fevereiro de 2011

Precisando de portas USB?

Este adaptador da Lenovo pode resolver o problema.
Há algum tempo, era comum que notebooks saíssem de fábrica com apenas duas portas USB. Afinal, havia muito pouco o que ser ligado à elas. Quando muito, os usuários conectavam uma impressora ou um pendrive em seus equipamentos. Hoje, além dos pendrives, é muito comum que usuários façam uso de HDs externos (que, muitas vezes, requerem o uso de duas portas ao mesmo tempo), mouses e teclados USB, teclados numéricos externos, impressoras, caixas de som, headphones…

Além dos dispositivos que utilizam a conexão para trocar dados com o computador, ainda há aqueles que usam as portas apenas para recarregar a bateria. O mais comum, neste caso, são os celulares.

Apesar de ser cada vez mais frequente o lançamento de periféricos que utilizam as conexões, os notebooks continuam saindo de fábrica com poucas portas USB. Os famosos MacBook Pro e MacBook Air, da Apple, por exemplo, contam com apenas duas portas cada. Quem nunca ficou plugando e desplugando dispositivos diferentes nas poucas portas disponíveis no equipamento, que atire a primeira pedra.

Com a intenção de ajudar os usuários a resolverem este problema, a Lenovo lançou o adaptador AC ThinkPad 65W. Este dispositivo, que conta com 4 portas, combina um adaptador AC com um hub USB para periféricos. Três portas USB oferecem transferência de dados e capacidade de carga, enquanto uma quarta porta é dedicada a recarregar dispositivos sem a necessidade de o notebook estar ligado. Os cabos de energia e dados do adaptador têm, cada um, 50cm de comprimento, ele pesa 340 gramas e funciona em 110v e 220v.

O adaptador AC ThinkPad 65W pode ser adquirido por US$ 74,99 na loja virtual da Lenovo.

Fonte: übergizmo

Usar encurtador de links pode ser perigoso

Twittar pode te implicar em golpes de Estado, guerra civil e terrorismo.
Com o sucesso do Twitter se multiplicaram os encurtadores de links, como cada mensagem do Twitter pode ter no máximo 140 caracteres, fica difícil incluir links de sites - que chegam a ter 80 caracteres. Por isso, a maioria das pessoas usa os chamados encurtadores de URLs, serviços que deixam os links muito menores. Eles são superpráticos, mas também têm um lado que quase ninguém conhece: dependem de países distantes, muitas vezes envolvidos com ditaduras e golpes de Estado.

Os links do bit.ly, que é o encurtador mais usado da internet, passam pela Líbia - que é a dona de todos os endereços terminados em .ly (e até recentemente era considerada um país terrorista pelos EUA).

Já o encurtador go.to, que parece tão tecnológico e sucinto, aluga seu endereço eletrônico de Togo - nação africana com uma história de caos político. E o serviço brasileiro migre.me está ligado a Montenegro, um micropaís de 625 mil habitantes que foi bombardeado nas guerras dos Bálcãs e só declarou independência em 2006.

Os donos dos encurtadores de links dizem que não veem problemas em alugar seus endereços, mas a prática tem riscos: o bit.ly, que é gerenciado nos EUA, tem sido pressionado pelo ditador Muamar Kadafi, que está ameaçando tirar o endereço do ar se a empresa não se mudar para a Líbia.

Fonte: Superinteressante

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Powered by Blogger