Hard King Informática

Blog

Archive for ''

Número de rotas com protocolo IPv4 esgota e sites podem ter problemas

A alta potência da Internet dentro do padrão IPv4 poderá causar problemas nas próximas semanas, segundo Jim Cowie, especialista em infraestrutura e economia do mundo digital pela consultoria Renesys. O número rotas IPv4 no mundo chegou em 512 mil, o limite do padrão TCAM (Ternary Content Addressable Memory, ou Memória de Conteúdo Endereçável Ternária em tradução livre).

Internet para toda a casa (Foto: Reprodução/ Pond5)

Rotas IPv4 estão no seu limite


 

O número rotas, segundo a Renesys, aumentou de 300 mil para acima de 500 mil neste ano. A ativação dos aparelhos varia de minuto a minuto, mas em trajetória ascendente. As origens desses possíveis problemas estão, ironicamente, na expansão dos serviços de operadoras de telefonia e os equipamentos antigos que utilizam IPv4. “A Internet continua crescendo, o que ela sabe fazer de melhor”, explica Jim Cowie, ao exibir gráficos de sua consultoria.

Gráfico da Renesys que mostra o aumento de roteadores no mundo (Foto: Divulgação/Renesys)

Gráfico da Renesys que mostra o aumento de roteadores no mundo

Esses números de protocolo são responsáveis por guiar o tráfego de dados na rede e sites que o usam podem apresentar problemas para os usuários que acessarem algumas páginas, assistirem a vídeos, escutarem músicas ou disputarem partidas online, por exemplo.

O limite da atual Internet, no entanto, ainda não é motivo para pânico. Não há evidências de que empresas e provedores de conteúdo estejam despreparados nesta situação, já que houve uma campanha intensiva no mundo todo para uma mudança para o novo padrão, o IPv6.

No Brasil, o NIC.br, braço operacional do Comitê Gestor da Internet no Brasil (CGI.br), informou em junho deste ano que o estoque de IPv4 esgotou na nossa rede nacional. A entidade está há mais de 10 anos divulgando o IPv6 para evitar colapsos na rede local. Os grandes provedores já adotaram o padrão, mas há diversos clientes com roteadores defasados que estão suscetíveis a este problema apontado pela Renesys.

Posted in: Dicas, Noticias, Segurança, TI

Leave a Comment (0) →

Com péssima fama, Internet Explorer pode ganhar outro nome na Microsoft

Funcionários da Microsoft admitiram recentemente que o Internet Explorer, navegador que perdeu considerável fatia de mercado nos últimos anos, pode ter seu nome alterado, de forma a “traduzir melhor o produto de hoje”. Quem fez a declaração foi a equipe do IE, na seção “Ask Me Anything” do site Reddit, onde os usuários conversam com personalidades ligadas à web.

 

Internet Explorer  deixa Windows XP vulnerável para sempre (Foto: Divulgação/Microsoft) (Foto: Internet Explorer  deixa Windows XP vulnerável para sempre (Foto: Divulgação/Microsoft))

Perguntados sobre a possibilidade de mudar o nome do navegador para um reposicionamento de marca, os engenheiros admitiram que a ideia está sendo sugerida internamente na empresa e os funcionários estão discutindo a questão por meio de uma lista de e-mails interno.

A medida não é novidade para o histórico do que Microsoft já fez, mudando o nome de uma série de produtos, ao invés de simplesmente extinguí-los. Alguns exemplos são o Windows Mobile, que se tornou o Windows Phone, o Hotmail, que agora é Outlook e o Windows Live, que, atualmente, é Microsoft Account, mas já foi chamado de Microsoft Wallet, Microsoft Passport, .NET Passport e Microsoft Passport Network.

Nenhuma das mudanças de nome em produtos da Microsoft impactou as vendas ou aumentou o número de usuários desses serviços, mas um membro do IE disse esperar que algo melhorasse: “Sinceramente. Muitas coisas estão mudando”. A equipe lembrou que a última versão do navegador, o IE11, leva vantagem sobre todas as últimas ferramentas de software e segurança que seus rivais possuem.

Em 2010, o browser da Microsoft ficou, pela primeira vez, abaixo de 50% no mercado de navegadores utilizados pelos usuários finais. Atualmente, o Google Chrome entra nesta lista com 45% da fatia de mercado. Se um dia o Internet Explorer dominou a navegação web, por estar presente em todos os computadores com Windows instalado, hoje o seu nome é associado a bugs, problemas de segurança e tecnologia defasada.

Posted in: Dicas, Noticias

Leave a Comment (0) →

Supercomputadores a laser podem chegar às casas em 2020

Uma empresa britânica chamada Optalysys diz estar quase pronta para demonstrar um computador óptico, capaz de realizar cálculos na velocidade da luz. A tecnologia poderia ser apresentada em 2015 e, se tudo der certo, em 2020, qualquer um poderia ter um supercomputador em exa-escala em sua mesa de trabalho.

O conceito de computação óptica é um pouco abstrato ainda, como observa o ExtremeTech, já que há inúmeras tecnologias semelhantes disputando espaço, mas, de uma forma geral, a luz é utilizada no lugar da eletricidade para o processamento de informações.

A tecnologia da Optalysis usa lasers de baixa intensidade que passam por grades de cristal líquido. O resultado da interferência da incidência de luz pode é utilizado no processamento de dados e execução de tarefas. A reorientação por múltiplas grades do feixe luminoso também é capaz de alavancar o processamento em paralelo com mais eficiência do que os supercomputadores comuns.

Parece complexo, mas no fim das contas funciona, o resultado é um poder de realização de cálculos muito maior, na velocidade da luz, com talvez milhares ou milhões de núcleos operando paralelamente. Ou seja, a velocidade dos computadores tende a aumentar de forma incrível.

A empresa diz que a tecnologia já está pronta para testes em grande escala em laboratório. No ano que vem, já estará disponível um protótipo capaz de trabalhar em 340 gigaflops (ou 340 bilhões de operações por segundo). Mas o objetivo final, em 2020, é oferecer um produto capaz de operar em 17,1 exaflops (17,1 quintilhões de operações por segundo).

Para se ter uma ideia, os processadores para computadores domésticos estão trabalhando a uma velocidade de 120 gigaflops.

Posted in: Dicas, Noticias

Leave a Comment (0) →

Descoberta grave falha no padrão USB que permite infectar até mouses

Como se já não bastasse a quantidade incontável de malwares, spywares e um bocado de outros tipos de ameaças virtuais que podem infectar seu computador, uma dupla de pesquisadores descobriu que todo e qualquer dispositivo que utiliza conexões USB possui uma falha de segurança fundamental que se refere à forma como o padrão foi criado. Há um modo de alterar o firmware da conexão desses aparelhos para que o chip controlador do USB infecte e tome conta de boa parte dos aparelhos que conhecemos.

Pior do que ficar sabendo disso e saber que não há praticamente nada que possamos fazer para nos defender além de simplesmente não conectar nossos aparelhos em nenhum outro computador que não o nosso ou um completamente confiável.

A falha é tão grave que a dupla de pesquisadores, Karsten Nohl e Jakob Lell, que descobriu a vulnerabilidade, escreveu um pequeno e simples malware e infectou a conexão USB de um pendrive. Eles tiveram sucesso em dominar completamente um computador e até puderam redirecionar todo o tráfego da conexão com a internet desse aparelho.

Antivírus não adianta

O problema de uma falha no firmware do padrão USB é que não há antivírus no mundo que consiga limpar um aparelho que foi infectado por esse meio. O chip simplesmente não é acessível para o sistema operacional, nem para softwares de terceiros, e não pode ser modificado depois de ser hackeado.

Fora isso, é importante lembrar que praticamente todos os nossos dispositivos da atualidade utilizam conexões desse tipo e são passíveis de serem infectados, como mouses, teclados, smartphones, celulares comuns, pendrives e impressoras. Parece até o apocalipse digital, uma vez que não podemos simplesmente nos livrar de tudo isso ou parar de usar aparelhos com conexão USB.

A falha será apresentada na conferência de segurança digital Black Hat em Las Vegas e acredita-se que, em alguns meses, poderemos ter alguma solução para o problema, mas isso tudo é apenas uma suposição.

Brecha para espionagem

Para piorar ainda mais, fontes do Wired acreditam que a NSA, a agência de espionagem global dos EUA, já está explorando essa falha há algum tempo, o que poderia explicar o sucesso da agência de se infiltrar em sistemas tidos como invioláveis.

De qualquer forma, com isso tendo se tornado público, é necessário ficar de olho na forma como você utiliza aparelhos USB a partir de agora, até mesmo o seu mouse ou teclado USB.

Posted in: Dicas, Noticias

Leave a Comment (0) →

USB 3.1: confira como deve ser o design da nova conexão

The Verge

 

A existência de um sucessor para o USB 3.0 já se tornou um fato. Com o nome de USB Type-C, a conexão, que foi revelada pela USB 3.0 Promoter Group no fim de 2013, tem previsão de chegar às lojas dentro de apenas alguns meses.

Com a tecnologia tão perto de sair, porém, não há como deixarmos de fazer uma pergunta: como vai ser a aparência dessa tal conexão? Sabemos que teremos algo semelhante ao micro USB, mas todo o resto é um mistério. Bem, parece que ao menos agora podemos acalmar nossa curiosidade, já que a Foxconn liberou uma versão renderizada tanto do cabo quanto da conexão em si.

Você pode dar adeus aos problemas com espaço e com a posição do conector: com um design parecido com o do Lightning da Apple, o USB Type-C é realmente minúsculo, e promete acabar com aquela terrível dor de cabeça de caçar os encaixes na parte de trás do seu gabinete. Por ser menor, há também a vantagem de usar o espaço “extra” para adicionar ainda mais entradas USB na placa.

Ainda em testes

É importante notar, entretanto, que as imagens acima não são necessariamente o design final do cabo ou das conexões. Logo, pode ser que tenhamos algo melhor ou pior do que o que vemos aqui. Seja como for, não há com negar que o novo USB tem potencial.

Posted in: Dicas, Noticias

Leave a Comment (0) →

ecnologia que promete internet 10x mais rápida quer substituir TCP/IP

 

O protocolo TCP/IP merece respeito, já que levou a internet nas costas desde sua criação até hoje. No entanto, cientistas das Universidade de Aalborg, do MIT e da Caltech desenvolvem uma maneira de driblar suas limitações, que poderia multiplicar por 10 vezes a velocidade de transmissão de dados, com uma tecnologia chamada “network coding”, ou codificação de rede. A novidade poderia ser uma chave para a criação das redes 5G futuramente.

O problema com o bom e velho TCP/IP, segundo os pesquisadores, é que ele pode ser bastante ineficiente e, às vezes, inseguros, abrindo espaço para espionagem e roubo de informações. Atualmente, os nós da rede recebem os pacotes de dados e os reencaminham exatamente como foram recebidos e na ordem de chegada. Já com a nova tecnologia, os nós seriam capazes de redirecionar e recodificar os pacotes conforme necessário, evitando também a interceptação das informações.

O professor Frank Fitzek, da Universidade de Aalborg, relata que os experimentos até o momento tiveram sucesso, obtendo velocidades entre 5 a 10 vezes maiores do que o comum. Nos testes, um vídeo de quatro minutos foi baixado cinco vezes nesta rede sem interrupções.

O pesquisador diz que a tecnologia poderia ser aplicada em comunicação com satélites, internet móvel ou simplesmente a internet comum com computadores.

Os nós inteligentes podem receber os pacotes em qualquer ordem para transmissão dos dados, o que não é possível no TCP/IP. Assim, além de melhorar a velocidade de transferência, a interceptação fica mais complexa já que os pacotes viajam quase de forma aleatória, ficando difícil remontar a informação no meio do caminho.

Posted in: Dicas, Noticias, Segurança, TI

Leave a Comment (0) →

Primeira folha feita pelo homem converte gás carbônico em oxigênio


As plantas são uma dádiva para a humanidade e a vida animal como um todo, fornecendo o oxigênio necessário para a existência. O problema é que elas não crescem em gravidade zero, o que impede seu uso para reciclagem do ar em viagens espaciais. Agora isso pode deixar de ser um problema com a primeira folha capaz de fazer a fotossíntese criada pela ação humana.

Julian Melchiorri, formado na universidade britânica Royal College of Art, criou uma alternativa à falta de terra, sol e nutrientes que normalmente são necessários para a fotossíntese. Sua criação utiliza cloroplastos (a parte da célula da planta responsável pela fotossíntese) e proteínas de seda para criar algo que parece uma folha visualmente, com a mesma capacidade de produção de oxigênio a partir do dióxido de carbono, água e luz.

O pesquisador pensou nas aplicações para viagens espaciais, que certamente devem ser observadas de perto pela Nasa, mas também pensou em aplicações mais cotidianas, como o fornecimento de ar fresco em um ambiente fechado, por exemplo, usando em uma luminária, por exemplo.

No vídeo abaixo, ele cita a possibilidade de que a fachada de prédios poderiam ser revestidas do material criado por ele para dar uma reciclada no ar da cidade.

Posted in: Dicas, Noticias

Leave a Comment (0) →

Fifa 15: times e jogadores do Brasileirão ficarão de fora do game

Fifa 15 não terá a presença dos maiores astros dos gramados nacionais. Em um comunicado oficial, a EA Sports, responsável pelo game, alegou que diante de mudanças no licenciamento de clubes e jogadores no Brasil, eles não serão incluídas na versão do jogo a ser lançada esse ano. Entretanto, a seleção brasileira estará presente normalmente e de forma oficial.

Fifa 14 (Foto: Divulgação)

Fifa 15 não terá os atletas dos clubes do Campeonato Brasileiro


Ao contrário do Fifa 15, porém, o rival PES 2015 terá todos os clubes brasileiros do Campeonato Brasileiro, inclusive com uma atualização semanal que modifica os times que contrataram ou negociaram jogadores novos. Pelo Twitter, o gerente do PES Adam Bhatti alfinetou o concorrente: “De qualquer maneira, os times brasileiros estão incríveis no PES”, postou.

Fifa e PES Bhatti Twitter (Foto: Reprodução)

Bhatti, gerente do PES na Europa, alfinetou o Fifa pelo Twitter

Mesmo com a notícia decepcionante para os torcedores brasileiros, o Fifa 15 chega às lojas do país no próximo dia 25 de setembro para Xbox One, Xbox 360, PlayStation 3, PlayStation 4 e PCs.

Segue o comunicado da empresa na íntegra:

Ao longo das últimas semanas, a Electronic Arts em revelado informações interessantes sobre todas as grandes novidades para FIFA 15. Porém, é igualmente importante destacar algumas mudanças em relação à versão anterior, o FIFA 14, incluindo alterações sobre as ligas e jogadores que estarão disponíveis no novo jogo.

A ausência de clubes e estrelas nacionais se deve, principalmente, a algumas mudanças no processo de licenciamento no Brasil. Desse modo, a EA não conseguiu chegar a um acordo com os detentores dos  direitos dos jogadores e, consequentemente, eles não serão incluídos no jogo FIFA 15, estando também ausentes os respectivos clubes do campeonato brasileiro. 

Apesar desta não ser uma boa notícia para muitos dos fãs, a companhia gostaria de destacar que a Seleção Brasileira foi mantida no novo jogo, bem como as estrelas nacionais que atuam em grandes ligas em todo o mundo.

A EA reforça que seguirá na busca de ter um relacionamento cada vez mais próximo dos fãs, assim como manter uma linha de comunicação aberta com os detentores dos direitos brasileiros.

Muito em breve, a empresa fará um novo anúncio, referente a ligas e licenças. O que deve acontecer próximo a Gamescom, em 13 de agosto. 

FIFA 15 chega no dia 25 de setembro para Xbox One, PlayStation 4 e PC com o motor gráfico EA Sports Ignite. O jogo também estará disponível para PS3, X360.

Posted in: Dicas, Jogos

Leave a Comment (0) →

Fonte vagabunda: o maior erro que você pode cometer ao montar um PC

Quem não está muito familiarizado com os componentes de um computador ou está montando a sua máquina pela primeira vez geralmente não presta muita atenção na fonte de alimentação. Alguns até sabem que ela precisa ter “potência real”, mas geralmente esse dispositivo acaba sendo negligenciado.

Mas o que significa uma fonte ter potência real? Significa que as outras são mentirosas? Na verdade esse termo não existe, pois ele foi criado pelo comércio brasileiro para diferenciar fontes de alimentação genéricas de fontes mais robustas, com qualidade superior. Esse tipo de classificação começou a surgir com as placas de vídeo mais poderosas.

O problema é que mesmo muitas dessas fontes que prometem oferecer “potência real” nem sempre são capazes de cumprir essa tarefa. Ou até conseguem, mas sem nenhum cuidado ou critério de segurança.

Geralmente, quem vai montar um computador tem um orçamento limitado e prefere investir em componentes que vão trazer um aumento mais perceptível no desempenho, como placa de vídeo, processador ou memória. A fonte de alimentação geralmente fica em segundo plano, pois as pessoas escolhem aquela que possa fazer a máquina funcionar, mas que custe o mínimo possível.

Muitas empresas montam computadores assim, pois é um dos itens que podem permitir um aumento considerável da margem de lucro; afinal de contas, ou o computador liga ou não liga. Se ele está funcionando, aparentemente está tudo certo. O cliente que se vire depois se quiser instalar um periférico extra na máquina.

O problema em utilizar fontes de alimentação de baixa qualidade

O problema é que “ligar a máquina” não é tudo que o computador precisa. É possível fazer uma simples analogia com o corpo humano para entender isso.

Imagine duas pessoas. A primeira só se alimenta com doces, fast food e alimentos sem nutrientes. A segunda tem uma alimentação bastante equilibrada que inclui frutas, vegetais, proteínas e fibras, todos na dose correta. Qual dessas duas pessoas você acha que seria mais saudável e teria mais disposição? Obviamente que é a segunda.

A maioria das fontes genéricas tem um visual parecido com esse.

Com o seu computador é a mesma coisa: se você o alimenta de forma errada, ele vai funcionar mal. Assim como uma pessoa que não tem uma alimentação saudável, os componentes eletrônicos não funcionam muito bem se a energia elétrica não é suficiente ou é fornecida de maneira errada.

Diferenças entre uma fonte e uma “bomba” de alimentação

Para entender a diferença entre uma fonte ruim e uma fonte de boa qualidade, é preciso entender o princípio de funcionamento desses equipamentos. A sua tarefa principal é converter a energia que vem da rede elétrica, geralmente 110/220 V 60 Hz para os 12/3,3/5 V normalmente utilizados pelos componentes eletrônicos. A fonte também converte a corrente alternada (AC) proveniente da tomada para corrente direta (DC).

Converter diretamente a energia de AC para DC exigiria componentes muito grandes, por isso a energia é convertida para AC de alta frequência, para que então ela possa ser transformada em energia DC.

Fontes de boa qualidade possuem mais componentes em seu interior.

Depois dessa transformação, a energia ainda está “suja” e precisa ser retificada para não danificar os componentes do computador, e é aí que entra uma série de filtros diferentes.

O principal é o PFC ou “Fator de Correção de Energia”, que é responsável por diminuir o problema com a energia reativa que é gerada na entrada de energia da fonte. Existem dois tipos de PFC: ativo e passivo. O passivo é composto apenas por componentes que filtram a energia que sai do transformador, enquanto o ativo possui um circuito próprio desenvolvido especificamente para retificar a energia em diversos passos.

Depois disso, a energia de entrada passa pelos reguladores que a transformam nos 12/3,3/5 V utilizados pela máquina. Depois a energia de saída é filtrada para ter certeza de que as tensões sejam entregues de forma correta para os componentes do computador.

É justamente aí que entra um dos maiores problemas das fontes genéricas. Para economizar, os fabricantes utilizam componentes de baixa qualidade. Com isso, existem perdas de energia de uma fase para outra e essa perda geralmente causa oscilação de tensões, além, é claro, de gerar calor desnecessariamente.

Para piorar, algumas fontes não possuem todos os componentes necessários (novamente, para cortar despesas) para filtrar a energia e o que é entregue para o computador não é adequado para fazer os circuitos funcionarem como se deve.

O sistema de refrigeração também é um ponto muito importante na hora da compra. Enquanto fontes de boa qualidade possuem coolers grandes e com garantia de bom funcionamento, fontes mais simples trazem coolers ruins, barulhentos e ineficientes; o que não deixa de ser uma ironia, já que essas fontes costumam aquecer mais que componentes de qualidade.

O que uma fonte ruim pode fazer com a máquina

Existe uma série de problemas decorrentes de uma alimentação inadequada. Um deles é a oscilação constante no fornecimento de energia. Isso porque os componentes são desenvolvidos para trabalhar com um valor fixo, por exemplo, 12 V. Se a fonte é ruim, ela pode fornecer 11, 13 V ou até mesmo valores diferentes disso.

O que acontece é que o componente alimentado precisa forçar a retificação de energia, “cansando” mais e gerando mais calor. Isso é extremamente prejudicial para qualquer eletrônico, pois sua vida útil diminui consideravelmente.

Você já deve ter ouvido falar nas linhas de energia da fonte. Cada uma dessas trilhas é uma das origens principais das tensões, sendo que as três principais são 12/3,3/5 V. Enquanto as linhas 3,3 e 5 V geralmente são utilizadas para alimentar periféricos como discos rígidos, as linhas 12 V alimentam o processador e as placas de vídeo. Em algumas fontes, a linha 12 V é dividida, ou seja, existe mais de uma. Isso serve basicamente para proteger o computador de falhas. Se um componente puxar mais energia do que essa linha pode fornecer, a fonte desliga para preservar o hardware.

Em fontes de qualidade que possuem apenas uma linha 12 V, ela geralmente é robusta, pronta para fornecer toda a potência que a máquina precisa. Isso pode ser visto na Cooler Master V1200: ela oferece apenas uma linha 12 V, mas capaz de trabalhar com uma corrente de até 100 A (12 V x 100 A = 1.200 W).

Já no caso de fontes de baixa qualidade, não é possível saber quanta corrente a linha 12 V pode fornecer. Possivelmente será abaixo do que a máquina precisa para funcionar, principalmente se você tiver uma placa de vídeo dedicada instalada na máquina.

Economizar na compra da fonte pode render em uma placa-mãe inutilizada.

O que acontece é que, quando a máquina estiver em plena capacidade, ela vai puxar mais energia da fonte. Como não há energia suficiente, os fios vão aquecer além do limite. Por sorte a fonte vai “desarmar” e nada será danificado.

Contudo, a tendência é que você tente ligar a máquina novamente depois de ela desligar. E é aí que o conector ATX da fonte e o conector ATX da placa-mãe vão derreter e virar uma peça só. Se a máquina não desligar sozinha e você não sentir cheiro de queimado, é bastante provável que ela pegue fogo e você perca a maioria dos componentes internos do seu PC.

Outros componentes também sofrem com a instabilidade no fornecimento de energia. Uma placa de vídeo pode ter seus elementos danificados; um HD pode falhar durante o funcionamento e resultar em bad blocks; um processador pode aquecer mais do que o normal e queimar.

Isso tudo sem falar na dor de cabeça que é ver a máquina falhando, mais lenta ou desligando sozinha esporadicamente. Já pensou investir todas as suas economias em um PC que não funciona como o prometido?

Eficiência energética: não jogue dinheiro fora

Qualquer tipo de transformação de energia gera perda e essa perda é transformada em calor. Quanto mais calor, mais perigo de acidente e mais dinheiro jogado fora. As fontes de alimentação de qualidade possuem eficiência garantida pelo selo 80 Plus.

Entender o que significa a eficiência da fonte é simples: no caso de uma fonte com eficiência de 90%, apenas 10% será desperdiçado em forma de calor, ou seja: se a sua máquina precisa de 500 W para funcionar, a fonte vai puxar da tomada 550 W. Destes, cerca de 50 W serão transformados em calor.

Já as fontes de alimentação genéricas apresentam taxas de eficiência muito baixas, algumas na casa de 70% ou até 60%. Isso significa que se uma fonte for de 500 W e tiver eficiência de 70%, cerca de 30% da energia será desperdiçada em forma de calor, ou seja, em vez de 500 W ela vai puxar da tomada 650 W. Isso significa que você estará literalmente queimando dinheiro.

…..

A médio e longo prazo, utilizar uma fonte de alimentação vagabunda vai acabar custando muito mais caro, pois o dinheiro que você economizou na compra dela precisará ser gasto na compra de novos componentes, que estarão danificados por culpa da alimentação inadequada que você deu ao seu computador.

Na hora de montar uma máquina personalizada, nunca deixe de calcular o preço da fonte de alimentação.

Fuja de fontes ditas “watts real” ou “potência real”. Antes da compra, escolha um modelo preferencialmente de marca conhecida e faça uma pesquisa para saber se o componente é mesmo de qualidade.

Posted in: Dicas

Leave a Comment (0) →

Flexível e transparente: telas da LG são exibidas em vídeos

Os protótipos de telas transparente e flexível apresentadas pela LG no início do mês apareceram em um vídeo divulgado no canal do fabricante no YouTube. Os filmetes mostram os displays em funcionamento e dão uma melhor noção sobre como eles são diferentes dos modelos presentes no mercado atualmente.

Vídeo mostra tela da LG sendo dobrada (Foto: Reprodução/Youtube)

Vídeo mostra tela da LG sendo dobrada


O painel flexível de 18 polegadas, por exemplo, é dobrado quase que inteiramente, para a frente e para trás, por uma funcionária da LG. Isso tudo sem alterar a qualidade da imagem que aparece na tela. O protótipo HD tem resolução de 1200 x 810 pixels e pode ser curvado em torno de um cilindro com raio de 3 cm.

Já no segundo vídeo, a tela transparente, à primeira vista, parece não ter muita diferença em relação aos televisores comuns, pois está na frente de uma parede branca. No entanto, pouco depois, uma representante da LG chega perto da mesma e passa sua mão esquerda por trás do display.

“Como mágica”, a mão parece estar dentro da tela. A transparência é de 30%, bem acima do que os 10% de modelos atuais, mas ainda inferior ao que a empresa crê que pode fazer, que são 40%.

Display transparente é impressionante (Foto: Reprodução/YouTube)

Display transparente é impressionante

Ambos os vídeos são bem curtos, mas servem para dar um bom panorama sobre as novas tecnologias. No entanto, ainda deve demorar para que virem uma realidade para o consumidor. Segundo a própria LG, a ideia é fazer com que comecem a chegar ao mercado em, no mínimo, três anos.

Posted in: Dicas, Noticias

Leave a Comment (0) →
Page 2 of 10 12345...»