Pesquisar portagens no Canal Variedades!

sábado, 9 de abril de 2011

Como conquistar uma mulher…

Salve galera, estava por aew ‘zanzando’ quando derrepente me deparo com um video muito interessante vou explicar melhor;
O maluco entrou no chatroulette e começou a tocar más não fica só nisso, na música ele pede a menina em casamento e faz um teatro surpreendente.
Ta certo que só foi uma apresentação más ficou muito bacana.

Você é do tipo que só digíta textos no msn? Facil, toque violão.

50 coisas que aprendemos com o Super Nintendo!

1. As tartarugas vermelhas são mais inteligentes (e perigosas) que as verdes.

2. Se você estiver dirigindo e ver um raio brilhante ou qualquer objeto estranho de cores chamativas e agradáveis, passe por cima. Se X acelera, A é o turbo.

3. Atirar na cabeça é mais eficaz que em qualquer outra parte do corpo.

4. Allejo foi melhor que Pelé.

5. Nem todas as caixas podem ser empurradas. Muito menos todas as portas podem ser abertas.

6. Só pise no acelerador quando o sinal abrir.

7. Jamais corra fora da pista.

8. Se você não tiver armas ou não souber dar socos, pule na cabeça do desgraçado.

9. Em alguns casos, estrelas são mais importantes que moedas.

10. Não importa qual a distância que você esteja do gol, sempre chute da lateral.

11. Carrinho de lado não é falta.

12. Falta no goleiro leva à expulsão.

13. Golpes especiais, como saltar e dar um soco, fazem você perder vida (desde que você acerte o oponente).

14. Com socos e chutes você quebra carros com mais facilidade do que usando barras de ferro.

15. Não importa o modelo. O carro azul corre mais.

16. Gol olímpico é mais fácil que gol de falta.

17. Nunca é a última fase.

18. Select é tão útil quanto o Scroll Lock ou um bloco amarelo com uma exclamação.

19. Um ataque de zumbis não é nada caso você tenha uma Glock com 10 balas e uma boa mira.

20. Às vezes, uma facada funciona melhor que um tiro.

21. A vida não tem continues infinitos.

22. “Winners don’t use drugs – William S. Sessions – FBI”

23. Não importa qual o seu problema, ele pode ser resolvido com um lança chamas.

24. Ninjas sabem jogar golfe.

25. Você pode construir uma civilização somente com pedras, ouro e madeira.

26. Quando uma pessoa morre ela pisca até desaparecer.

27. Vampiros? Arrumem uma corrente.

28. Meia lua para frente + soco forte = algo interessante.

29. Paredes com rachaduras costumam guardar segredos.

30. Quanto maior o lutador, pior ele é.

31. O reforço sempre chega depois que você mata todo mundo.

32. Nem tudo na vida é Save Game. Portanto, nunca deixe de anotar o password.

33. No final das contas, você se fode para salvar o mundo ou uma mulher.

34. Dirigir pode ser muito mais interessante caso você esteja ouvindo “Highway Star”, “Paranoid” ou “Born to Be Wild”.

35. As melhores épocas de nossas vidas são as fases bônus.

36. PAC MAN nada mais é que correr atrás de balinhas enquanto se ouve uma música repetitiva. Ou seja, uma rave.

37. Você não precisa saber uma única nota musical para ser um astro do rock. Basta ter coordenação motora.

38. Paradas para abastecer o carro ou o avião atrapalham muito.

39. Nem todas as caixas de madeira são quebráveis. Só as mais brilhantes.

40. Barris explosivos são muito bons para matar um grande grupo de pessoas. Basta um tiro certeiro.

41. Nem todos os canos verdes o levam até o esgoto.

42. Não existem castelos sem lava.

43. Quase todos os heróis começam a vida deitados numa cama.

44. Pouco me importa se não adianta nada. Morrermos apertando Start para a introdução passar mais rapidamente.

45. As chaves podem ser do seu tamanho, mas você acha um lugar para guardá-la.

46. Correr no gelo escorrega. Muito.

47. Nem todos os rios estão para nado.

48. Comidas costumam te encher de vida.

49. Seu carro capotou, saiu da pista e explodiu? Ok, aguarde um instante que ele vai voltar piscando.

50. Cogumelos verdes, Não morram antes de provar pelo menos um.

terça-feira, 5 de abril de 2011

Evolução das mídias de armazenamento

Você já parou para pensar no que poderia ser armazenado em um disco rígido de 5 MB? Uma música? Alguns textos? Nada muito importante. Sim, é difícil imaginar a vida cotidiana sem pensar em gigabytes e terabytes, mas há 50 anos, era assim que o mundo da informática vivia: baseado em 5 megabytes de espaço em disco.
O ano exato era 1956 e a IBM havia acabado de lançar o então moderníssimo IBM 305 RAMAC, um computador nada portátil que pesava algo em torno de 1 tonelada (1000 Kg). De lá para cá, muita coisa mudou, é óbvio, e o que o usuário mais tem percebido – mesmo analisando apenas os últimos dez anos – é a relação inversamente proporcional entre tamanho e capacidade.
Agora o portal Baixaki traz ao usuário algumas informações muito interessantes acerca da história das mídias de armazenamento, tanto no campo musical, quanto nos campos fotográfico e digital, relembrando os principais dispositivos criados para o carregamento de dados e também algumas curiosidades sobre esses elementos tecnológicos.

A História do armazenamento

Da cera ao iPod...
Hoje é difícil conhecer alguém que não possua um MP3 player ou qualquer outro reprodutor digital de mídias: 2 GB, 4 GB...Isso parece pouco em alguns momentos, as mídias armazenam horas e mais horas de canções sem repetições, mas isso nem sempre foi assim, há muito tempo a história era bem diferente.
Um dos primeiros formatos de mídia musical, o cilindro fonográfico, inventado por Thomas Edison, era composto de estanho e podia ser reproduzido apenas três ou quatro vezes. Devido à pouca durabilidade foi criado um outro cilindro, de cera, que durava mais e possuía maior qualidade.
Os saudosos discos de vinilEm 1895, os cilindros foram substituídos por discos de goma-laca, que eram tocados em 78 rotações, possuíam mais potência sonora e armazenava até 44 minutos de músicas.
Já no século XX, na década de 30, foi criado o sistema de gravação em bobinas, ou fitas de rolo, ou seja, fitas plásticas que podiam guardar os áudios de maneira eficiente para a época. Tendo em média 16 cm de diâmetro, as bobines foram inspiração para a posterior fita cassete, que tinha a grande vantagem de ser extremamente portátil e podia tocar até uma hora inteira.

Dos discos que passaram a ser produzidos em vinil até as fitas magnéticas, muito tempo passou, até que em 1982 os primeiros CDs começaram a ser comercializados. Eles possuíam a vantagem de serem gravados digitalmente, possibilitando melhores equalizações e, por consequência, maior qualidade na reprodução, que chegava a 80 minutos.
Hoje, o que impera no mundo da música é o iPod (e alguns outros tocadores de mídia digital), pois a capacidade de armazenamento é gigantescamente superior. Um iPod de 120 GB pode guardar o tempo de reprodução equivalente ao de 3829 discos de vinil; 3663 minidiscs; 2808 fitas cassete ou 2106 CDs.
Das câmeras instantâneas ao cartão de memória...
No século XX houve a expansão dos mercados consumidores e as câmeras fotográficas começaram a fazer parte da vida cotidiana de muitas pessoas, mesmo das que não faziam parte da elite. Logicamente o sucesso não foi algo rápido, sendo gradativamente alcançado. Durante anos, as câmeras de foto instantânea imperaram no imaginário popular, até que as primeiras câmeras com filme de revelação posterior foram lançadas.

A maioria dos filmes podia armazenar entre 12 e 36 fotos que, em seguida, seriam reveladas e lotariam os álbuns fotográficos que suportavam cerca de 100 fotos e ocupavam algo em torno de 800 cm³ nos armários das famílias.

Álbuns de fotos

Se esses álbuns forem comparados aos primeiros disquetes, já se pode começar a perceber o quanto a digitalização facilitou o armazenamento das fotografias, pois um disquete de 3,5 polegadas poderia guardar até 50 fotos em baixa resolução.
Isso era só o começo, afinal um disquete tinha capacidade de apenas 1,44 MB. Já pensando em mídias mais modernas, como flash drives e cartões de memória, acoplados às câmeras digitais que já não são mais alimentadas por filmes químicos, e sim por memória eletrônica, a comparação parece ainda mais absurda.
Um cartão de memória SD (Secure Digital) ou mSD (Micro Secure Digital) pode chegar a armazenar até 4000 fotos nos 2 GB de memória interna, sem chegar a ocupar espaço físico significativo.

Pensando em uma unidade de armazenamento de 120 GB, o acervo de fotografias poderia chegar a 31 mil fotos, ou então a um disco rígido de 2 Terabytes, em que 680 mil fotos poderiam ser guardadas, o equivalente a 6800 álbuns de fotografias; 28 mil filmes e mais de 1 milhão de disquetes.Do RAMAC ao pendrive...
Como contado no início do artigo, há pouco mais de 50 anos eram necessários computadores de mais de uma tonelada para que o armazenamento de 5 MB fosse possível. O tempo passou, os computadores foram diminuindo e as capacidades aumentando de maneira inversamente proporcional.
Já foram lançados discos rígidos de 200 MB a 2 TB e não param de surgir novos modelos. É difícil imaginar o que seria dos usuários hoje, com menos de 80 GB, assim como é impossível pensar em como seria o mundo da informática de 50 anos atrás, se já houvesse a memória de terabytes.

Discos rígidos

Mas talvez o maior trunfo já atingido pela indústria da informática esteja na mídia portátil. Assim como nos dispositivos fixos, os avanços tecnológicos nos armazenadores portáteis diminuíram as dimensões e aumentaram exponencialmente as capacidades de memória.
Até os anos 80, o famoso “disquetão” de 5,25 polegadas e 1,2 MB era o mais usado para transportar dados de um computador a outro. Pouco tempo depois foi lançado o disquete de 3,5 polegadas e 1,44 MB, que tinha mais vantagem pela estabilidade (os “disquetões” estragavam com uma facilidade incrível) do que pela memória em si.
O tempo passou e os computadores pessoais passaram a ser vendidos com drives leitores de CDs, que possuíam 700 MB, o que representava uma enorme capacidade de memória, se comparados com os disquetes, que ainda não haviam sido abandonados, devido aos preços altíssimos dos gravadores de CD. Quando estes tornaram-se populares, as pequenas unidades flexíveis de 1,44 MB foram sendo gradativamente deixadas de lado.

Mas os avanços tecnológicos não pararam por aí. Em 1996, exatos 40 anos após o surgimento do RAMAC, foi lançada uma nova mídia muito semelhante aos discos compactos: era o DVD (Digital Versatil Disc), que podia armazenar até 4,7 GB e, posteriormente, com o DVD de camada dupla, 8, 5 GB.

Chegam a 2 TB

Desenvolvido numa parceria entre Toshiba, Philips e Sony, o DVD foi popularizado como uma mídia cinematográfica, pois a funcionalidade mais explorada pela indústria foi justamente a de reprodução de filmes. Sendo assim, além dos CDs, o DVD também foi o algoz de outra mídia muito importante para a história da tecnologia, as fitas VHS.
Quando os 8,5 GB começaram a ser pouco para tanta qualidade gráfica, a indústria cinematográfica ganhou um novo parceiro: o Blu-ray. Lançado oficialmente em 2006, foi a primeira mídia a suportar resoluções altíssimas e áudio de alta qualidade em discos únicos.
Os discos Blu-ray podem possuir 25 GB ou 50 GB (quando de camada dupla), sendo pouco utilizados para transporte de dados, já que o processo de gravação é um pouco demorado e a qualidade é idêntica à de DVDs.

Os dispositivos que mais cresceram nos últimos anos, exclusivamente pela capacidade, facilidade e velocidade no transporte de dados, foram os pendrives, que outrora foram limitados aos 32 MB de memória e hoje já chegam a armazenar mais de 128 GB, sendo as mídias portáteis mais eficientes da atualidade. Em questões de memória, ficam atrás apenas dos discos rígidos, que podem armazenar terabytes.
PendrivesUm pendrive de 128 GB pode ser comparado (em questões de capacidade interna) com: 28 DVDs; 187 CDs; 91 mil disquetes de 3,5 polegadas ou 109 mil disquetes de 5,25 polegadas. Um disco rígido de 2 TB pode armazenar o conteúdo de 17 pendrives desses.
Além disso, outra forma de transportar dados de forma segura – mesmo que não tão portátil – é através do uso de HDs externos. Eles geralmente são acoplados a gavetas externas e conectados aos computadores através de cabos USB.
Por enquanto o processo de transferência de arquivos é um pouco lento, pois a velocidade de resposta dos USBs é limitada, mas num futuro próximo - com o surgimento de tecnologias como o Light Peak - o processo pode ser bem mais veloz.
Até aonde iremos chegar?
Analisando a enorme evolução tecnológica que ocorreu nos últimos 50 anos, surge uma dúvida que é recorrente às mentes humanas: em 1956, uma tonelada armazenava 5 MB, hoje 2 milhões de MB podem ser armazenados em menos de 100 g. Até onde isso poderá evoluir? Chegará um dia em que as mídias serão ainda mais reduzidas? Ou a internet ficará tão rápida que não serão necessários os transportes físicos? Deixe sua opinião.

Todo mundo merece um belo dia de descanso pós trabalho!!!!

Tirinhas duplas…

Alan Alves

Seu Madruga, grande mestre.

Karu

*volta energia volta energia volta energia*

Por que o Play Station 3 é forte contra a pirataria!

A pirataria de softwares e até mesmo hardwares de video games não é algo muito novo, remetendo à época dos consoles 8 bits, especialmente o Nintendo, que dominava o mercado com seus jogos revolucionários. Desde aquela época já era possível encontrar cópias falsificadas de jogos pra o console, porém a tecnologia empregada serviu como um grande obstáculo para a pirataria: como todos os jogos utilizavam cartuchos como mídia, o custo de produção de uma versão falsificada ficava muito próximo do original. Desta forma, compensava para o consumidor pagar um pouco mais para obter o produto original com manual e caixa do que poupar alguns trocados comprando o pirata.

Nestes tempos um cenário interessante acontecia no Brasil: ao contrário de hoje em dia, em que o reino da pirataria acontece principalmente no mercado de softwares, a parte mais pirateada era justamente a mais cara, o hardware. Com a falta de suporte oficial da Nintendo no Brasil durante a geração 8 bits, era comum surgirem diversos clones do console da fabricante japonesa com os mais diferentes nomes.

Quem é um pouco mais velho deve lembrar pérolas como o TurboGame e as incontáveis versões do Dynavision, todos eles versões abrasileiradas do NES. Até hoje é possível encontrar companhias que continuam explorando o console de 8 bits de maneira ilegal, seja através de controles que possuem dezenas de jogos na memória até reproduções de consoles mais recentes que constituem a famosa linha Polystation.

Como o CD ROM contribuiu para o aumento da pirataria

Uma das tecnologias responsáveis por revolucionar o nível de qualidade encontrado nos video games também é culpada por proporcionar um grande aumento no nível da pirataria de software. A inclusão de unidades de CD ROM em consoles caseiros foi uma verdadeira revolução tanto no que diz respeito ao espaço de armazenamento disponível (um cartucho comportava no máximo 256 MB de memória. Um CD ROM comum comporta facilmente 700 MB, mais do que o dobro), quanto no que diz respeito ao custo de produção de jogos e mídia.

Cartuchos eram mídias que utilizavam materiais caros, além da produção estar concentrada nas mãos de poucas empresas. Já com os CDs, a história é completamente diferente: unidades de gravação eram baratas o bastante para que o consumidor comum pudesse instalá-la em sua própria casa. Isso sem contar com o preço das mídias de gravação, acessíveis para o bolso da maioria das pessoas.

Justamente na época da popularização do CD ROM como mídia para a gravação de jogos que houve uma grande explosão da pirataria, especialmente em terras brasileiras. Historicamente, todo software lançado no Brasil costuma chegar de forma atrasada se comparada à data de lançamento em outros países mais desenvolvidos, além de possuir um preço até três vezes maior do que o original. Contando com a falta de representação oficial da Sony, companhia que estava tomando a liderança do mercado naquele momento, o cenário era extremamente favorável para o domínio dos softwares falsificados.

Foi durante o domínio do primeiro Playstation que se tornou comum observar a venda de títulos em camelôs por preços muito menores do que as versões originais. Como o processo de destravar o console não era nada complicado, o cenário que dominava era o de jogadores que comprovam o videogame com o único objetivo de destravá-lo e rodar cópias piratas de software.

Já nesta época houve diversas tentativas de barrar a distribuição de jogos piratas, através de jogos que possuíam mecanismos que detectavam a presença de chips de destravamento e se recusavam a rodar. Até mesmo mudanças da arquitetura interna dos aparelhos foram realizadas como forma de tentar impedir a instalação de hardwares que possibilitassem a reprodução de CDs que não fossem originais.

A tentativa da Sega para combater a pirataria

Dreamcast, último console da SegaEmbora o Playstation fosse o principal alvo dos pirateiros, não demorou para outros consoles apresentarem a possibilidade de rodar facilmente jogos piratas. Enquanto a Nintendo ainda estava relativamente tranquila a esse respeito, por ainda utilizar consoles baseados em cartuchos, concorrentes como a Sega também sofriam o efeito da popularização de CDs.

O Dreamcast, console mais poderoso em sua época de lançamento, chegou a decretar o fim da pirataria pela utilização de uma mídia em CD própria da Sega, o GD. Dois motivos levaram a companhia a acreditar nesta possibilidade: por ser uma mídia proprietária, nenhuma outra empresa tinha a capacidade de fabricar GDs - além de não haver nenhuma espécie de gravador  do tipo disponível no mercado. O outro motivo era relativo ao tamanho dos jogos: enquanto jogos para CDs normais comportavam no máximo 700 MB, os GDs podiam carregar até 1 GB de dados, tornando a conversão de jogos algo aparentemente impossível.

O final da história, como todos devem saber, infelizmente não foi muito favorável para a Sega. O console se tornou um dos mais pirateados da história, principalmente devido à descoberta de falhas em seu sistema de iniciação, que permitiam rodar jogos falsificados sem precisar instalar nenhuma espécie de chip de modificação. Isso se deve à opção da companhia em utilizar uma versão otimizada do Windows CE para ativar o boot do sistema: como já era um sistema operacional bastante conhecido, não foi nenhum trabalho para os grupos piratas desenvolver um método de pular a checagem de segurança feita pelo video game.

Desta forma, rodar jogos piratas no Dreamcast era algo muito fácil. Bastava iniciar o console com um disco capaz de passar o processo de boot de segurança do sistema e em seguida trocá-lo pelo disco contendo o jogo pirata. O tamanho dos GDs também não foi um obstáculo, já que a maioria dos jogos do sistema não ocupava mais do que 700 MB, isso sem contar as diversas técnicas de compressão utilizadas pelos piratas para fazer jogos mais pesados rodar em simples CDs.

A pirataria acompanha a era dos jogos em DVD

GamecubeCom a capacidade de processamento cada vez maior disponibilizada pelos consoles que eram anunciados no mercado, foi preciso mudar de mídia para realmente aproveitar o potencial dos novos produtos. Tanto a Sony quanto a Microsoft apostaram em DVDs como nova mídia de gravação, devido à grande capacidade de armazenar dados se comparada aos CDs. Embora novos métodos de travamento e sistemas de segurança tenham sido implementados para garantir que somente jogos originais fossem capazes de rodar, não demorou muito para que a pirataria chegasse ao Playstation 2 e ao Xbox.

Mais uma vez foram observadas diversas tentativas das fabricantes em barrar a utilização de conteúdo pirata em seus consoles, algumas chegando a conquistar um relativo sucesso. Muitos jogos em suas versões pirateadas apresentavam menos conteúdo do que os originais, devido à utilização de mídias especiais em dupla camada pelos fabricantes. Mesmo assim, a maioria das pessoas não se importou com este problema, pois o preço dos jogos piratas ainda era muito mais atraente se comparado ao do software original.

A companhia que se deu melhor em relação aos softwares piratas foi a Nintendo, mais uma vez devido à escolha de mídia utilizada no Gamecube. Os mini-DVDs utilizados pela companhia não eram tão populares quanto os DVDs convencionais, além de precisarem de um método de gravação próprio para rodarem corretamente. Embora esforços em rodar jogos piratas no console tenham sido bem sucedidos, os títulos falsificados nunca chegaram a ter a mesma forma alcançada nos consoles concorrentes.

Novas formas de combater a pirataria

Com o anúncio do lançamento do XBox 360, Wii e Playstation 3 logo começaram as apostas de quando surgiriam as primeiras formas de rodar softwares piratas nestes consoles. As fabricantes, cientes destes problemas, começaram a analisar as ações que realizaram no passado como forma de tentar descobrir um método que realmente fosse capaz de barrar jogos pirateados.

Um dos fatores que ajudou a barrar a pirataria em um primeiro momento são as funcionalidades online disponíveis em todos os consoles. Além de contar com travas no próprio hardware, que têm o objetivo de detectar tentativas de utilizar software falsificado, o próprio firmware do console é responsável por checar se o usuário está utilizando jogos piratas ou não.

Como os consoles estão conectados todo o tempo à internet, é possível lançar uma série de atualizações responsáveis por corrigir erros de segurança, deixando-os com uma blindagem reforçada contra a ação dos piratas. A ameaça constante de perder a possibilidade de jogar contra amigos caso o aparelho detecte que você não está utilizando um jogo original. também é uma proteção. XBox Live, Playstation Network e a rede online do Wii bloqueiam de maneira definitiva o acesso de qualquer console em que foi detectada a presença de software pirata.

Mesmo com todos estes obstáculos, a pirataria deu um jeito de chegar tanto ao Wii quanto o XBox 360, permitindo manter funcionalidades online mesmo utilizando jogos que não são originais. Porém, por mais tentativas que os piratas tenham feito, até o momento a proteção do Playstation 3 se mantém forte, três anos após seu lançamento. Embora algumas tentativas tenham conseguido passar por certas proteções, nenhum grupo foi capaz de rodar com perfeição um software falsificado no console.

Por que o Playstation 3 é tão forte contra a pirataria?

Não é somente um motivo em específico que torna o video game da Sony tão forte contra a pirataria, mas sim uma combinação de fatores resultantes da observação das falhas que permitiram a disseminação da pirataria no Playstation, Playstation 2 e PSP. Fatores como o hardware utilizado e a forma como o software é atualizado tornaram o Playstation 3 um verdadeiro desafio para hackers. Abaixo listamos algumas das razões porque a Sony conquistou tantas vitórias contra a pirataria nesta geração.

1) Opção pelo Blu-ray como mídia

Por mais que tenha sido considerada uma decisão arriscada em um primeiro momento, optar pela utilização do Blu-ray como mídia de reprodução foi uma jogada que garantiu segurança contra a pirataria. Mesmo com o crescimento do tamanho dos discos rígidos disponíveis no mercado, dificilmente alguém vai se dispor a baixar cerca de 25 GB para obter um jogo. Isso sem contar os jogos em camada dupla, capazes de possuir até 50 GB de conteúdo. Na realidade brasileira, isso pode significar algumas semanas de download, além de romper facilmente com o limite de banda imposto pelas provedoras de acesso nacionais.

O próprio custo do Blu-Ray é outro grande obstáculo para a difusão de jogos piratas. Um disco virgem custa em média 35 reais, valor proibitivo para a maioria das pessoas. Mesmo com fabricantes nacionais como a Microservice anunciando a produção dos discos em território nacional, ainda vai demorar para que a mídia seja tão atraente financeiramente quanto CDs ou DVDs. Isso sem contar o valor dos gravadores, que custam uma média de $400, superior ao pago nos consoles.

2) Preço de lançamento do PS3

O preço de lançamento inicial do Playstation 3, embora tenha sido criticado com toda a razão como abusivo, também contribui para a queda da pirataria. Em forums online é comum encontrar relatos de usuários que dizem que mesmo que um modchip estivesse disponível para o console, dificilmente iriam se arriscar a perder a garantia do aparelho. Afinal, não é todo mundo que pode se dar ao luxo de jogar no lixo os 600 dólares pagos pelo PS3 no seu dia de lançamento.

3) Jogos com região livre

Pode até parecer mentira, mas um dos principais motivos que levou vários donos das duas primeiras versões do Playstation a desbloqueá-los foi a possibilidade de rodar jogos restritos a outros mercados. Muitos jogadores hardcore instalaram modchips em seus consoles para jogar títulos que só saíram no Japão. Com a queda das restrições por região, fica muito mais fácil importar títulos estrangeiros sem precisar modificar em nada o aparelho.

4) Atualizações que realmente trazem novidades

Ao contrário dos demais consoles, que dificilmente alteram alguma funcionalidade durante suas atualizações de software, várias versões do firmware do Playstation 3 possibilitaram que o jogador utilizasse novas funções. Entre as modificações disponíveis está a capacidade de rodar jogos do primeiro Playstation, além de melhorias de conectividade com dispositivos como câmeras USB e microfones que utilizam a tecnologia Bluetooth.

O PSP ensinou duras lições sobre pirataria para a Sony

Isso tudo contando com as constates atualizações de segurança que vêm em cada uma das atualizações disponíveis, a utilização de softwares piratas com certeza iria significar a perda do acesso a todas as funções online e atualizações do video game. Ao levar-se em conta as diversas funções que o Playstation 3 ganhou ao longo do tempo, o uso do jogo original torna-se ainda mais vantajoso.

5) Complexidade do hardware

Sem dúvida este é o principal motivo pelo qual hackers ainda não foram capazes de desbloquear a proteção do PS3. Ao ligar o console, ocorrem quatro estágios diferentes responsáveis por checar a segurança do video game. Primeiro é verificado se o HD utilizado está no PS3 correto, e só então são liberados os arquivos necessários para iniciar o carregamento do sistema operacional do aparelho.

Em seguida é feita a leitura do DRM, garantindo a autenticidade do disco presente no drive leitor. Só depois de todos esses processos é que o console começa a carregar os arquivos dos jogos. Todas estas etapas contam com diversos arquivos de segurança que tornam muito complicada a ação de hackers e basta a falta de qualquer um destes componentes para que o Playstation 3 seja incapaz de iniciar corretamente.

Outro obstáculo são os sete processadores Cell utilizados pelo console: um deles é responsável somente por checar a segurança do aparelho e é acessível somente para funcionários Sony. Este Cell certifica que tudo no Playstation 3 realmente pertence ao aparelho, restringindo a troca de discos rígidos entre usuários e uso de cópias não autorizadas de jogos. Apesar de este processador ser capaz de se comunicar com outros, ele não é acessível por meios  diversos do permitido como os demais, tornando-o muito seguro contra ataques externos.

Mesmo que esta proteção fosse quebrada, os hackers ainda teriam que lidar com o leitor de Blu-ray do console, desenvolvido para funcionar de maneira dedicada no Playstation 3. Cada disco é codificado utilizando uma chave 128-bit que o identifica, devendo ser lido de uma maneira específica para rodar. A segurança é tão grande que não há meios de fazer como no PSP, em que é possível trocar um disco por outro durante a leitura, abrindo a possibilidade de instalar modificações.

O Playstation 3 chegou para provar que, ao contrário da crença popular, é possível fazer um console de video games imune à pirataria. A Sony parece que realmente aprendeu com erros anteriores, utilizando uma série de mecanismos de proteção tão impressionantes quanto os jogos do PS3.

E você, o que acha sobre isso? Acredita que o Playstation 3 vai continuar impenetrável ou a pirataria também vai derrotar sua proteção? O Baixaki conta com sua opinião sobre o tema.

Mais de 1500 PlayStation 3 reunidos para formar um único supercomputador!

O Condor Cluster

Fonte da imagem: US Defense Department

Cerca de um mês atrás, a Força Aérea americana comprou mais de 2,2 mil consoles PlayStation 3 e o mundo ficou curioso, porque ninguém sabia o motivo de tal compra. O resultado acaba de sair e ele realmente impressiona: 1.760 consoles foram unidos sob o comando de 168 unidades de processamento gráfico e 84 servidores coordenadores, para formar “o computador interativo mais rápido de todo o Departamento de Defesa”.

Todos os PlayStation 3 tiveram sua unidade de leitura de DVD-Blu-ray removidas, de forma que não é possível jogar neles. Mas em compensação, o resultado foi uma máquina superpotente, atualmente ranqueada como o 33.º maior computador do mundo.

O objetivo do projeto, apelidado de Condor Cluster, é realizar rapidamente a análise de imagens de alta-resolução. Isso significa bilhões de pixels sendo processados a cada minuto, reduzindo o tempo de trabalho, que costumava demorar horas, para alguns segundos, afirma o coordenador da empreitada.

A maior vantagem em usar os consoles, no entanto, fica por conta dos gastos. Produzir um computador com tal capacidade por meios convencionais custaria cerca de 20 vezes mais do que o Condor Cluster. Ainda assim, a Força Aérea já afirmou que espera ansiosamente para trabalhar com a próxima geração tecnológica.

A Avolução dos computadores

Das toneladas aos microchips

Não é segredo que o seu computador atual é fruto de uma evolução que levou décadas para chegar aonde está – e ainda está muito longe de chegar ao seu final.  Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada.

Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos desapareceram, componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos.

Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores.

As gigantes válvulas da primeira geração

Imagine como seria sua vida se você precisasse de uma enorme sala para conseguir armazenar um computador. Logicamente isso seria impossível, pois os primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a funções de cálculos, sendo utilizados para resolução de problemas específicos.

Por que problemas específicos? Os computadores da primeira geração não contavam com uma linguagem padronizada de programação. Ou seja, cada máquina possuía seu próprio código e, para novas funções, era necessário reprogramar completamente o computador. Quer mudar o problema calculado? Reprograme o ENIAC.

ENIAC e suas 18 mil válvulas

Fonte da imagem: Wikimedia Commons/Domínio Público

Esses computadores gigantescos ainda sofriam com o superaquecimento constante. Isso porque em vez de microprocessadores, eles utilizavam grandes válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo que cada válvula acesa ou apagada representava uma instrução à máquina.

Com poucas horas de utilização, essas válvulas eram queimadas e demandavam substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes utilizados por um computador ENIAC. Como você pode perceber, esses computadores não saíam baratos para os proprietários.

Transistores e a redução dos computadores

As gigantes máquinas não estavam sendo rentáveis, pelos constantes gastos com manutenção. A principal necessidade era substituir as válvulas elétricas por uma nova tecnologia que permitisse um armazenamento mais discreto e não fosse tão responsável pela geração de calor excessivo, evitando superaquecimentos.

Foi então que os transistores (criados em 1947 pela empresa Bell Laboratories) passaram a integrar os painéis das máquinas de computar. Os componentes eram criados a partir de materiais sólidos conhecidos como “Silício”. Exatamente, os materiais utilizados até hoje em placas e outros componentes, extraídos da areia abundante.

Transistores em 1965

Fonte da imagem: Wikimedia Commons/Hohum

Existia uma série de vantagens dos transistores em relação às válvulas. Para começar: as dimensões desses componentes eram bastante reduzidas, tornando os computadores da segunda geração cem vezes menores do que os da primeira. Além disso, os novos computadores também surgiram mais econômicos, tanto em questões de consumo energético, quanto em preços de peças.

Para os comandos desses computadores, as linguagens de máquina foram substituídas por linguagem Assembly. Esse tipo de programação é utilizado até hoje, mas em vez de ser utilizado para softwares ou sistemas operacionais, é mais frequente nas fábricas de componentes de hardware, por trabalhar com instruções mais diretas.

Em vez das 30 toneladas do ENIAC, o IBM 7094 (versão de maior sucesso dessa segunda geração de computadores) pesava apenas 890 Kg. E por mais que pareça pouco, essa mesma máquina ultrapassou a marca de 10 mil unidades vendidas.  

Imagem atual de um IBM 7090

Fonte da imagem: Wikimedia Commons/David Monniaux

Curiosidade: os computadores dessa segunda geração foram inicialmente desenvolvidos para serem utilizados como mecanismos de controle em usinas nucleares. Um modelo similar pode ser visto no desenho “Os Simpsons”, mais especificamente no posto de trabalho de Homer, técnico de segurança na Usina Nuclear.

Miniaturização e circuitos integrados

O emprego de materiais de silício, com condutividade elétrica maior que a de um isolante, mas menor que a de um condutor, foi chamado de semicondutor. Esse novo componente garantiu aumentos significativos na velocidade e eficiência dos computadores, permitindo que mais tarefas fossem desempenhadas em períodos de tempo mais curtos.

Com a terceira geração dos computadores, surgiram também os teclados para digitação de comandos. Monitores também permitiam a visualização de sistemas operacionais muito primitivos, ainda completamente distantes dos sistemas gráficos que conhecemos e utilizamos atualmente.

IBM da terceira geração

Fonte da imagem: Wikimedia Commons/Domínio Público

Apesar das facilidades trazidas pelos semicondutores, os computadores dessa geração não foram reduzidos, sendo que um dos modelos de mais sucesso (o IBM 360, que vendeu mais de 30 mil unidades) chegava a pesar mais do que os antecessores. Nessa época (final da década de 1970 e início da década de 1980) os computadores passaram a ser mais acessíveis.

Outro grande avanço da terceira geração foi a adição da capacidade de upgrade nas máquinas. As empresas poderiam comprar computadores com determinadas configurações e aumentar as suas capacidades de acordo com a necessidade, pagando relativamente pouco por essas facilidades.

Microprocessadores: o início dos computadores pessoais

Enfim chegamos aos computadores que grande parte dos usuários utiliza até hoje. Os computadores da quarta geração foram os primeiros a serem chamados de “microcomputadores” ou “micros”. Esse nome se deve ao fato de eles pesarem menos de 20 kg, o que torna o armazenamento deles muito facilitado.

Você consegue imaginar qual o componente que tornou possível essa redução das máquinas? Acertou quem disse que foram os microprocessadores. O surgimento dos pequenos chips de controle e processamento tornou a informática muito mais acessível, além de oferecer uma enorme gama de novas possibilidades para os usuários.

Em 1971, já eram criados processadores com esse novo formato, mas apenas na metade da década começaram a surgir comercialmente os primeiros computadores pessoais. Os Altair 880 podiam ser comprados como um kit de montar, vendidos por revistas especializadas nos Estados Unidos. Foi com base nessa máquina que Bill Gates e Paul Allen criaram o “Basic” e inauguraram a dinastia Microsoft.

A importância da Apple

Na mesma época, os dois Steves da Apple (Jobs e Wozniac) criaram a empresa da Maçã para se dedicarem a projetos de computação pessoal facilitados para usuários leigos. Assim surgiu o Apple I, projeto que foi primeiramente apresentado para a HP. Ele foi sucedido pelo Apple II, após uma injeção de 250 mil dólares pela Intel.

Apple II, sucesso absoluto

Fonte da imagem: Musée Bolo

Essa segunda versão dos computadores possuía uma versão modificada do sistema BASIC, criada também pela Microsoft. O grande avanço apresentado pelo sistema era a utilização de interface gráfica para alguns softwares. Também era possível utilizar processadores de texto, planilhas eletrônicas e bancos de dados.

Essa mesma Apple foi responsável pela inauguração dos mouses na computação pessoal, juntamente com os sistemas operacionais gráficos, como o Macintosh. Pouco depois a Microsoft lançou a primeira versão do Windows, bastante parecida com o sistema da rival.

E os ciclos tornam-se clocks

Até a terceira geração dos computadores, o tempo de resposta das máquinas era medido em ciclos. Ou seja, media-se um número de ações em curtos períodos de tempo para que fosse possível saber qual fração de segundo era utilizada para elas. Com os microprocessadores, já não era viável medir as capacidades dessa forma.

Por isso surgiram as medidas por clocks. Esta definição calcula o número de ciclos de processamento que podem ser realizados em apenas um segundo. Por exemplo: 1 MHz significa que em apenas um segundo é possível que o chip realize 1 milhão de ciclos.

Grande parte dos computadores pessoais lançados nessa época eram alimentados por processadores da empresa Intel. A mesma Intel que hoje possui alguns dos chips mais potentes, como o Intel Core i7 (sobre o qual falaremos mais, em breve). Como você pode saber, estas máquinas são muito leves e puderam ser levadas a um novo patamar.

Notebooks: a quarta geração portátil

Considerando o progresso da informática como sendo inversamente proporcional ao tamanho ocupado pelos componentes, não seria estranho que logo os computadores transformassem-se em peças portáteis. Os notebooks surgiram como objetos de luxo (assim como foram os computadores até pouco mais de dez anos), sendo caros e de pouca abrangência comercial.

Notebooks cada vez mais poderosos

Fonte da imagem:divulgação/Asus

Além dos notebooks, temos também os netbooks disponíveis no mercado. Estes funcionam de maneira similar aos outros, mas geralmente possuem dimensões e configurações menos atraentes. Ganham pontos pela extrema portabilidade e duração das baterias utilizadas, sendo certamente um degrau a mais na evolução dos computadores.

Hoje, o preço para se poder levar os documentos, arquivos e programas para todos os lugares não é muito superior ao cobrado por desktops. Mesmo assim, o mercado ainda está longe de atingir o seu ápice. Quem sabe qual será o próximo passo da indústria?

Múltiplos núcleos: a quinta geração?

Ainda estamos em transição de uma fase em que os processadores tentavam alcançar clocks cada vez mais altos para uma fase em que o que importa mesmo é como podem ser melhor aproveitados esses clocks. Deixou de ser necessário atingir velocidades de processamento superiores aos 2 GHz, mas passou a ser obrigatório que cada chip possua mais de um núcleo com essas frequências.

Chegaram ao mercado os processadores que simulavam a existência de dois núcleos de processamento, depois os que realmente apresentavam dois deles. Hoje, há processadores que apresentam quatro núcleos, e outros, utilizados por servidores, que já oferecem oito. Com tanta potência executando tarefas simultâneas, surgiu uma nova necessidade.

Processamento verde

Sabe-se que, quanto mais tarefas sendo executadas por um computador, mais energia elétrica seja consumida. Para combater essa máxima, as empresas fabricantes de chips passaram a pesquisar formas de reduzir o consumo, sem diminuir as capacidades de seus componentes. Foi então que nasceu o conceito de “Processamento Verde”.

Por exemplo: os processadores Intel Core Sandy Bridge são fabricados com a microarquitetura reduzida, fazendo com que os clocks sejam mais curtos e menos energia elétrica seja gasta. Ao mesmo tempo, esses processos são mais eficazes. Logo, a realização de tarefas com esse tipo de componente é boa para o usuário e também para o meio ambiente.

Sandy Bridge, da Intel

Fonte da imagem: divulgação/Intel

Outro elemento envolvido nessas conceituações é o processo de montagem. As fabricantes buscam, incessantemente, formas de reduzir o impacto ambiental de suas indústrias. Os notebooks, por exemplo, estão sendo criados com telas de LED, muito menos nocivos à natureza do que LCDs comuns.

.....

Não sabemos ainda quando surgirá a sexta geração de computadores. Há quem considere a inteligência artificial como sendo essa nova geração, mas também há quem diga que robôs não fazem parte dessa denominação. Porém, o que importa realmente é perceber, que ao longo do tempo, o homem vem trabalhando para melhorar cada vez mais suas máquinas.

Quem imaginava, 60 anos atrás, que um dia seria possível carregar um computador na mochila? E quem, hoje, imaginaria que 60 anos atrás seria necessário um trem para carregar um deles? Hoje, por exemplo, já existem computadores de bolso, como alguns smartphones que são mais poderosos que netbooks.

E para você, qual será o próximo passo nessa evolução das máquinas? Aproveite os comentários para dizer o que você pensa sobre essas melhorias proporcionadas ao longo de décadas.

Surgem imagens do windows 8

(Fonte da imagem: Win7China)

O site chinês Win7China publicou ontem (4 de março) imagens de uma versão de testes preliminares do Windows 8. A build 7910.0.winmain_win8m2.110111 possui um visual bastante semelhante ao encontrado no Windows 7, porém já revela algumas das novidades que devem ser implementadas no novo sistema operacional.

Segundo a fonte das imagens, a primeira novidade fica por conta do tempo de instalação, que leva somente 8 minutos – aproximadamente 2,5 vezes mais rápido que a versão atual. Além disso, há um novo utilitário de restauração das configurações adicionais que dispensa o uso de mídias externas e pendrives para retornar o sistema ao estado em que estava quando saiu da fábrica, procedimento que leva somente 2 minutos.

(Fonte da imagem: Win7China)

A principal novidade fica por conta da integração do sistema operacional com a Windows Live ID. Além de permitir que a Microsoft obtenha dados mais precisos sobre a forma com que o software é utilizado, a novidade indica que a empresa pretende investir mais em funcionalidades ligadas a aplicativos localizados na nuvem.

(Fonte da imagem: Win7China)

Outro detalhe que pode ser percebido é a nova forma com que a instalação de drivers é indicada pelo sistema. Em vez de deixar a informação dentro de um ícone na Bandeja do sistema (systray), o Windows 8 mostra o progresso obtido diretamente na Barra de tarefas. Completando a lista de novidades divulgadas está a possibilidade de usar um pequeno vídeo no lugar da imagem de exibição de cada usuário.

Disponível somente na metade de 2012

Segundo uma reportagem do jornal Bloomberg, a Microsoft planeja lançar a versão do Windows 8 para tablets somente no segundo semestre de 2012. O objetivo seria conciliar a novidade com o período de volta às aulas norte-americano. Uma fonte não identificada anunciou que a empresa pretende iniciar os primeiros testes públicos do sistema operacional no final de 2011 entre empresas e clientes selecionados.

(Fonte da imagem: Win7China)

Ao adiar o lançamento de um sistema operacional exclusivo para tablets para o segundo semestre de 2012, a Microsoft arrisca perder mercado para concorrentes como a Apple e a Google. Além de competir com uma possível terceira versão do iPad, a companhia teria de lidar com o fortalecimento do Android, cuja versãoHoneycomb deve ser lançada.

Versão de testes do Windows 8 é distribuída para montadoras

Fonte da imagem: reprodução/ZDNet

Depois de alguns rumores, diversos sites apareceram com informações concretas sobre o Windows 8. O site ZDNet divulgou hoje as primeiras novidades sobre o sistema. Os parceiros da Microsoft receberam a versão M3 do Windows 8, através do Microsoft Connect. Depois dessa distribuição de testes, diversas informações e imagens vazaram.

A primeira imagem (disponível acima) é uma captura de tela que exibe o visual geral do sistema. Ela foi levemente modificada para não exibir a versão do sistema, pois, como é de se imaginar, o compartilhamento de screenshots nesse estágio de desenvolvimento é proibido. Você pode obter o papel de parede em tamanho grande logo abaixo: basta clicar na imagem para ampliar e então salvá-lo.

Clique para baixarAmpliarClique para baixar (Fonte da imagem:reprodução/ZDNet)

A interface do Windows 8 parece não ter mudado muito, todavia o site ZDNet revelou que há fortes indícios de que realmente existam dados “Jupiter bits”, os quais estariam ligados ao novo visual do Windows.

Além disso, há rumores de que exista uma interface com o codinome “Twin UI”, a qual seria controlada pelo arquivo TWINUI.DLL. Apesar de não ter como habilitar esses visuais, pode ser que a Microsoft esteja mantendo o código de ativação em espera, para liberá-lo apenas em uma versão futura do Windows 8.

Novidade do Windows 8

Fonte da imagem: reprodução/MDL Forums

Uma novidade interessante também foi postada pelo site win7china.com. Segundo a página chinesa, o Windows 8 trará um ícone na Bandeja do sistema, o qual deve facilitar o acesso às configurações de usuário. A mesma novidade pode ser conferida nas screenshots postadas na MDL Forums (veja acima).

Quais as extensões que deixam o Firefox mais lento? Divulgada lista dos 50 mais!!!

Mozilla divulga lista de extensões que mais atrasam o início do Firefox

Fonte da imagem: Reprodução / Mozilla Add-Ons

Todos sabem que o Firefox pode ganhar inúmeras novas funções a partir da instalação de complementos. Contudo, essa facilidade pode trazer consequências e uma delas é o retardamento da inicialização do programa. A Mozilla divulgou uma lista das 50 extensões que mais causam lentidão na hora de abrir o Firefox.

Algumas extensões bastante populares, como FoxLingo, FlashGot e Video DownloadHelper, estão entre as dez mais problemáticas no que diz respeito à inicialização do aplicativo. A imagem acima reproduz as dez primeiras posições do ranking elaborado pelos criadores do Mozilla Firefox.

Quem sabe nas próximas versões o Firefox não contenha uma espécie de gerenciador de tarefas que mostra quais extensões consomem mais recursos do sistema. Um aviso no momento da instalação seria uma boa medida para alertar o usuário de que tal complemento pode causar lentidão na hora de abrir o aplicativo.

Você sabia que um computador já custou mais que um carro zero novo?

Os preços baixam e a tecnologia aumenta

Quando chegamos a algum mercado ou loja especializada em computadores e nos deparamos com valores inferiores aos R$ 2 mil, fica difícil acreditar que cerca de 15 anos antes era impossível comprar uma máquina com configurações aceitáveis por menos do dobro deste valor.

Para sermos mais exatos, os R$ 4 mil de 1996 equivalem a R$ 12.691 de hoje, conforme atualização monetária com base na taxa inflacionária (índice INPC). Ou seja, a redução no valor não foi de apenas 50%, mas de 85%. Mas por que será que os computadores custavam tanto se não possuíam a mesma potência de hoje?

A onda dos valores

A tecnologia trabalha em ciclos muito bem definidos. Aparelhos que custam muito têm seus valores reduzidos gradativamente até que cheguem aos preços mais populares, então surgem novas tecnologias, fazendo com que a curva dos preços volte a subir e o ciclo se repita. Isso pode ser percebido com televisores e suas diferentes tecnologias: CRT, LCD, Plasma, LED e os novos modelos 3D que ainda estão com preços altíssimos.

A tendência é a queda dos valores

Em se tratando de informática, não é diferente. Os componentes de hardware sempre são lançados com valores altos que, com o passar do tempo, são reduzidos. Um dos fatores que mais contribui para a redução nos preços é a evolução tecnológica, pois quando são lançados novos produtos, é necessário reduzir os valores dos mais antigos para que eles não fiquem presos nas fábricas.

Fazendo uma análise bastante rústica, pode-se pensar da seguinte forma: o que aconteceria com os novos eletrônicos, se os antigos não tivessem seus preços reduzidos? Seria necessário vender cada geração com preços mais elevados, resultando em valores astronômicos para peças simples dos computadores.

Para entender melhor como funciona o esquema de ciclo de vida dos computadores e outros eletrônicos, confira este artigo completo que o Baixaki preparou no final de 2010.

Os primeiros computadores pessoais

Até o começo da década de 1970, os computadores eram limitados aos bancos e outras empresas que podiam gastar milhões de dólares para acelerar o processo de cálculo de algumas tarefas. Estas máquinas eram conhecidas como mainframes e não faziam muito mais do que calculadoras poderiam fazer (logicamente, com um fluxo muito mais elevado).

Mainframe IBM 704

Fonte da imagem: Lawrence Livermore National Laboratory

A história continuou sendo escrita da mesma forma até meados de 1971, quando o computador Kenbak-1 foi lançado. Segundo o Computer History Museum, apenas 40 exemplares do computador foram produzidos pela Kenbak Corporation.

Os computadores Kenbak-1 possuíam 256 bytes de memória RAM, não apresentando processador. No lugar dele, a máquina trabalhava com ciclos de instrução de máquina de um microssegundo, o que seria equivalente a um processador de 1 MHz. Ele chegou às lojas por 750 dólares, valor que hoje seria equivalente a 4.098 dólares americanos.

Apple e a popularização dos computadores

Ainda na década de 1970, Steve Jobs e Steve Wozniak fundaram a Apple e lançaram o Apple I, que em 76 seria responsável pela entrada da empresa no mercado de tecnologia mundial. O computador chegou às lojas custando 666 dólares (equivalente a 2.590 dólares atuais), o que gerou muitos comentários negativos por parte de religiosos norte-americanos.

Para resolver este impasse, Steve Jobs deu declarações de que aumentaria o preço dos computadores para 777 dólares, assim as acusações cessariam. O Apple I foi o primeiro aparelho a ser lançado completamente montado, sendo que só era necessário acrescentar um teclado e um monitor para que ele pudesse ser utilizado.

Conheça o Apple II

Fonte da imagem: Bilby

No ano seguinte surgiu o Apple II, já com processador com clock de 1 MHz e 4 KB de memória RAM. O sucesso de vendas impulsionou outras empresas a criarem computadores pessoais, o que foi de extrema importância para a popularização desses aparelhos. Foi nessa época que as máquinas passaram a desempenhar funções mais complexas, como a geração de gráficos coloridos.

Desde o lançamento do primeiro Apple até a última geração dos iMacs, 35 anos se passaram e muito da computação evoluiu. De volta às análises financeiras: a máquina com processador de 1 MHz custava 666 dólares sem monitor, hoje um iMac com monitor integrado pode ser encontrado por cerca de 1.199 dólares.

Corrigindo os valores com base na inflação norte-americana, os 666 dólares se transformam em 2.590 dólares. Ou seja, um computador atual, com processador de 3 GHz e 4 GB de memória custa menos da metade do que custaria um Apple I.

Novos iMacs com configurações arrasadoras

Fonte da imagem: divulgação/Apple

Para que fosse possível se obter a potência de processamento de um computador iMac, seria necessário somar o poder de 3 mil computadores trabalhando simultaneamente para uma única tarefa. Logicamente isso não seria viável, mas vale lembrar que estamos utilizando estes números em caráter ilustrativo.

1 MB de RAM já custou o mesmo que um notebook

Há 25 anos, possuir 1 MB de memória RAM instalado no computador era mais do que suficiente para qualquer um. Mas não era qualquer usuário que poderia comprar “tanta” memória, visto que cada pente de 512 KB não saía por menos de 400 dólares. Um megabyte chegou a custar 859 dólares em 1985 (valor corrigido: 1.766 dólares).

Hoje, 1 MB de memória custa 1 centavo de dólar e não serve para quase nada. Um pente de memória de 1 GB pode ser encontrado por cerca de 13 dólares. Portanto, montar um computador com 4 GB de memória (média para computadores pessoais) custa menos de 100 dólares, cerca de 10% do que seria gasto com 1 MB há 25 anos.

O que você faria com 1 MB?

Como acontece com qualquer produto, o ciclo de vida das memórias RAM é encerrado com o lançamento de memórias mais potentes. Hoje, os pentes que custam mais são os de memória Flash, que devem ter os preços reduzidos de acordo com o tempo. É provável que em 20 anos, outros tipos de memória sejam lançados e os atuais padrões fiquem na história, assim como aconteceu com pentes DIMM.

Processadores já trabalharam com megahertz

Quando os processadores Intel80386 (os populares 386) chegaram ao mercado em 1985, eles possuíam 275 mil transistores ocupando cerca de 1,5 micrômetros. Custando 299 dólares (valor corrigido: 614 dólares), continuaram a ser vendidos até 1994, ano em que a nova arquitetura Pentium chegou aos computadores pessoais.

Hoje, o processador Intel Core i3 (versão mais modesta da nova família de processadores da Intel) oferece aos seus usuários 382 milhões de transistores em uma arquitetura de apenas 32 nanômetros. Enquanto o 386 oferecia clocks de 10 a 40 MHz, os atuais i3 podem chegar a 3 GHz, até 250 vezes mais rápidos.

Intel 386 já foi poderoso

Fonte da imagem: CPU Grave Yard

Podendo ser encontrados por valores que permeiam os 315 dólares, seria possível dizer que os processadores tiveram todo esse aumento de potência sendo acrescidos apenas 15 dólares em seu preço. Isso já seria bom, mas se levarmos em conta os valores corrigidos do dólar, podemos afirmar que o valor do processador foi reduzido em 300 dólares.

Armazenar é preciso

HDs possuem em média, 500 GB

Não adianta ter computadores se não existir um disco rígido para armazenar os dados. Nas máquinas atuais não é possível imaginar menos de 300 GB, sendo que a média dos HDs é de 500 GB. Imaginando que um disco com essa capacidade custa cerca de 35 dólares, cada gigabyte sai por volta de 7 centavos de dólar.

Em 1980, o valor pelo mesmo gigabyte era de 193 mil dólares. Considerando o disco rígido da Morrow Designs de 26 MB, que custava cerca de 5 mil dólares, seriam necessários 38 deles para que 1 GB de arquivos pudesse ser armazenado por completo.

Já imaginou o quanto você gastaria para que fosse possível instalar todos os seus programas favoritos ou baixar todas as músicas que possui no seu HD atual? O valor fica ainda mais absurdo se atualizarmos os valores de 1980 para a cotação atual do dólar: neste caso, 1 GB de HD custaria 518 mil dólares.

Um carro ou um computador?

Há alguns anos esta pergunta era feita para pessoas que tinham algum dinheiro guardado, pois dificilmente elas poderiam comprar os dois ao mesmo tempo. Exatamente, cerca de 40 anos atrás não existiam computadores populares e todos eles custavam mais do qualquer um imagina pagar em máquinas tão simples.

Em 1970, um carro popular podia ser comprado por cerca de 3 mil dólares (17 mil dólares atuais). Com a mesma quantia, seria possível comprar um computador e meio, com as configurações mais básicas da época. Atualmente, computadores com configurações consideradas aceitáveis custam menos de 1 mil dólares, enquanto carros populares custam os mesmos 17 mil.

Carros ou computadores?

Comparando em números mais brutos, pode-se dizer que, enquanto 40 anos atrás era possível trocar um carro por um computador e meio (ou um computador mais potente), hoje com o preço de um carro popular é possível adquirir 15 computadores capazes de rodar os principais aplicativos do mercado.

Qual a velocidade da internet dos funcionários do Google?

Acelera Google!

Fonte da imagem: Google / Reprodução

Você conseguiria adivinhar qual é a velocidade de conexão que os funcionários da Google têm à disposição, no escritório central da empresa, na Califórnia? Em um fórum de debate com desenvolvedores do Google Chrome, um usuário decidiu fazer justamente essa pergunta.

O resultado impressiona. A imagem acima mostra um pico de download e upload. Para baixar arquivos, os felizardos funcionários da empresa conseguiram atingir uma velocidade de até 523 Mb/s. Já para upload, o número máximo registrado foi de 147 Mb/s.

Para se ter uma ideia do quanto essa velocidade é significativa, basta dar uma olhada na velocidade média de navegação nos Estados Unidos: 10 Mb/s. Já na Europa, a média é de 12 Mb/s. Os 500 MB/s da sede da Google representam um número quase 50 vezes maior do que a média.

Se você tivesse acesso a uma conexão como essa em sua casa, por exemplo, poderia encher um HD de 500 GB em apenas 16 minutos. Será que seria o suficiente para os seus downloads?

Leia mais no Baixaki: http://www.tecmundo.com.br/9384-qual-a-velocidade-da-internet-da-google-.htm#ixzz1IgE5eOx9

Da ficção para a realidade: O Demolidor

Se você não viveu a década de 90 pode ate ser que o filme O Demolidor seja uma referência distante. No entanto, o filme estrelado por Sylvester Stallone lançado em 1993 fez parte de uma geração de produções de ação que traziam elementos da ficção científica como pano de fundo para as histórias apresentadas.

O Demolidor

O Demolidor acompanha a história do policial John Spartan (Sylvester Stallone). Depois de ser enganado pelo bandido Simon Phoenix (Wesley Snipes), Spartan é condenado à uma prisão de criogenia. Lá ele passa 36 anos até que é descongelado e volta a atuar no combate ao crime. A cidade de Los Angeles, no entanto, está completamente diferente. O crime foi erradicado, os costumes mudaram e o controle sobre a população parece estar por toda a parte.

Para mostrar essa Los Angeles futurista, o filme apresenta diversas tecnologias, ainda inéditas à época do seu lançamento. O Baixaki foi pesquisar quais delas deram certo e quais acabaram por se tornar meras exemplos de ficção. Será que as previsões de 1993 se tornaram realidade?

 

Conservação do corpo humano por criogenia

Um dos elementos-chave para a trama de O Demolidor é a conservação de um ser humano pelo processo de criogenia. Trata-se de um processo em que um organismo é congelado, mas mantém por meio de dispositivos elétricos todas as funções vitais do ser humano em funcionamento.

Assim, segundo a teoria apresentada no filme, é possível deixar alguém congelado por dezenas de anos e trazê-lo à vida quando bem entender. O período funciona como uma espécie de hibernação em que o ser humano não sente a passagem do tempo, voltando à vida com as mesmas características do período em que foi submetido ao processo.

Câmaras de criogenia no filme O Demolidor

Fonte: Warner Bros

Tecnologias como essa estão muito longe de se tornar realidade. No entanto isso não significa que a criogenia não exista ou que não esteja em pleno desenvolvimento. Ela é utilizada na atualidade na conservação de embriões e sêmen posteriormente utilizados em processo de fertilização.

O material genético pode ser guardado por mai de dez anos sem que haja algum tipo de perda ou deterioração. O procedimento não é novo e as primeiras experiências concretas datam da década de 40. A utilização de baixas temperaturas também é a principal alternativa para preservação de órgãos humanos para transplante.

Tablets

No início da década de 90, os desktops ainda faziam parte da realidade de poucos usuários. Os computadores portáteis então, nem se fala. Assim, qualquer tecnologia sugerida que dispensasse fios e pudesse ser carregada para qualquer lugar ainda pareciam sonhos inalcançáveis.

Hoje, pouco mais de 15 anos depois, os tablets são a mais nova febre da indústria da informática. O lançamento do iPad acelerou a corrida pelo formato e praticamente todas as grandes empresas do setor já dispõem de um modelo, disponível nas lojas ou ainda em pré-venda.

Tablets já são mais do que realidade nos dias de hoje

Fonte: Warner Bros

Os tablets aparecem como uma ferramenta de trabalho dos cientistas do laboratório de criogenia e parecem se adaptar naturalmente às suas funções. No YouTube temos vídeos de pilotos de Fórmula Indy, mecânicos e profissionais de diversas áreas mostrando como um tablet pode se adaptar com facilidade à vida dos usuários.

Carros com controle de rota,  piloto automático e videoconferência

Em 1993, pensar em veículos pilotados automaticamente e com controle de rota, GPS e videoconferência integrados ainda era um fato restrito às projeções da ficção científica. Porém, essa é uma inspiração que a ficção tratou de tornar realidade rapidamente.

Hoje, a um custo acessível, é possível ter quase todas essas funções integradas em um veículo. Obviamente comprar um carro com piloto automático que dispense por completo a intervenção do motorista ainda não é opção sensata e tampouco disponível em qualquer veículo.

Carros com piloto automático

Fonte: Warner Bros

Porém, em linhas gerais, com menos de R$ 2 mil você já consegue montar um kit para o seu carro que inclua um GPS de qualidade e um computador de bordo com 3G que, entre outras funções, lhe permitirá acessar a internet e ter acesso a serviços de conferência por áudio ou vídeo.

Aliás, o serviço de videoconferência mostrado em O Demolidor parece arcaico se comparado ao que temos hoje. No filme, um dos personagens faz uma explanação em uma sala com um monitor em cada cadeira. Será que à época ninguém pensou que poderíamos ter mais de uma pessoa dividindo a mesma tela, como acontece hoje?

Videoconferência aperfeiçoou o exemplo da ficção

Fonte: Warner Bros

Identificação pela íris e o “big brother” virtual

Para preservar a paz na Los Angeles do futuro, dois elementos são indispensáveis para o poder público: reconhecimento e controle. O primeiro é feito por meio da leitura da íris. Já o segundo acontece de várias formas, mas a maneira mais eficiente é por meio de chips implantados nos cidadãos que informam a localização exata de cada pessoa em tempo real.

A identificação por leitura biométrica está se tornando cada vez mais popular. No entanto, a principal utilização ainda é a impressão digital. O reconhecimento pela íris já existe e é utilizado em muitas empresas, mas ainda está longe de ser uma alternativa barata ou popular.

Identificação pela íris ainda é cara se comparada a outras tecnologias

Fonte: Warner Bros

Já em se tratando de localizar uma pessoa em meio à multidão, ao que parece, não precisaremos chegar à implantação de chips para que isso aconteça, já que os próprios cidadãos se encarregam de abastecer o “mundo virtual” com essas informações.

Celulares com preços acessíveis que disponham de BlueTooth, Wi-Fi ou 3G permitem que qualquer um, por meio do Twitter, do Facebook ou do FourSquare, informem a localização exata de onde estão. Câmeras de segurança por toda parte, em especial nas grandes cidades, completam o mapeamento completo dos cidadãos.

Easter Eggs: previsões para um futuro próximo

Nem só de previsões tecnológicas vivem os filmes futuristas. Alguns fatos mencionados na produção também merecem destaque e não deixam de ser curiosos. Por exemplo, em 2032 a cidade de Los Angeles deixou de existir, fundindo-se com San Diego e San Francisco, e passou a ser chamada de San Angeles.

Arnold Scharzenegger, então um astro dos filmes de ação, é apontado como tendo sido eleito presidente dos Estados Unidos. Coincidentemente ele entrou para a vida política norte-americana anos depois e hoje é o atual governador da California, com aspirações de chegar à presidência.

As misteriosas três conchas: modo de usar permanece uma incógnita até hoje

Fonte: Warner Bros

Mas o maior mistério que persiste no filme são as curiosas três conchas encontradas no banheiro. No futuro elas substituem o papel higiênico, mas não há nenhuma indicação de como elas são utilizadas. A dúvida persiste mesmo após o filme e na internet existem diversas teorias sobre ela.

Esse ano, um grupo de brasileiros insistiu junto ao ator Sylvester Stallone, em seu perfil oficial no Twitter, para que ele explicasse o funcionamento delas. Stallone respondeu dizendo que a utilização é similar aos pauzinhos da culinária Oriental. Mas e a terceira concha? O mistério permanece.

Leia mais no Baixaki: http://www.tecmundo.com.br/5717-da-ficcao-para-a-realidade-o-demolidor.htm#ixzz1Ig86mNRi