|
Posted: 23 May 2013 03:03 PM PDT
Você usa o Google+? Se a resposta for sim, você está entre uma pequena quantidade de usuários brasileiros que acessam a rede social do Google – é bem mais provável que alguém entre no Yahoo! Respostas do que no Google+.
Números do Serasa Experian divulgados pela Folha sobre a audiência de redes sociais no Brasil falam algumas coisas que já sabemos – o Facebook (66,54%) e o YouTube (18,48%) dominam os acessos – mas tem alguns dados curiosos. E não é só sobre o Google+. O Orkut se mantém vivo, e foi acessado por 2,2% dos brasileiros em abril deste ano, seguido pelo ask.fm (2,1%). O Yahoo! Respostas é o quinto serviço mais visitado com 1,8%, superando até o Twitter (com 1,75%). E o Google+ aparece em nono. Antes dele ainda estão o Badoo (1,05%!) e o Bate-papo UOL (0,84%). Só então o Plus aparece, com 0,78% das visitas, ainda à frente do Windows Live Home, com 0,57%, que fecha os dez mais visitados. Em comparação com abril do ano passado, a queda do Orkut é impressionante: ele tinha 21,29% de mercado e agora tem 2,2%. A antiga rede social do Google que por anos foi a mais acessada por aqui está cada vez mais parecida com uma cidade fantasma – apesar de, como mostram os números, é menos fantasma do que o Google+. O cenário das redes sociais no Brasil é um tanto estranho. Ninguém discute que o Facebook domina os acessos, mas é engraçado ver serviços como o Yahoo! Respostas à frente do Twitter, ou até mesmo que o Google+ está atrás do Bate-papo UOL. [Folha] |
|
Posted: 23 May 2013 02:40 PM PDT
Dizem que sucesso tem muitos pais, mas o fracasso é órfão. Julgando por esse padrão – ou qualquer outro – a internet é um sucesso. Al Gore inventou. Tim Berners-Lee conseguiu um título de nobreza por causa dela. Todo mundo usava antes de se tornar legal. Mas apenas dois homens alguma vez tiveram o título de “Pai da Internet”. Um deles é o cientista da computação Bob Kahn. O outro é Vint Cerf.
Se é difícil apreciar a conquista de Vint Cerf, é porque ela está em todos os lugares. Em algum momento de 1973, Vint Cerf e Bob Kahn encontraram uma forma de fazer máquinas conversarem umas com as outras usando um protocolo chamado TCP/IP. O protocolo era simples, elegante e contagiante. Praticamente qualquer coisa poderia usá-lo. Pessoas diziam que ele rodaria em duas latas conectadas por um pedaço de corda. Hoje, ele roda em tudo. Não apenas em computadores. Na “Internet das coisas”, termostatos, refrigeradores e torradeiras usam. Programação de televisão e redes de telefones estão ligadas nele. É como se o babelfish de Douglas Adams fosse reduzido a uma série de pacotes. Quando nós finalmente nos curvarmos aos nossos líderes robôs, provavelmente vamos ter que aprender a falar TCP/IP para implorar por nossas vidas. Obrigado, Vint. Os interesses e realizações de Vint Cerf vão longe. Quando conversamos, ele estava trabalhando em problemas de latência associados ao envio e recepção de sinais de rede do e para o espaço. E ele também estava preocupado com o aquecimento global. Obviamente, tinha muito mais coisa para descobrir sobre Vint Cerf. Mas o que realmente queríamos saber era como o pai da internet faria para acertar pinos de boliche separados. GIZMODO: Pelo que eu entendo, muito do trabalho que você fez veio da DARPA, e a DARPA era uma agência que tinha que pensar em grandes ideias, não em necessidades imediatas, mas coisas a longo prazo. E de certa forma ela foi uma resposta a grandes ideias como Sputnik. Vint Cerf: Isso é parcialmente certo, apesar de eu achar que a DARPA não se caracterizava apenas por grandes ideias. A forma como eles caracterizariam a DARPA era “problemas difíceis” que são coisas super arriscadas que você não está tentando encontrar uma solução, e ninguém mais está enfrentando. Assim, eles não estavam interessados em fazer algo que mais alguém estava fazendo, não estavam interessados em competir com ninguém. No caso da internet, essa era uma exploração desta tecnologia particular, a troca de pacotes, que era considerada maluca no momento, pela comunidade de telefonia convencional. A AT&T não queria nada com aquilo, não ia funcionar, eles não queriam gastar o tempo naquilo. Eles estavam felizes em emprestar circuitos dedicados aos idiotas que queriam criar essa coisa de ARPANET. Então o problema da DARPA tinha alto risco e altíssimo retorno, se você realmente conseguir fazer funcionar. E muito do que eles faziam era chegar ao limite de quase qualquer coisa. Quando começamos em 1958 queríamos chegar ao espaço. Porque Sputnik provocou todas as coisas dentro de nós nos Estados Unidos. O que precisamos é de mais momentos como Sputnik, na verdade. Se estivéssemos olhando, genericamente, para uma forma de galvanizar o país, o momento do Sputnik era o que precisávamos. Eu achava que teríamos isso com o aquecimento global, mas ele não vai acontecer instantaneamente para criar um sentimento de que se não fizermos algumas coisas estaremos em apuros. É o tipo de coisa que é cozida lentamente, como um sapo durante um experimento. GIZMODO: Que tipo de babaca cozinha um sapo na água só para ver se ele vai morrer? Então este é o alto risco, alto retorno… VC: Agora nós temos muitas coisas de alto risco em relação à mudança climática global. E a recompensa é certamente a sobrevivência. Mas muitas pessoas simplesmente não entendem, e isso é fascinante. GIZMODO: Então você é um ambientalista? VC: Bem, não me qualifico para ser um ambientalista, mas acredito que temos um problema. Os níveis de CO2 estão altos demais. A coisa que me assusta mais do que qualquer outra são os hidratos no fundo oceano. Os hidratos de metano. Agora eles estão sequestrados porque as temperaturas estão baixas o suficiente. Mas há evidências, evidências geológicas, de que os hidratos estão começando a derreter. E eles liberam o metano. O metano é 27 vezes pior do que o dióxido de carbono; é um gás do efeito estufa. Por isso provocou um aumento significativo de vários graus durante um período de não sei quantas centenas ou milhares de anos. De qualquer forma você não veio falar sobre isso. Mas é uma coisa que me assusta, não é o problema do CO2, mas se ele provocar alguma coisa imparável… nós podemos ser uma espécie esperta, mas talvez não inteligentes o suficiente para entender como podemos sobreviver se tiver um aquecimento global significativo. GIZMODO: Até que seja tarde demais. Até que essas situações de alto risco já estejam… VC: Já estão acontecendo. VC: O que você quer falar? Espera, você sabe o que a DARPA acabou de fazer? Esse projeto que começou no laboratório de propulsão a jato em 1998. Extensão interplanetária da internet. Eles dizem que falam sério sobre isso. Já fizemos o design, temos os planos, estamos na estação espacial… eles estão a bordo de sondas científicas de Marte. A DARPA financiou o teste, inicialmente, para táticas militares em ambientes simulados. GIZMODO: É a ruptura da tolerância de latência? VC: A DARPA lançou mais um estudo de meio milhão de dólares sobre o design de uma nave espacial para chegar à estrela mais próxima em um período de cem anos. Então eu sou parte da equipe que venceu isso… é uma concessão. Não é um contrato, é uma concessão. E é apenas um estudo, ninguém vai construir nada. Mas os problemas e desafios são absolutamente fantásticos. Em primeiro lugar, precisamos atingir a 20% da velocidade da luz para chegar lá, para o ponto médio em 50 anos… caso contrário você voa ao redor do sistema Andrômeda e tira duas fotos, e é o fim. Não é bom o suficiente. Então você precisa diminuir a velocidade para entrar em órbita. Em segundo lugar, os sistemas de propulsão atuais nos levariam até lá em 65.000 anos. Então temos muito trabalho a fazer. E existe a comunicação. Como você gera um sinal para quatro anos luz de distância que você consegue detectar. Então esse é o meu problema, pensar sobre isso. E então tem a navegação. Estrelas não são o que parecem ser. A luz leva tempo para chegar lá. Então elas são falsas. Você precisa imaginar… você está a um ano luz de distância da Terra, e precisa descobrir o que fazer. Como fazer correções no meio do caminho? E você não pode fazer isso remotamente, certo? Porque leva um ano para o sinal de luz ir e voltar. Quando você falar “Você tem que fazer isso”, eles já estão a mais um ano luz de distância. GIZMODO: Mais ou menos um ano luz. VC: Então de qualquer jeito é um projeto que talvez nem seja lançado enquanto eu estiver vivo, mas não me importo. É uma daquelas coisas que nós fazemos parte. GIZMODO: Isso é para a DARPA ou para o Google Maps? VC: (risos) É para a DARPA, neste caso. Mas já temos o Google Mars, Google Moon, Google Sky e Google Earth. GIZMODO: Qual é o próximo? VC: Você sabe o que eu gostaria de fazer? Gostaria de fazer algo com o Google Earth onde você dá um zoom e descobre a fauna e flora, e outras coisas. Que tal uma enciclopédia da vida? O que tem aí? O que pode crescer por aí? GIZMODO: Que tipo de molde está no seu telhado? (risos) VC: E então, que tal o universo interior? Não fizemos nada a respeito… nós fizemos poucas coisas com o oceano, mas não muito sobre o que está na terra. E se você olhar dentro de organismos? Pessoas… nós faremos um Google organismos. E humanos são uma escolha interessante. Porque nós temos quantidades enormes de DNA bacteriano em nossos corpos. Cem vezes mais DNA bacteriano do que DNA humano. Mas crescemos, evoluímos com essas coisas. GIZMODO: Você já se procurou no Google no trabalho? VC: Não costumo fazer isso. Mas eu deixo um Google Alert preparado porque é bom saber quem está me atacando agora. Mas não. Na verdade sou razoavelmente bem tratado. Há um pouco de desavença agora com a FCC porque eu fui um pouco crítico com o relatório de banda larga. GIZMODO: Qual relatório de banda larga? VC: Você sabe, todo ano a FCC faz um relatório para ver como estamos desenvolvendo a banda larga. E você sabe, este aqui, este relatório; todo servidor de internet está entre 85% e 107% da sua capacidade anunciada, ou largura de banda. E eu não acho que nenhum de nós na comunidade de pesquisa que mediram essas coisas viram números próximos à banda anunciada. Então muitos de nós estamos coletando dados independentemente de qualquer coisa que eles usam para gerar o relatório, e nós vamos comparar para ver o que acontece. GIZMODO: Quais são os dados que a FCC usa? Bem, existe uma empresa chamada Sam Knows que eles contrataram, e eles tem servidores por aí onde fazem as medições. Estamos confusos com o resultado extremamente favorável, pelo menos eu considero assim. Mas não sabemos como avaliar isso até que eles lancem os dados. Então uma das coisas que a minha equipe no Google está fazendo é tentar pegar os dados, e a metodologia usada para coletar e analisar as estatísticas. Para que a gente possa reproduzir. GIZMODO: Você se lembra de Matthew Broderick no filme Jogos de Guerra? VC: Sim, foi em 1982, mais ou menos? GIZMODO: 1981, 82? Quais eram seus pensamentos na época? VC: Bem, é claro que era uma filme besta de fantasia. Não seria fácil para uma criança hackear daquele jeito. Por outro lado, era um filme divertido. Como qualquer outro entretenimento, certo? Isso é chamado de suspensão voluntária de descrença para que você possa se divertir. É por isso que continuo lendo O Senhos dos Anéis, Harry Potter, O Mágico de Oz. GIZMODO: Jogos Vorazes? VC: Na verdade não vi nem li isso. Talvez eu deveria. Sou um grande fã de ficção científica, mas normalmente coisas dos anos 50 e 60. Um ótimo momento. Ray Bradburry, que morreu recentemente. Orson Scott Card, um mais novo. Ele escreveu O Jogo do Exterminador. Ele tem cerca de 15 ou 16 livros. Então são essas pessoas que eu costumo ler. GIZMODO: Você pegou a série Duna? VC: A série Duna? Eu li o primeiro. E então eu meio que… foi meio como ler Guerra e Paz de Tolstói. Mas eu também lia um cara que morreu que era do JPL, ou Caltech, um desses caras. Robert L. Forward. Que é um astrofísico. Nos livros ele se prende a coisas reais. E no apêndice ele diria “Isso é como você constrói uma máquina do tempo.” E você sabe, tirando o fato de que precisaria de uma quantidade de energia que não temos agora “Oh, você precisa de um monopolo ou dois, ou cinco”. Mas era um físico de credibilidade, ou um pouco extrapolado. E agora o bóson de Higgs foi descoberto. Você pode meio que ver alguém começar a extrapolar a teoria da gravidade quântica, porque agora você tem uma partícula que supostamente serve para imbuir as coisas com massa. Uma vez que você tem a partícula e o campo de força para massa, você começa a trazer noções gravitacionais para o modelo padrão. Isso é animador. GIZMODO: Então seria como um grande imã? VC: Bem, o que deve acontecer – o livro que você deveria ler é chamado Time Masters, é sobre um cara que consegue criar uma distorção espacial, é como um wormhole, tem a propriedade estranha quando você vai de uma extremidade a outra mais rápido que a luz, se estivesse viajando através de uma geodésica no universo. E assim que você conseguir isso você faz uma máquina do tempo. Se você gostar das consequências de ser capaz de fazer isso e gostar do fato de que é uma extrapolação da física conhecida, para mim é bastante divertido. Porque então você consegue imaginar que pode ser possível. GIZMODO: E sobre Philip K. Dick? VC: Não muito. Por mais que eu goste de O Senhor dos Anéis e Harry Potter… eu não gosto que mexam com a minha ciência. Então não mexa com a minha ciência. GIZMODO: Então não existe ciência em Harry Potter? VC: Bem, tem a varinha, mas… GIZMODO: A maior parte das pessoas vai reconhecer que o uso principal da internet é para ser uma ferramenta global para acesso rápido e confiável a pornografia. Quais são seus pensamentos por ser o pai desse veículo? VC: Antes de tudo, o que eu acho que é mais aparente sobre a rede, e a coisa que eu me tocou como sendo a mais interessante, é que depois de Tim Berners-Lee agregar a ideia do World Wide Web, ele codificou maneiras de apontar conteúdo e de transportar conteúdo, que são o HTTP e o HTML. A implementação dessa ideia foi seguida pelos navegadores e servidores. Quando ele fez isso, era por volta de 1989, e o release oficial dos seus primeiros navegadores e servidores saiu em 25 de dezembro de 1991. E ninguém notou. Exceto dois caras, que se chamam Mark Andreessen e Eric Bina, do Centro Nacional de Aplicações para Supercomputadores. Eles desenvolveram o Mosaic, que foi a primeira versão gráfica dessa coisa. Quando ela apareceu, por volta de 92, todo mundo ficou maluco. Porque, de repente, a rede era colorida, era imagética, não era mais só texto. Você não tinha mais que saber UNIX e algumas linhas de programação. De uma hora para outra, qualquer pessoa podia usar a rede, pois ela era visualmente intuitiva. Uma das lições que eu aprendi com isso é que, assim que você torna fácil para as pessoas criarem e compartilharem informação, elas fazem isso. Elas não estão atrás de compensações monetárias. O que elas querem é a satisfação por algo que elas sabiam, compartilharam, e é útil para outra pessoa. Então, há esse tsunami de conteúdo, o que, claro, cria imediatamente a necessidade de algum tipo de motor de busca, porque você não consegue encontrar nada nesse oceano. Então, ver as pessoas colocarem informações na rede era muito empolgante. Claro, isso significava que o público geral ainda tinha que ter acesso a isso. E há toda uma história sobre finalmente chegar nesse ponto. Até 1988, nenhum acesso estava disponível para o público geral. Havia apenas coisas bancadas pelos governos, sejam pesquisas universitárias, departamentos de defesa ou outro tipo de coisa estatal. Alguns de nós trabalhamos muito duro para quebrar essa limitação. A partir do momento em que o público geral conseguiu a isso mais às ferramentas da web, eles começaram a gerar conteúdo. Havia um outro truque que pode ter sido intencional, mas não necessariamente com esta intenção em mente, mas conseguia ter esse efeito. Era a possibilidade de olhar para uma página web e perguntar para o navegador “Como isso foi gerado? Mostre-me o HTML.” Isto é, ver ou exibir o código-fonte. Então todos que estavam curiosos sobre como fazer páginas da web aprenderam a fazer isso com as outras pessoas que já tinham feito uma. E fizeram isso apenas olhando o código. E elas podiam brincar com isso, podiam copiar, não havia controle de acesso, não havia restrições à propriedade intelectual, as pessoas podiam simplesmente colocar suas páginas. Então, tivemos webmasters que se inventaram de fato, aprendendo a partir de todo mundo. E isso foi se propagando. Isso é parte do que disparou esta avalanche. Qualquer um que quisesse podia escrever seu próprio HTML. Então, a exposição do mecanismo permitiu que o público em geral fizesse o que ele bem entendesse, e claro que isso é um reflexo da nossa sociedade. A Internet é como um espelho. Ela reflete o que a sociedade é. Então, as pessoas ficam irritadas com pornografia e discurso de ódio, e ficam bravas com sites de terrorismo. Eu digo, todas essas coisas ruins. Ou fraudes, abusos, stalking, todas essas coisas ruins que acontecem. É verdade, elas acontecem sem a Internet, e acontecem também na Internet, porque o público geral está lá. Bem. Então temos aqui este espelho mostrando todas essas coisas ruins. A questão é, então: o que acontece quando você vê coisas ruins no espelho? Bem, você não conserta o espelho. A Internet é um espelho. Ela não faz nada bom. Consertar a Internet não vai consertar o problema. Você tem que consertar as pessoas que estão sendo refletidas no espelho. GIZMODO: Um problemão para DARPA! GIZMODO: Apenas voltando no TCP/IP por um segundo, eu acho que isto é bem interessante em 1973… agora nos vivemos num mundo em que cafeterias têm um endereço IP. Em que a TV está migrando para o IP, tudo, quase todos os pedacinhos de dados que flui através do mundo é — VC: Embalado num pacote IP. GIZMODO: Certo. Então, em 1973, você tinha alguma ideia do que você estava fazendo, e esta é uma questão secundária, mas por um instante eu lembro que se você instalava redes no começo dos anos 90, havia outros protocolos estranhos. Havia NetBIOS e IPS-XPS e todas essas coisas. Por que o TCP/IP venceu? VC: Foi uma batalha enorme. Deixe me tentar responder suas duas perguntas. A primeira é, nós tínhamos alguma pista do que ia acontecer? E claro, uma resposta honesta e literal seria não, mas não seria precisa. Você tem que entender que, em 1973, a ARPANET já estava em operação desde 1969, o começo dos anos 70. Então, nós tínhamos três anos de experiência com ela. A razão para isso ser importante é que, por volta de 1971, o email já havia sido inventado. A questão era anterior, no tempo das máquinas, em que você tinha que mandar arquivos para alguém, o que não tinha a mesma utilidade do email. Quando ele apareceu, por volta de 1970, foi um hit instantâneo. Logo virou um fenômeno social. Listas de email foram criadas rapidamente depois do email aparecer. E as duas primeiras que eu lembro eram a Sci-fi Lovers e a Yum Yum. Olha só, nós somos um bando de geeks! GIZMODO: E o fórum um, vamos lá. VC: Na verdade, essas coisas apareceram — Yum Yum eram reviews de restaurantes vindas de Palo Alto. Sci-Fi Lovers, eu não sei quem começou mas você sabe, nós falávamos dos livros que gostamos. A pornografia não aparecia aí. Ela deu as caras na Usenet. Usenet é outro fenômeno que temos aqui. É UNIX e UUCP. A Usenet era uma estrutura muito inteligente para colocar alguma coisa na corrente e atingir todo mundo. Há grandes discussões sobre quem administra, quais são os tópicos, e outras coisas assim. Foi aí que isso começou, o compartilhamento de imagens digitalizadas, e notícias em texto, e coisas assim. O que era interessante para nós é que, eventualmente, a Usenet imerge na Internet. Isso também aconteceu com vários outros sistemas. BITNET usa protocolo de transferências de arquivo, ou envio de partículas remotas, para mover as coisas de uma máquina para outra. E mesmo assim, ela cresceu demais… eventualmente ela também ficou submergida na Internet também. Todos esses sistemas migraram para a Internet, simplesmente porque a infraestrutura dela continuou crescendo e estava disponível. E isso começou em parte por causa da comunidade acadêmica, e investimentos feitos por organizações como a National Science Foundation. Na verdade, gastaram dinheiro usando conexões internacionais para ligar outras redes de pesquisa fora dos EUA ao resto da Internet nos EUA. Então, esta prática regular de expandir o sistema para além do ponto de vista governamental foi muito importante. GIZMODO: Quanto tempo do seu trabalho você passa navegando na Internet? VC: Não muito. Eu não fico navegando apenas pelo prazer de navegar. Eu estou conectado, entretanto, usando muito o Google. Mas é em grande parte para pegar informações específicas que preciso. Se estou escrevendo um artigo ou preparando um discurso ou fazendo outra coisa, tentando desenvolver um argumento político, eu estou frequentemente buscando mais informações sempre que eu posso. Mas nunca apenas navegando aleatoriamente. O que eu acho mais fascinante… eu costumava escrever — há muitos, muitos anos, eu escrevia as coisas à mão. E alguém iria datilografar isso. Então vieram os programas de processar palavras, e eu gostei porque eu podia digitar rapidamente. E depois de alguns anos usando estes programas, eu descobri que eu não queria escrever nada mais. Eu preferia ter essa ferramenta acessível. Então eu descobri, quando acabou a luz e eu fiquei sem internet, e eu estava no meio de algum texto, bem, eu ainda tinha meu laptop e bateria… Eu não queria escrever ao menos que eu estivesse online. E o motivo era que eu não tinha a liberdade de ir procurar alguma coisa enquanto escrevia. Eu quero dizer, você começa a escrever e percebe que não sabe alguma coisa. E a possibilidade de abrir uma página e procurar alguma coisa no Google… eu fiquei surpreso por não querer sentar lá e digitar texto quando não estava conectado. Eu não tinha percebido isso. Então, eu fiquei muito viciado em ter acesso a informação todo o tempo. Parece que nós estamos ficando acostumados a isso porque temos o jargão da informação em nossas bolsas ou algo assim. Eu não sei o que nós fazíamos quando ficávamos perdidos. GIZMODO: Você acha que há implicações psicológicas causadas por esse vício? VC: Houve alguns relatos de pessoas que dizem que são viciadas em internet. Há quem diga que você deve pegar uma hora por dia e simplesmente se desconectar. Só para lembrar como é não estar conectado. Alguém disse que nós estamos ficando idiotas pois não lembramos de mais nada, só usamos o Google? Mas minha reação a essa linha de argumentação em particular é imaginar que você acabou de inventar a escrita. E o contador de histórias do vilarejo está indignado com a ideia. Ele diz, “Isso é terrível. Ninguém vai lembrar mais nada. Vão só escrever. É terrível, nossas memórias vão se desintegrar.” E agora nós sabemos que a escrita se tornou algo muito importante. Uma coisa com que eu realmente me preocupo é o potencial de perder o pensamento crítico. Aqui vai uma pequena anedota. Eu estou dando uma palestra, e a professora levanta e diz que elas está muito irritada com a Internet. Agora, por quê isso? Os alunos vêm para a sala com seus laptops. E eles estão conectados. E agora eu fico pensando que ela vai reclamar que eles ficam no Facebook ou fazendo outras coisas? E eu falo, bem, o que eles fazem? Ela diz que eles procuram as coisas de que ela fala. E eu digo, qual o problema…? Bem, eles discutem. Mas isso é bom! Isso significa que estão comprometidos! Você deve considerar isso um bom sinal. Então, eu digo que você deveria tirar proveito disso. Eis o que você deve fazer. Você dá às pessoas a possibilidade de escolher qualquer uma de dez páginas, você os dá as páginas para a pessoa e ela escolhe uma. Sua tarefa deve ser olhar aquele website e analisar o conteúdo, voltar e explicar por que você deve ou não acreditar nele. Ou quanta credibilidade tem o site? VOCÊ precisa documentar seus resultados. E esse trabalho não acaba se tudo que você faz é usar fontes online. Há um lugar chamado biblioteca e lá tem essas coisas chamadas livros. E nem toda biblioteca está conectada. E se você fazer uma diligência prévia na qualidade e no conteúdo daquele site, você vai ter que ir à biblioteca também. Então, você precisa demonstrar essas duas coisas. O nome disso é pensamento crítico, e é a habilidade mais importante que você pode ter. Não apenas porque há várias informações erradas na rede. Há informações erradas em todo o lugar. Você acha isso em jornais, revistas, TV, rádio, filmes, seus amigos, seus pais… todos eles estão sujeitos a não entender direito alguma coisa. Esta noção de ensinar as pessoas a serem céticas com relação ao que elas leem e ouvem ou veem é uma habilidade muito importante. Não tem que ser rude, não tem que ser “você é um mentiroso e eu não acredito em nada do que você diz”, é meio que eu quero tentar e decidir sozinho. E eu acho que se nós não fizermos isso, vamos acabar com um monte de pessoas que não têm qualquer discernimento. Porque não vamos ter a capacidade de analisar coisa alguma. E eu considero esse o maior perigo. Fotos por John Ulaszek. |
|
Posted: 23 May 2013 12:33 PM PDT
Às vezes usamos GIFs para reações, às vezes para piadas e, em alguns casos, eles são apenas arte. Isso é verdade para essas imagens feitas pelo artista de Istambul Erdal Inci, que magistralmente criou GIFs espetaculares usando pedaços clonados de vídeos.
Em muitos casos, Inci, que costuma trabalhar sozinho, é o assunto. Ele usa pedaços das imagens para criar a ilusão de um rebanho interminável de homens descendo um corrimão, ou caminhando. Falando por e-mail, Inci disse ao Gizmodo um pouco de como ele transforma uma pessoa em um exército animado gigante: Em meus GIFs a figura é uma atuação com a própria rua ou espaço. Ele ou ela vão passar em frente à câmera por 20 segundos, por exemplo. Então o que você vê no GIF é feito a partir de vídeos de 20 segundos. Ao clonar esse movimento em sequência, verifica-se um padrão de movimento. Então você vê todos os 20 segundos em apenas um segundo. Ou até menos como em cinco quadros. A ideia aparece em todas as repetições. Eu comecei a pensar sobre “tempo” principalmente e como eu poderia usar a rua para fazer não apenas loops visuais bonitos, mas algo que você sinta ser indescritível. Eu também uso diferentes tipos de instrumentos como lanternas, leds e grandes porções de isopor para variar esses sentimentos.Os GIFs de Inci não existem apenas dentro da internet, por mais que você encontre vários deles no seu blog. Eles também estarão em exposição na vida real na Action Gallery em Milão no dia 25 de maio e em Nápoles no dia 30 de maio. [Erdal Inci via ThisIsColossal] |
|
Posted: 23 May 2013 12:04 PM PDT
Isso é inacreditável: a Lego construiu um modelo em tamanho real de uma nave X-Wing usando surpreendentes 5.335.200 blocos! É tão grande quanto a coisa real, com espaço para Luke Skywalker e até Porkins.
Como você pode ver nessas imagens e vídeos exclusivos do Gizmodo, o modelo reproduz a X-Wing Fighter Lego 9493 de US$ 60. Mas em vez de 560 peças e alguns centímetros de largura, este modelo usa mais de cinco milhões de peças e tem 3,3 metros de altura e mais de 13 metros de comprimento. Assim como a X-Wing real – e 42 vezes o tamanho do modelo de Lego. Os fatos inacreditáveis Eis os detalhes do modelo:
Para capturar as fotos e vídeos, o Gizmodo teve que viajar para um hangar próximo a Nova York, onde o modelo chegou de navio da Lego Model Shop em Kladno, na República Tcheca. Mas você pode ver com seus próprios olhos se estiver em Manhattan, já que ele está em exposição no meio da Times Square. De acordo com a Lego: O modelo foi projetado para resistir a toda o transporte, montagem e desmontagem, e para garantir que era seguro para Times Square considerando o sistema de metrô abaixo e as exigências sísmicas da Califórnia para a instalação Legoland California Resort. A X-Wing sendo apresentada em Times Square, em Nova York. Não está em Nova York? Sem problema. Após três dias na cidade, a X-Wing será transportada para a Costa Oeste, onde ficará até o fim do ano. E você conseguirá até sentar dentro dela: Imagens exclusivas do Gizmodo A coisa é tão grande e pesada que precisa de uma estrutura metálica interna para suportá-la: Eis uma das caixas usadas para transporte: O modelo foi criado para promover a animação de TV Lego Star Wars The Yoda Chronicles, que vai estrear no Cartoon Network dos Estados Unidos no dia 29 de maio. Imagens e vídeo por Nick Stango |
|
Posted: 23 May 2013 11:14 AM PDT
A HP revelou hoje uma série de notebooks. São oito modelos diferentes, mas um deles se destaca: o Envy TouchSmart 14 é um ultrabook que chegará à resolução 3200 x 1800. Mas como o Windows vai lidar com tantos pixels?
O Windows 8 é conhecido por não se dar muito bem com altas resoluções no modo desktop: há escalonamento embutido, mas os ícones ficam pixelizados, e o texto pode ficar borrado. (Na interface Metro, tudo funciona bem melhor.) Além disso, o aumento máximo é de 150%, pouco para uma tela de 14″ com quase seis milhões de pixels. A solução pode estar no Windows 8.1 “Blue”: segundo Paul Thurrott, uma versão que vazou no início do mês revela um novo modo de escalonamento em 200%. Isso é bom por dois motivos. Primeiro, ele é mais adequado para uma tela de altíssima resolução. Além disso, duplicando o tamanho de imagens e texto, elas ficam mais nítidas do que usando um fator fracionário (1,25x ou 1,5x) para tanto. É o que a Apple faz no MacBook Pro Retina. E parece que a HP está mirando nesse laptop com a nova tela, provavelmente fabricada pela Samsung. Mas e as outras especificações? Elas ainda não foram reveladas. Como se trata de um ultrabook, o Envy TouchSmart 14 terá chip Intel; e a empresa deve revelar sua quarta geração de processadores só no mês que vem, durante a Computex em Taiwan. O preço também é uma incógnita: o modelo básico deste laptop, com tela 1366×768, custará US$ 699; mas não foi mencionado o valor para a tela de altíssima resolução. A HP também anunciou outros sete laptops hoje, todos com design mais unificado (e mais semelhante aos MacBooks):
|
|
Posted: 23 May 2013 10:55 AM PDT
Quando Kaiba Gionfriddo nasceu, seus pais nunca esperavam ter que olhar, sem poder fazer nada, como sua traqueia entrava em colapso diariamente e impedia ele de respirar. Eles estavam desesperados – e então quando uma equipe de pesquisadores sugeriu que uma impressora 3D poderia ajudar, eles agarraram a chance.
Então uma equipe da Universidade de Michigan começou a estudar imagens em alta resolução para estudar a traqueia e brônquios de Kaiba, e então começou a montar alguns designs com ajuda de computadores. Usando dados de tomografias computadorizadas, eles conseguiram criar modelos 3D precisos das suas delicadas vias respiratórias – enfraquecidas por uma doença chamada traqueobroncomalácia – e desenvolveram uma tala que poderia ser usada para ajudar a dar suporte a elas. O estudo foi publicado no New England Journal of Medicine. Depois de ser projetada, a tala foi impressa em 3D usando um biopolímero chamado policaprolactona que, ao longo de dois a três anos, é completamente reabsorvido pelo corpo. Ano passado, a tala foi costurada em torno das vias respiratórias de Kaiba para expandir os brônquios, dando-lhe uma estrutura rígida de apoio para ele crescer ao redor. Apenas 21 dias após a operação, o suporte de ventilação de Kaiba foi retirado – ele não precisava mais dele. O Doutor Scott Hollister, professor de engenharia biomédica por trás do implante impresso em 3D, explica como isso animou sua equipe: O material que usamos foi uma ótima escolha para isso. Demora de dois a três anos para a traqueia se remodelar e crescer até um estado bom de saúde, e esse é o tempo que o material demora para se dissolver no corpo. O caso de Kaiba é definitivamente o ponto alto da minha carreira até agora. Construir algo que um cirurgião conseguiu usar para salvar a vida de uma pessoa? É uma sensação ótima.Claro que esta não foi a primeira vez que a impressão 3D teve efeito positivo na medicina, mas é um resultado fantástico de qualquer jeito – e também dá uma esperança a 1 em 22.000 bebês que sofrem de casos de traqueomalácia. Estamos felizes que Kaiba – e seus pais – pode respirar agora. [NEJM via Science Daily via Y Combinator] |
|
Posted: 23 May 2013 09:51 AM PDT
A Microsoft anunciou dois novos mouses hoje com alguns recursos simples que facilitam um pouco o uso do Windows 8.
Do lado mais elegante está o Sculpt Comfort Mouse, que começará a ser vendido em junho. Ele custará US$ 40 e se conectará ao seu computador ou tablet via Bluetooth, e é o primeiro mouse da Microsoft com um botão Windows azul e sensível a toques que adiciona alguns atalhos. Aperte-o e você será enviado à tela inicial, ou você também pode usar o botão para trocar entre os apps que estão abertos. O modelo mais básico é o Sculpt Mobile Mouse. Ele chega ainda neste mês por US$ 30 e conta com scroll de quatro lados, o que significa que você consegue fazer scroll para cima, para trás, esquerda ou direita. Nós brincamos com ambos os mouses e descobrimos que eles são responsivos e confortáveis, dando aquele pequeno extra que você quer de um acessório. Além disso, eles também são bem bacanas para o multitarefa do Windows 8. |
|
Posted: 23 May 2013 09:36 AM PDT
Esta semana, a Sony Music Brasil anunciou o recall do novo CD do Daft Punk. Não porque eles queiram nos impedir de curtir o ótimo álbum Random Access Memories, mas porque o CD está com defeito de fabricação. Pois é:
A Sony Music Brasil informa aos seus estimados consumidores e fãs do DAFT PUNK, que foi identificado um defeito de fabricação em algumas unidades do disco RANDOM ACCESS MEMORIES (1º lote AA 5.000, que pode ser identificado no verso do CD, acima do código de barras)…Eu sei que as gravadoras não querem, mas esse parece mais um motivo para decretar o fim da mídia física – dos CDs, pelo menos. Há algum tempo, o número de músicas vendidas por meio digital – MP3 ou streaming – superou a mídia física. No entanto, o faturamento de CDs (e discos de vinil) ainda é enorme: US$ 10,9 bilhões no ano passado, o dobro de iTunes, Rdio, Deezer e outros somados. Então até entendemos que as gravadoras ainda estejam apegadas ao CD. Só que eles são menos práticos; têm basicamente a mesma qualidade de um FLAC ou MP3 320kbps; e em geral não custam menos – na verdade, impedem você de comprar só as músicas que lhe interessam. Potenciais defeitos de fabricação só pioram tudo. Se você ainda compra CDs em 2013, ou conhece alguém que compra, diga-nos: por que não baixar suas músicas? E quanto ao CD do Daft Punk, ele volta às lojas a partir desta sexta-feira, 24 de maio. A mídia física ainda vive. [Sony Music Brasil] Foto por Design56/Shutterstock |
|
Posted: 23 May 2013 08:32 AM PDT
A quarta geração de chips da Intel já está chegando, mas a AMD aproveitou a oportunidade para atacar primeiro e lançar, antes do esperado, sua nova família de processadores A-series de terceira geração. Conheça o “Temash”, “Kabini” e “Richland”, processadores que poderão chegar aos próximos tablets, ultrafinos potentes e notebooks de médio porte em breve.
Com o novo trio de famílias de processador, a AMD está mirando forte na Intel. O Temash é voltado para tablets que são quase PCs, como o Intel Atom; o Kabini compete com a linha Intel ULV nos conversíveis; e o Richland vai aparecer em ultrafinos de 10 e 11 polegadas com um pouco mais de potência sob o capô. Para laptops e tablets, a AMD trabalha com APUs, híbridos de CPU e chip gráfico. O Temash consiste em um trio de APUs com 1GHz: os dual-cores A4-1200 e A4-1250, e o quad-core A6-1450. Eles não foram pensados para serem extremamente potentes, mas oferecem ganhos substanciais no desempenho para tablets, e usam menos da metade da potência que os modelos de 2012 – o que ajuda a aumentar a duração da bateria. Os chips Kabini da série A, voltados para híbridos e conversíveis, são o A4-5000 de 1,5GHz, e o A6-5200 de 2 GHz – ambos quad-core. Eles apresentam melhorias semelhantes: ou seja, desempenho cerca de 50% maior, mesmo com requisitos de potência caindo pela metade. A segunda geração da série E – os chips E1-2100, E1-2500 e E2-3000 – tiveram um salto ainda maior no desempenho. E todos os chips Kabini ganham um bônus na duração da bateria, oferecendo cerca de 10 horas com uma só carga. E, finalmente, há a família top da AMD, chamada Richland, que engloba os modelos A8 e A10 mais avançados. Os saltos de desempenho-por-watt não são tão altos aqui, mas ainda são respeitáveis. E, mais uma vez, os recursos de gerenciamento de energia permitem que a duração da bateria chegue a 10 horas. Mas com o A8 e A10, você também leva um bom desempenho gráfico para um chip integrado – provavelmente o melhor que você verá sem usar uma placa de vídeo. No geral, a nova classe de chips promete bons aumentos no desempenho, junto a menores requisitos de potência e mais eficiência de energia. Funções como o estado suspenso inteligente (que não é exclusivo da AMD, mas enfim) vão aumentar a duração da bateria, e mesmo que os gráficos integrados da Intel deem um grande passo para a frente, a AMD ainda deve manter a liderança nos gráficos integrados. Claro, o desempenho destes chips da AMD contra a quarta geração da Intel ainda não está claro. Sabemos que os novos gráficos da Intel Iris são um enorme avanço para a empresa, mas gráficos integrados são o forte da AMD. Quanto ao restante, os detalhes são nebulosos. Os novos chips da AMD ganham do Baytrail e da terceira geração Ivy Bridge da Intel com folga, é claro, mas isso não seria exatamente uma disputa justa. De um jeito ou de outro, a AMD está atacando a Intel em seus produtos principais, com vários chips para cada área da concorrente. A AMD poderia ganhar muito por ser apenas levemente melhor que o melhor processador Atom – afinal, seus chips custam menos em geral. Por enquanto, a AMD saiu na frente da Intel, mas o salto para a nova geração parece ser bom em ambas as frentes. Agora resta esperar a Intel se pronunciar. [AMD] |
|
Posted: 23 May 2013 07:34 AM PDT
A Amazon anunciou hoje que seus tablets Kindle Fire HD e HD 8,9″ agora estão disponíveis para mais de 170 países ao redor do mundo. A partir de US$ 214, você poderá levar um deles e acessar a Amazon Appstore com cerca de 80.000 apps, além de um milhão de e-books. A menos que você esteja no Brasil, é claro.
A assessoria da Amazon confirma ao Gizmodo Brasil que o país “não está nesta leva” que poderá adquirir os tablets na pré-venda. Acreditamos que dois motivos conspiram para isso. Primeiro, o Brasil tem uma operação local da Amazon, e provavelmente ela seria responsável pelo lançamento do Kindle Fire por aqui. Até ontem, só países onde a Amazon opera localmente vendiam os tablets. (As exceções eram o Canadá – que agora vende o Fire no amazon.ca – China e Brasil.) Eles são oferecidos em moeda local, e seus preços podem variar. Nos países onde não há Amazon, o tablet será vendido pelo preço em dólares, e apenas pelo site americano. Em segundo lugar, estaria a ausência da Appstore por aqui: hoje, ela foi expandida para quase 200 países, mas a Amazon avisa que ela só “chegará ao Brasil nos próximos meses”. Sem a loja de apps, o Fire seria pouco mais que um leitor de e-books. Vale notar que a Appstore poderia chegar antes dos tablets: você poderá acessá-la de qualquer dispositivo Android e aproveitar suas vantagens. Se você não conhece os tablets, vamos a eles. O Kindle Fire HD possui tela IPS de 7 polegadas e resolução 1280 x 800. Por dentro, há um processador dual-core de 1.2 GHz, 1 GB de RAM, 16/32GB de armazenamento (sem entrada para microSD), e Wi-Fi com MIMO, que serve para acelerar a conexão sem fio e melhorar sua qualidade. Ele roda uma versão personalizada do Android 4.0 (Ice Cream Sandwich), transformando-o em uma vitrine para o conteúdo da Amazon. Ele tem 10,3 mm de espessura e 395 gramas. O Fire HD 8,9″ é semelhante: a principal diferença está na tela maior com resolução 1920×1200, e no processador um pouco mais rápido. Ele tem 8,8 mm de espessura e pesa 567 gramas. Em reviews, ambos são elogiados pelo hardware e design, mas acabam exibindo alguns engasgos no software, e algumas inconsistências e problemas na interface. No entanto, tudo parece valer a pena pelo preço. Resta ver quanto eles custarão no Brasil, mas parece que saberemos em alguns meses: questionada sobre o Fire HD, a assessoria da Amazon nos diz que teremos “novidades ainda este ano”. [Amazon via The Verge] |
|
Posted: 23 May 2013 06:48 AM PDT
Meses após lançar sua poderosa porém caríssima Titan, a Nvidia anuncia hoje a nova GeForce GTX 780, a sua mais nova placa de vídeo para quem quer potência gráfica mas quer gastar um pouco menos.
A nova GPU é a sucessora natural da GTX 680, lançada no ano passado. Ela tem 50% mais núcleos e 50% mais memória do que a antecessora, e conta com o GPU Boost 2.0, que já tinha aparecido na GTX Titan e faz a placa ser quase silenciosa em comparação com outros modelos. Ao todo, a Nvidia promete upgrade de 70% em desempenho em relação à GTX 680. Segundo a fabricante, isso significa que a água nos jogos vai ser mais detalhada, e as linhas no rosto dos personagens também poderão ser mais bem trabalhadas. Ela pode ser ligada a outra GTX 780 via SLI. Em relação a números, a GTX 680 tem 2.304 núcleos CUDA (menos do que os 2.688 da Titan), 3GB de memória GDDR5 (contra 6GB da Titan) com interface 384-bit e velocidade de 6 Gbps, clock de 863MHz que pode chegar a 900MHz, TDP de 250W e conectores de 6 e 8 pinos. A Nvidia começa hoje a distribuir a GeForce GTX 780 a seus parceiros, como Asus, EVGA e MSI. Ela chegará ao mercado em breve pelo preço sugerido de US$ 650. Questionamos os parceiros da Nvidia sobre o preço da placa no Brasil, mas ainda não tivemos retorno. [Nvidia] GeForce ExperienceNo fim do ano passado, a NVidia anunciou o GeForce Experience, um software que otimizava as configurações de gráficos dos seus jogos para eles rodarem melhores de acordo com a sua placa de vídeo. Hoje, ele deixa de ser beta. Além disso, o GeForce Experience vai ganhar novos recursos nos próximos meses. Um deles será chamado ShadowPlay e facilitará a vida de quem gosta de gravar a jogatina – você pode definir tempo, tamanho e qualidade do vídeo e ele roda sem prejudicar o desempenho do seu jogo. Com o GeForce Experience, a NVidia quer simplificar os jogos em PCs: em vez de ficar mudando todas as configurações até descobrir qual é a mais indicada no seu computador, com apenas um clique o GeForce Experience consegue fazer isso. Você pode baixá-lo aqui. |
|
Posted: 23 May 2013 06:31 AM PDT
O Xbox One esteve por toda parte, e já o conferimos por aqui. Mas quando surge um novo console, muitas vezes nós nos prendemos às características maiores e mais chamativas. Mas agora podemos analisá-lo com mais calma: vamos conferir os detalhes e pormenores do novo console.
Arquitetura e sistema operacionalNós já vamos direto para a arquitetura de hardware e o sistema operacional? Sim, porque é realmente muito legal.Cerca de uma hora após o keynote, em um painel sobre a construção do novo hardware, o executivo Larry Hryb (conhecido como Major Nelson) conversou com quatro dos principais tomadores de decisão envolvidos no Xbox One. E a maioria das decisões focaram em velocidade, mas não exatamente por pura força bruta. O sistema operacional é um pouco enganoso na sua simplicidade complicada. Como a Microsoft explica, normalmente eles colocariam um OS dedicado a jogos em um hardware melhor – o procedimento padrão desde sempre – mas não foi tão simples assim. Por um lado, a Microsoft entendeu que, para usuários modernos, seria muito útil ter uma máquina que pudesse fazer mais de uma coisa ao mesmo tempo. Por outro lado, ela tinha que perseguir essa meta sem prejudicar a parte de jogos. Segundo a Microsoft, analisando as necessidades dos jogos atuais e sua trajetória, eles poderiam ter colocado só 5 GB de RAM, ou até 4GB, e os jogos rodariam tão bem quanto os desenvolvedores teriam imaginado. Então por que colocar 8GB DDR3 no Xbox One? Só para se equiparar ao Sony PlayStation 4 (embora não seja GDDR5 como no PS4)? Não exatamente. Isto tem a ver com o OS. O sistema operacional do One é dividido em duas máquinas virtuais (VM) que rodam simultaneamente. Uma delas é otimizada para jogos; e a outra, para apps. Sabe aquelas trocas instantâneas entre apps que você viu no keynote, indo de um jogo para um filme e voltando em um segundo? Isso mostra como funciona o esquema das VMs. Em termos simples, ele roda e renderiza dois aplicativos ao mesmo tempo: jogo de um lado, e app do outro. (Parece que você também pode rodar apps na VM dedicada para jogos.) Alternar entre eles é mais ou menos como usar Alt-Tab no seu computador. Este design resolve muito mais problemas do que só alternar entre app e jogo. Como a VM de apps abre assim que você liga o console e roda o tempo todo, ela pode executar tarefas em segundo plano: manter você em uma fila de matchmaking, por exemplo, enquanto você está em um outro jogo, ou fazendo algo completamente diferente. Além disso, o layout em duas VMs resolve a maior preocupação dos desenvolvedores de jogos sobre consoles rodando apps. Se jogos e apps rodassem de forma conjunta, isso mudaria as constantes que são características de um console. Um sistema assim iria ter desempenho diferente ao rodar zero, dois ou três apps. Já é caro o suficiente fazer um jogo de videogame; se você precisa ajustá-lo para diferentes situações de recursos disponíveis, isso seria insustentável. Se você precisa lidar com esse problema, é mais fácil fazer jogos de PC. Mas com a divisão do OS do Xbox, ele dedica recursos específicos de hardware para as duas partições VM (5GB para jogos, 3GB para apps e o OS “intermediário”), e eles nunca precisam compartilhar. Isto talvez resulte, ocasionalmente, em um dos lados (provavelmente o de jogos) estourando o limite de memória, ou chegando bem próximo a ele. Mas também, fundamentalmente, significa que os desenvolvedores de console (e os jogadores!) obtêm o desempenho padronizado que define os jogos de console. Criando um Kinect melhorVocê já deve conhecer algumas das especificações impressionantes do novo Kinect. Ele tem duas câmeras 1080p que gravam a 60fps, e tem um campo de visão 60% maior. Ele também usa uma nova tecnologia para medir quanto tempo leva para fótons baterem em você e voltarem, um processo que leva apenas 13 bilionésimos de segundo. OK. Que tal algumas notas sobre a tecnologia que não comentaram tanto? A diretividade é essencial aqui, de uma forma que muitos provavelmente não entendem: é a capacidade do Kinect em ouvir um som e saber exatamente de onde ele está vindo – e mais importante, quem o está emitindo. Na verdade, o Kinect não tem qualquer forma de reconhecimento de voz: ele apenas rastreia o seu rosto/corpo, como todas as demonstrações mostraram; e em seguida, ele identifica de qual esqueleto o som está vindo, com base na localização. Isso pode soar como uma gambiarra, mas na verdade é muito inteligente: dessa forma, o Kinect não precisa dominar mais uma forma de reconhecimento (voz), e apenas cruza referências das informações que ele já tem. Isto é possível graças a algumas coisas; por exemplo, o posicionamento exato dos microfones. Como eles precisam detectar exatamente de que direção o som está vindo, isso é bem importante. Na verdade, depois de criar do zero os microfones no Kinect original (com sua parceira PrimeSense), a Microsoft contratou vários outros especialistas de som para analisar o agrupamento de microfones e descobrir como otimizá-lo. Depois de meses de pesquisa, eles voltaram ao microfone do primeiro Kinect – porque, pelo visto, a Microsoft já tinha acertado na primeira tentativa. Por sua vez, o software do Kinect – que não recebe tanta atenção quanto o hardware – pode ser realmente a parte mais legal dele. Novas formas de interagir com computadores são o futuro, e o Kinect é uma das tentativas mais amplas de levar voz e gestos ao púbico em geral. Desta vez, eles se concentraram em descobrir como lidar com usuários problemáticos, como quem fala baixo, mulheres e crianças (não explicaram por que as mulheres seriam problema). Isto é feito através de uma variedade de testes em salas de simulação, organizadas de forma diferente para recriar quartos típicos de diferentes regiões geográficas, com vozes simuladas e ruído ambiente. O som emitido pelo Xbox não é um problema, pois o Kinect sabe exatamente que som é esse, então ele pode cancelá-lo enquanto analisa o ruído – não importa se seus alto-falantes estejam no volume mais alto. O exemplo mais comum é de um cara que joga Call of Duty alto o suficiente para estourar os ouvidos, dizendo comandos como “equipe Delta, alvo Alpha”, e o microfone pega essa confusão de ruídos e transforma em comandos exatos. Este recurso também resolverá a antiga piada de 30 Rock: se um vídeo na TV falar “Xbox off”, o Kinect não vai desligar o console – ele filtra e ignora o que é falado na TV. Por fim, o próprio chipset do Kinect foi atualizado, e desta vez sua arquitetura foi construída 100% internamente pela Microsoft (o que é impressionante, mesmo que o SoC do Xbox conte com a ajuda da AMD). Entre isso e usar um hardware dedicado para processamento de som, deve ser uma experiência muito mais refinada que no Kinect original – ele precisava contar com o hardware do Xbox original para realizar suas novas e insanas tarefas. Visão completa da nuvemJogos na nuvem não são uma ideia especialmente cativante no Xbox. (Só foi interessante para o PS4 devido à compatibilidade com versões anteriores.) Na verdade, o Xbox foi objeto de polêmica após circularem rumores de que ele exigiria conexão constante à internet. A Microsoft já esclareceu isso: o console exige conexão à internet, porém não precisa ser constante; além disso, jogos podem rodar offline (sem o multiplayer online, claro). Mas a computação na nuvem poderá expandir drasticamente o poder do Xbox. Sim, a equipe de experiência na Microsoft diz que as especificações são boas o bastante para um console de próxima geração. Como as especificações do PS4 são basicamente idênticas, isso parece certo. Só que os 300.000 servidores do Xbox Live – que a Microsoft trará este ano – serão uma constante que desenvolvedores poderão aproveitar, sabendo que a grande maioria dos usuários estarão conectados, para assim experimentar novas ideias que quase todos poderão usar. (O mesmo vale para o Kinect a ser incluído em cada um.) Essencialmente, a Microsoft deixou o Xbox mais modular. As tarefas no plano de fundo que rodarão na nuvem serão importantes em muitos casos. Sabe como, em Skyrim, às vezes você olha para uma parte específica de uma certa parede e seu framerate despenca sem motivo aparente? Essa carga de trabalho (que provavelmente é um erro bobo, mas ainda assim) provavelmente seria deslocada para algum servidor da Microsoft, e nunca pesaria no seu Xbox. A Microsoft avisa que isso age apenas em pontos “insensíveis a latência”, não em momentos onde a latência da sua conexão poderia ser um problema; e a maior parte do processamento ainda será feito localmente, no seu Xbox. Mas isso nem sempre será o caso. No entanto, se o jogo usar o serviço Microsoft Azure na nuvem, ele vai exigir conexão constante à internet, o que não é boa notícia para quem está em “banda larga” de 1 Mbps ou algo parecido. Mesmo assim, isso parece bem promissor no Xbox. Os detalhes do hardwareJá vimos, resumidamente, o que está dentro do novo Xbox. Processador com oito núcleos de 64 bits, 8GB de RAM DDR3 de alta velocidade, e um chip gráfico com sRAM embutida. Nós já sabemos que 8GB de RAM se devem à escolha feita no OS, mas há alguns detalhes adicionais sobre o hardware. A Microsoft afirma que os caches são super-rápidos, e que a sRAM incorporada direto no novo SoC vai manter a GPU funcionando no máximo. Melhorias gerais na coerência do chip devem ajudar também. Se o One quiser ser relevante por pelo menos cinco anos, precisa espremer do seu hardware todo o desempenho que puder. Há, obviamente, muito mais para se comentar, mas estes são alguns dos destaques que ficaram de lado na cobertura mais ampla, e que afetam a forma como você usará o novo Xbox. |
Gizmodo Brasil: O cenário estranho das redes sociais no Brasil
in
Gizmodo Brasil
- on
09:24
-
No comments
Postar um comentário