|
Posted: 07 May 2013 01:39 AM PDT
Após validar o ingresso e dar o primeiro passo para a área de acesso ao Burj Khalifa, o maior prédio do mundo, situado em Dubai, dei de cara com uma imagem familiar: um estranho, alto e conhecido robô do Google estava logo ali. Eu já tinha o visto antes, no Brasil. E a história, mais misteriosa do que parece, me deixou com esta pulga atrás da orelha: o que o Google está preparando por dentro do maior prédio do mundo?
O robô pode não ter me reconhecido, mas eu lembro muito bem dele: o Google o exibiu no Brasil no ano passado, ao anunciar a chegada do Google Art Project por lá. A geringonça conta com 15 câmeras acopladas em seu topo, tem quase 3 metros de altura e é utilizada pelo Google para capturas de imagens indoor: ele usa lasers para detectar a profundidade de um local fechado e até mesmo a dimensão dos objetos que estão no ambiente. Como fiquei curioso, questionei as duas mulheres que cuidavam da máquina. De um lado para o outro, elas perceberam meu excesso de perguntas e disseram que não poderiam comentar nada sobre aquilo. Para finalizar, fui abordado por um jornalista do Wall Street Journal que estava lá especificamente para cobrir o misterioso evento, e ele me disse que a história era bem secreta. Ele achou engraçado o fato de eu ser do Gizmodo porque, claro, nós estávamos no lugar certo e na hora certa — para nós, e não para eles. Por isso mesmo ele não quis me dar muitos detalhes sobre a novidade, mas questionei se não era exatamente uma versão do Art Project dentro de grandes e famosos edifícios e ele respondeu apenas: “maybe”. Então, prepare-se: nos próximos dias ou semanas, o Google deve mostrar mais uma de suas maluquices envolvendo câmeras de alta captação, robôs e belas imagens. Se o robô do Google subiu até um dos últimos andares do Burj Khalifa e registrou tudo ao seu redor, inclusive a vista, o resultado pode ser bem sensacional. O Gizmodo Brasil está em Dubai apenas de passagem: hoje mesmo vou para Nova Déhli, a convite da Nokia, para um evento. Mais detalhes em breve. |
|
Posted: 06 May 2013 03:46 PM PDT
Na última década, os efeitos CGI se tornaram mais avançados e reais do que nunca; mas acessórios físicos ainda são a base dos efeitos especiais modernos – especialmente em filmes sobre um cara em uma armadura robótica.
O Gizmodo conversou com dois responsáveis pelos efeitos especiais de Homem de Ferro 3, Shane Patrick Mahan e Lindsay MacGoawn da Legacy Effects, que trabalharam em filmes clássicos como Exterminador do Futuro 2, Avatar e Deu a Louca nos Monstros, assim como Chris Townsend, supervisor de efeitos especiais do filme, para saber o quão real é o Homem de Ferro. CUIDADO COM SPOILERS! Gizmodo: Vocês podem nos dar uma ideia de como foi o fluxo de trabalho para Homem de Ferro 3? Deram a vocês o script e disseram “façam isso”? Como funciona o processo criativo nesses filmes em termos de efeitos visuais? Lindsay MacGowan (LMG): Bem, isso começa basicamente com todos os personagens que [o diretor e co-roteirista] Shane Black e [co-roteirista] Drew Pierce desenvolveram. Passa pelo departamento de desenvolvimento visual da Marvel com Ryan Meinergind [chefe de desenvolvimento visual] e Phil Saunders [artista conceitual]. Eles trabalham com Shane para desenvolver o design das armaduras. Nós nos envolvemos neste momento para trabalhar com Ryan e Phil para entender o que funciona com as nossas roupas físicas. E quando eles aprovam as coisas, a equipe começa a esculpir fisicamente as roupas em Robert Downey Jr. e nos dublês. Depois que você digitaliza a pessoa, precisa ter certeza de que a armadura cabe nela, é claro. Às vezes você precisa mudar o design um pouco para acomodar quem vai vesti-la, e neste momento, nós trabalhamos como Ryan e Phil [da Marvel] para garantir que as linhas da roupa estejam certas – nós queremos ter certeza que qualquer coisa que fazemos é uma boa representação do que eles imaginaram. E quando isso acontece, nós passamos pelo processo de criar a armadura em si. Empresas de efeitos visuais digitalizam a armadura para replicá-la. Gravações são divididas em cenas de ação e cenas de voo. Certamente, as leis da física devem ser levadas em conta. Nós teríamos que exibir o filme para você e mostrar o que é físico, o que é digital, e o que é uma combinação de ambos. As cenas com armadura são, basicamente, da cintura para cima. Eles colocam marcadores de rastreamento nas pernas dos caras e expandem o comprimento deles. Basicamente, em sua maior parte, é a metade superior real de uma roupa com pernas digitais – ou se é uma cena em que as pernas não aparecem, é uma cena real. GIZ: Quando tempo demora para fazer as peças individuais da armadura? Do que elas são feitas? LMG: É uma combinação de materiais. Tem fibra de vidro, metal, ouro, uretano – tudo depende de que parte da armadura precisa ser flexível e qual não precisa. Com [Mark] 42, tem muito mais metal real aparecendo do que em outras armaduras, já que tem muito mais ouro nela. Tem ouro de verdade nela. Shane Patrick Mahan (SPM): Tem uma cena em que o Homem de Ferro está puxando a armadura com um trenó. Nós construímos uma versão completa da armadura para isso. LMG: E criamos algumas partes para a sequência em que a Mark 42 voa para o corpo dele. Então existem algumas peças só para isso. SPM: Além disso, a luva e as botas para cenas de lutas formam uma roupa parcial, onde ele está lutando com um cara usando apenas uma bota e uma luva. Isso foi construído. O capacete que Gwyneth usa, com o corte, também é real. E também os robôs que estão em sua oficina – criamos eles também. GIZ: Vocês acham que estamos avançando no sentido de tornar tudo CGI como em Avatar, ou vocês acham que ainda haverá espaço no futuro para efeitos físicos? SPM: Sempre houve sequências de animação que estão além do que gostaríamos de fazer. Mesmo desde o primeiro Exterminador do Futuro na década de 80, havia animação stop-motion – que, hoje em dia, poderia ser apenas animação CGI. Avatar é um exemplo diferente, porque é quase inteiramente uma existência CGI: é um ambiente totalmente CGI, já que você está no mundo do planeta Pandora, com exceções (como os atores e coisas do tipo). Mas mesmo em Avatar, fizemos enormes construções de peças físicas – o traje de comando, alguns dos aparelhos voadores, peças do set, peças de ambientes interiores – então é um tipo diferente de trabalho. LMG: Eu acho que sempre tentamos criar um truque de mágica para o público, então eu acho que o ideal é combinar o melhor dos dois mundos. O público sabe muito bem o que são efeitos especiais, então você tem que tentar descobrir uma maneira de fazer algo que eles não tenham visto antes, para que, enquanto eles assistem o filme, eles pensam “Nossa, isso é real ou é efeito?” SPM: Mas nós sempre vamos argumentar que cenas que são reais – quando você faz cenas reais – as mentes do público fazem a conexão e sentem tudo. Eu acho que o efeito especial só melhora o filme, e o torna mais realista. Eu acho que – apenas a minha opinião pessoal – quando eu sei que é uma técnica ou outra, quando eu não consigo descobrir o que eu estou olhando (e isso é o que fazemos para ganhar a vida), e quando eu não consigo descobrir o que é aquilo, aí é que descanso e apenas me divirto no cinema. Tivemos também a oportunidade de entrevistar Chris Townsend, Supervisor de Efeitos Visuais do filme, via e-mail sobre os esforços físicos e CGI combinados que entraram no filme: GIZ: Vocês podem falar sobre o equipamento (programas e plataformas de computação) usado para criar os efeitos CGI? Chris Townsend (CT): Por mais que a indústria sempre esteja avançando, e que Homem de Ferro 3 represente o que há de mais recente em efeitos visuais e computação gráfica, nós trabalhamos com técnicas evolucionárias em vez das revolucionárias. Como o VFX foi espalhado por 17 empresas diferentes em 6 países diferentes, nós contamos com a maioria dos programas de composição 2D e rastreamento disponíveis, assim como fizemos com o 3D e softwares de renderização também. Frequentemente, os requisitos do trabalho exigiram a criação de ferramentas especiais, desde escombros mais sólidos e motores de simulação de água, soluções complexas de manipulação de caracteres e shaders mais realistas e cientificamente precisos para criar personagens em CG e ambientes mais verossímeis. Muitas empresas de efeitos visuais que trabalharam conosco usaram pacotes proprietários, desenvolvidos especialmente para grandes ambientes, para os personagens do filme ou para processos de captura facial especiais. GIZ: Aproximadamente quantas cenas de CGI foram usadas no filme, e quais fatores influenciaram a decisão de usar adereços físicos sobre CGI, ou vice-versa? CT: Homem de Ferro 3 tem mais de 200 cenas com efeitos visuais, criadas por mais de 1.200 pessoas. Nós sempre tentamos fazer algo real quando tínhamos a oportunidade, mas frequentemente faz mais sentido, de ponto de vista criativo, de tempo e recursos, fazer as coisas digitalmente; isso dá ao diretor mais liberdade criativa, para tentar coisas diferentes, e como a maior parte do nosso trabalho é feita durante a pós-produção, essas decisões podem ser feitas depois do filme estar completo. E também tem algumas coisas que você simplesmente não consegue filmar, como uma casa caindo de um penhasco, ou atores lutando em cima de um guindaste a 60 metros de altura. Nós intercalamos cenas em CG da casa em colapso com interiores práticos de um enorme pedaço de set, construído sobre uma enorme mecanismo de suspensão, usando chromakey, permitindo que o set praticamente se quebrasse ao meio enquanto os atores estavam nele. Para a maior parte das cenas com o Homem de Ferro, um ator usou uma metade superior da armadura, mas para a maior parte destas cenas, a armadura foi substituída digitalmente. Isso permitiu que ela fizesse coisas impossíveis. Ter uma armadura no set atuando com Gwyneth Paltrow, por exemplo permitiu que ela reagisse a algo, e que o cinematógrafo tivesse algo para iluminar, e nossa equipe de efeitos visuais tivessem referência e interação real de Gwyneth com a roupa. Para cenas em que filmar em lugares reais não era prático, pequenos pedaços de set foram criados em chromakey. Por mais que o ambiente por trás fosse completamente virtual, as cenas foram baseadas em fotos e intercaladas com cenas reais em uma localização real possível. Minha regra geral é que se um ator interage fisicamente com algo, isso deve ser real, mesmo que seja algo parado. Quanto mais coisas a gente conseguir na câmera melhor, afinal, nosso trabalho em efeitos visuais é fazer algo ser o mais real possível. GIZ: Você pode falar como a cena com “corrente de macacos” foi produzida? (notei que uma equipe de para-quedismo foi creditada, como eles foram usados contra – ou com – os efeitos em tela verde?) [Nota: a cena em questão lembra um brinquedo chamado "Barrel of Monkeys" no qual você deve ligar vários macacos pelo braço para formar uma corrente deles] CT: Nós logo percebemos que para conseguir uma boa sequência precisaríamos começar com algo o mais real possível. Queríamos realmente sentir a ação, para ter o sentimento de uma queda livre, o terror que vem com ela. Então a primeira coisa que discutimos foi filmar paraquedistas em ação em vez de tentar recriar tudo com cabos ou em uma tela verde. O primeiro teste foi para ver se a equipe de dublês poderia executar a coreografia que pretendíamos, mostrando o Homem de Ferro salvando uma a uma. Uma pequena parte da sequência foi escolhida, e a coordenação de dublês filmou uma equipe de dublês em para-quedismo. O resultado foi ótimo, provando que mesmo no ar as coisas poderiam ser recriadas. Depois veio o grande desafio: na prática, nós teríamos que filmar durante vários dias, em várias condições diferentes de luz, em uma altitude muito menor, no terreno errado, com paraquedistas. Precisávamos mostrar que a queda era contínua, de cerca de 9km acima do nível do mar. Precisaríamos fazer rotoscopia em todos os paraquedistas, em todas as cenas, substituir o fundo com uma pintura digital do novo ambiente com a altitude correta, unificar as luzes para as cenas parecerem a mesma, e então eliminar os para-quedas. Fizemos alguns testes, baseados naquela primeira cena, e descobrimos onde poderíamos chegar, particularmente em termos de luz, e para ver se conseguiríamos substituir o cenário e manter o sentimento assustador. O teste foi bom, e então a gravação foi planejada. Durante uma semana, com cerca de 10 saltos por dia, uma equipe de cerca de 15 paraquedistas executou os vários movimentos e acrobacias. E então pegamos as cenas e começamos o intenso processo de substituição do fundo, balanceamento da iluminação e tudo mais. E então tivemos que fazer um avião em CG, adicionar nuvens e detritos caindo, e substituir o dublê do Homem de Ferro por um em CG, com propulsores especialmente criados e painéis aerodinâmicos animados. O final da sequência foi quando o Homem de Ferro aterrissa com segurança o grupo, um a um. Isso foi conseguido ao suspender os mesmos dublês paraquedistas em uma tirolesa para 14 pessoas. Nós então tiramos os fios da cena, substituímos o cenário, mudamos a água e adicionamos o Homem de Ferro. O objetivo era sempre manter a natureza fotográfica do salto, com ângulos de câmera dramáticos mas possíveis, e nunca apelar para efeitos visuais óbvios; no final, todas as cenas foram dramaticamente modificadas pelos artistas, mas felizmente isso foi feito de uma forma totalmente verossímil. Homem de Ferro 3 já está nos cinemas. Falamos bastante dele aqui. |
|
Posted: 06 May 2013 02:27 PM PDT
Os chips Intel Atom não são muito bem vistos por aí, principalmente por causa das péssimas lembranças dos tempos de netbooks. Mas a sua mais recente versão, a nova arquitetura Silvermont, tem baixo consumo de energia e promete bom desempenho, com o objetivo de fazer a Intel ganha espaço em processadores móveis.
A plataforma System-on-a-Chip de 22 nanômetros tem desempenho três vezes superior às CPUs Saltwell Atom anteriores e pelo menos cinco vezes menos consumo de energia graças aos transistores 3D que a Intel vem preparando há alguns anos. O Silvermont é o primeiro CPU Atom feito especialmente para smartphones e tablets: ele permite escalabilidade para SoCs de até 8 núcleos, dando à arquitetura a liberdade necessária para preencher o espaço abaixo do Haswell na hierarquia de dispositivos. Tablets com CPUs Silvermont devem começar a ser lançados até o fim deste ano. Smartphones baseados na nova arquitetura chegam em 2014. Por mais que o Silvermont seja o primeiro chip Atom apontado diretamente para smartphones e tablets, certamente não será o último; a Intel vai renovar a linha de CPUs anualmente com o objetivo de conquistar mais e mais espaço em mobile. Ainda deve demorar para colocarmos nossas mãos em alguma coisa com o Silvermont, mas esse pode ser o começo da uma Intel muito mais móvel. [AllThingsD] |
|
Posted: 06 May 2013 01:51 PM PDT
Durante a conferência anual MAX hoje, a Adobe anunciou uma grande reformulação na Creative Suite de dez anos de idade, que agora será conhecida como Creative Cloud. A partir de agora, você não comprará o CS6 ou CS7 – você vai comprar uma assinatura mensal de US$ 50 da CC (felizmente, o primeiro ano custará apenas US$ 30 para qualquer pessoa com número serial da CS3 ou posterior).
Qual é a razão para a mudança? Por um lado, um serviço de assinatura mensal pode ajudar a Adobe a combater a pirataria. Por outro, facilita aos consumidores a atualização para novos produtos lançados durante o ano, em vez de uma grande atualização anual. Mas de maneira mais geral, a mudança mostra que a Adobe focada na forma como a nuvem é integrada com seus produtos. Em vez de entrar na Creative Cloud para baixar atualizações, o novo app vai mandar notificações diretamente para seu desktop – tornando mais fácil a atualização de programas e download de novos apps. Novas ferramentasJunto com o novo sistema CC, a Adobe mostrou novas ferramentas que parecem excelentes.Para o Photoshop, tem a Redução de Balanço da Câmera, que é tão mágica quanto esperávamos. A ferramenta permite tirar o borrão das fotos com o toque de uma varinha. Tem também um novo filtro Camera Raw que permite aplicar edições raw em uma camada, e uma ferramenta de pintura 3D que é até 100x mais rápida. Também importante: a Adobe modificou o algorítimo de aumentar a resolução então você consegue aumentar uma imagem pequena com menos perda de qualidade. Por fim, uma nova ferramenta inteligente de nitidez – Smart Sharpen – permite melhoras as imagens e reduzir ruídos. A nova ferramenta Smart Sharpen Todos os outros programas do antigo CS receberam atualizações de ferramentas similares (exceto o Fireworks, que parece que não pertence mais a este mundo). Para o Muse, há o excelente Parallax Scrolling. Para o Illustrator, muitas adições necessárias, como uma ferramenta que permite alterar caracteres individuais em uma linha de texto, e mudanças na interface que permite “estrelar” certas fontes. O InDesign ganhou uma grande atualização, com velocidade mais próxima a outros programas da CS6 (finalmente). Outro detalhe animador: uma stylus para iPad que se conecta diretamente à Cloud, preservando as configurações de pincel que você usa para sempre. O novo app da CC vai mudar a forma como usamos outros apps da Adobe, como TypeKit e Kuler, que agora sincronizam diretamente com seu desktop. Uma assinatura para a CC vai permitir que você rode os programas em duas máquinas ao mesmo tempo – o que significa que você conseguirá sincronizar fontes, estilos e trocas de cores através de máquinas pela nuvem. Todas as fontes do TypeKit farão parte da assinatura da Creative Cloud, e você conseguirá baixá-las diretamente do app da CC. A comunidade CloudA Creative Cloud não vai apenas mudar a forma como você compra e atualiza os programas da Adobe – também quer mudar a forma como você compartilha sem trabalho. Em dezembro passado, a Adobe anunciou a compra do Behance, um site de portfólio online popular. Não sabíamos para que ele seria usado até agora. O Behance Pro virá como padrão em todas as assinaturas da CC, o que significa que você pode salvar diretamente do Photoshop para o seu portfólio no Behance.Integração com o Behance Também significa que você receberá pedidos de amizade, comentários e atualizações de visitas do seu portfólio no seu desktop (e sim, você pode desativar isso). O que você acha do novo esforço social da Adobe depende de como você usa os programas. Para quem trabalha em uma empresa grande, provavelmente o Behance será inútil. Mas freelancers e estudantes que querem criar contatos e achar empregos podem fazer bom uso dele. A nova cara da AdobeA Creative Cloud aponta para o fim da Creative Suite como conhecemos. Nunca existirá CS7, ou CS15. E tudo bem: abandonar pacotes de softwares vai definitivamente levantar muitas controvérsias, mas é difícil argumentar contra a lógica por trás da decisão.A CC é uma ação estratégica para a consumerização: a esperança é que os programas da Adobe se tornem mais onipresentes, e a Creative Cloud com os recursos sociais vão incentivar os usuários a assinarem em vez de piratearem. Vai funcionar? Só o futuro dirá. |
|
Posted: 06 May 2013 12:57 PM PDT
Em uma tentativa de dar a crianças que sofrem abuso uma forma segura de pedir ajuda, uma organização espanhola chamada Aid to Children and Adolescents at Risk Foundation, ou ANAR, criou um anúncio que mostra mensagens diferentes para crianças e adultos ao mesmo tempo.
O segredo por trás da magia é uma camada superior lenticular, que mostra imagens diferentes dependendo do ângulo de visão. Assim, quando um adulto – ou qualquer pessoa com mais de 1,35m – olhar vai ver apenas uma imagem de uma criança triste e uma mensagem: “às vezes, o abuso infantil só é visível para a criança que sofre.” Mas quando a criança olha para o anúncio, ela vê feridas no rosto do garoto e uma mensagem diferente: “se alguém te machucar, ligue e nós ajudaremos” junto com o telefone da fundação. O anúncio foi desenvolvido para ajudar crianças, especialmente àquelas cujo abusador está parado ao seu lado. E por mais que seja uma forma espetacular de usar imagens lenticulares, quanto tempo será que demorará para empresas de brinquedos começarem a fazer a mesma coisa para divulgar seus produtos diretamente para crianças? [YouTube via PetaPixel via DIY Photography] |
|
Posted: 06 May 2013 11:34 AM PDT
Letras estão por todos os lugares, e é bem provável que você, caro leitor do Gizmodo, tenha pelo menos uma ideia de qual é a fonte usada em um texto que você lê. Mas a tipografia tem uma longa e rica história, cheia de mudanças e evoluções.
Este pequeno vídeo em stop-motion de Ben Barrett-Forrest vai ajudá-lo a entender um pouco como as coisas surgiram e chegaram a ser como são hoje. Ele começa falando sobre Gutenberg e a sua revolução ao criar a imprensa no século XV usando a escrita gótica. Pouco depois surgiu o tipo romano – o que estamos mais acostumados a usar. Elas foram criadas por Nicolas Jenson e, baseadas em linhas retas e curvas regulares, tinham como objetivo se distanciar da escrita a mão – diferentemente dos tipos góticos usados até então. Os tipos romanos evoluíram ao longo dos séculos seguintes. Veio o itálico, que tinha como objetivo colocar mais letras em menos espaço para economizar dinheiro. Hoje em dia ele é usado no meio dos tipos romanos, normalmente para dar ênfase a alguma palavra no texto. No século XVIII, um inglês chamado William Caslon criou uma variação dos tipos serifados romanos clássicos que ganhou o seu nome – Caslon. Atualmente ela é mais conhecida como “Old Style” – isso porque mais duas variações das serifadas vieram logo depois. Primeiro foi a Baskerville – hoje conhecida como Transitional. E, depois, a Didone – conhecida como “Modern Style”. As fontes serifadas atuais são, basicamente, variações dessas três famílias. Um descendente de Caslon – Caslon IV – se cansou das serifas e criou a Sans Serif, que evoluiu para diversos outros tipos bastante conhecidos atualmente, como a Helvetica. E então vieram os computadores, e mais uma infinidade de novas fontes podem ser mostradas nas nossas telas, além, é claro, da possibilidade de você mesmo criar a sua. [Reddit] |
|
Posted: 06 May 2013 10:48 AM PDT
A Coca-Cola promove a sua Diet Coke como a bebida perfeita para quem quer manter um corpo magro. E para reforçar essa ideia, o império da água açucarada se juntou com a Ogilvy & Mather Paris para criar a Slender Vender – a máquina de venda automática mais fina do mundo.
Pouco maior do que uma lata de Diet Coke, a máquina pode ser colocada em lugares onde as máquinas tradicionais não cabem. Como entre esteiras na academia, ou ao lado de máquinas de concorrentes, ou até mesmo debaixo da sua cama para você conseguir pegar uma garrafa facilmente logo que acordar. [Coca-Cola via Taxi] |
|
Posted: 06 May 2013 10:21 AM PDT
Usamos todos os dias sem questionar nada, mas se pensarmos por um segundo, o teclado QWERTY é bastante estranho. De onde surgiu uma coisa tão pouco intuitiva assim? A história mais popular diz que tem a ver com a mecânica das antigas máquinas de escrever e prevenção contra travamentos, e mesmo que isso faça um pouco de sentido, talvez seja mentira.
A história apócrifa é mais ou menos assim: as primeiras máquinas de escrever tinham problema com travamentos quando as teclas eram pressionadas rapidamente, então designers criaram um layout separando teclas de combinações comuns para desacelerar os datilógrafos. Assim, duas letras que costumavam aparecer bastante em sequência em palavras da língua inglesa ficavam separadas, e enquanto uma mão apertava uma delas, a outra procurava a tecla seguinte. Isso fazia a digitação ser mais lenta, e, consequentemente, diminuía os travamentos. Inteligente, não? Mas também não é verdade. Como o Smithsonian aponta, algumas sequências bastante comuns em palavras da língua inglesa estão bem próximas no teclado QWERTY: “er”, “es”, “th”, entre outras. Então como surgiu esse layout estranho? Os primeiros testes de máquinas de escrever foram feitos, de acordo com os pesquisadores Koichi Yasuoka e Motoko Yasuoka da Universidade de Kyoto, por operadores de telégrafos que receberam as teclas em disposição alfabética padrão. Quando esse formato se provou insustentável, foram feitas diversas revisões e provavelmente o QWERTY nasceu das excentricidades formadas. Em outras palavras, os datilógrafos formaram o teclado, e não o contrário. O sistema QWERTY também foi – ao menos em partes – uma criação proprietária, provavelmente intencionada para fechar usuários em um ecossistema. Nos tempos antigos, a Remington dava aulas no seu layout QWERTY, e quando datilógrafos ganhavam proficiência, dificilmente conseguiriam mudar para outra disposição de teclas. Isso se tornou irrelevante em 1893, quando uma fusão entre as cinco maiores fabricantes de máquinas de escrever da época – Remington, Caligraph, Yost, Densmore e Smith-Premier – criou a Union Typewriter Company, que adotou o QWERTY como padrão em seus produtos. Mas até então o layout não era algo muito diferente de, digamos, empresas que fecham seu ecossistemas de apps atualmente. Infelizmente a história ainda não foi contada com muitos detalhes, então é difícil saber quais fatores estavam em jogo. De qualquer forma, existem muitas evidências que indicam que a história do design mecânico é apenas lenda, e pouca coisa sugere que foi realmente isso o que aconteceu. [Design Decoded via The Atlantic] Imagem via Juan R. Velasco/Shutterstock |
|
Posted: 06 May 2013 09:58 AM PDT
Talvez os humanos nunca voem em algo semelhante ao traje do Homem de Ferro. Mas agora que pesquisadores da Universidade de Maryland descobriram o segredo para criar pássaros-robôs que voam como os de verdade, talvez seja hora de revisitar aqueles projetos antigos – e malucos – que davam asas a humanos.
A pesquisa do que hoje é conhecido como Robo Raven (corvo-robô) acontece há oito anos, e em 2007 a criatura fez seus primeiros voos de teste, marginalmente bem-sucedidos. Mas ele não era tão ágil e hábil quanto um pássaro de verdade, então a pesquisa sobre o Robo Raven ficou engavetada até ano passado, quando ele recebeu um design radicalmente novo, graças a estudantes de pesquisa que entraram no projeto. Cada asa do Robo Raven é movida e controlada por dois atuadores independentes, permitindo a ele se mover, bater as asas e até se deformar de forma semelhante à asa de um pássaro real. E este desenvolvimento, junto a avanços de software que recriam os movimentos de uma asa com precisão, permitem que o robô execute suas façanhas impressionantes de voo. É claro que esses atuadores extras, além das baterias, acrescentaram mais peso. Por isso, o Robo Raven entrou em uma dieta rigorosa, e foi reformulado com peças de polímero feitas em impressora 3D e cortadas a laser. Mas sua fuselagem leve acaba estragando qualquer sonho de fazer um humano ganhar asas para voar… pelo menos por enquanto. À medida que esta pesquisa avança, vamos manter a esperança de que uma realidade de Homens-Pássaros ainda esteja em nosso futuro. [Pursuit of Unorthodox Ideas via Automaton] |
|
Posted: 06 May 2013 08:13 AM PDT
O YouTube abriga vídeos amadores de gatinhos, mas também traz bastante conteúdo profissional – que nem sempre é bem-remunerado por propagandas.
Segundo o Financial Times, para estimular esses criadores, o YouTube vai lançar um modelo de assinatura paga para certos canais de vídeo ainda esta semana. Citando uma fonte anônima, o FT indica que o YouTube está desenvolvendo esse sistema há meses, a fim de ajudar os canais a financiar seu conteúdo. Rumores sugerem que, inicialmente, 50 canais do YouTube serão pagos, e a assinatura deve custar a partir de US$ 2/mês. Dado que o Google já tem parcerias com estúdios de cinema – é possível alugar filmes pelo YouTube, por exemplo – seria esse um primeiro passo rumo a um serviço de vídeos sob demanda, como o Netflix? O Netflix está investindo em conteúdo original para atrair mais assinantes; e a aposta do YouTube é precisamente em conteúdo novo e de qualidade. Se o Google unificar as assinaturas de canal, e adicionar conteúdo dos seus parceiros, teria em mãos um serviço de streaming que poderia ameaçar a concorrência. Um porta-voz do YouTube explica ao Mashable: “Não temos nada para anunciar neste momento, mas nós estamos procurando criar uma plataforma de assinatura que poderia trazer conteúdo ainda melhor ao YouTube para os nossos usuários desfrutarem, e para oferecer aos nossos criadores outro meio de gerar receitas a partir de seu conteúdo, além dos modelos de aluguel e de anúncios que oferecemos.”Ou seja, eles parecem não negar o rumor. Há tempos, correm boatos de que o YouTube iria começar a cobrar por conteúdo premium; se este aqui for verdade, provavelmente não teremos que esperar muito para saber. [FT via Mashable] |
|
Posted: 06 May 2013 06:59 AM PDT
Se você acha que o pedaço de plástico aí acima é só um brinquedo, você está enganado. Esta é uma arma de verdade, que dispara balas de revólver. Ela é a primeira a ser totalmente feita por impressão 3D – e ela funciona.
A arma impressa em 3D, chamado de “Liberator”, foi feita por Cody Wilson, o estudante de direito na Universidade do Texas que foi a estrela do documentário Click. Print. Gun. sobre armas impressas. Wilson fez o protótipo de arma acima e divulgou hoje os arquivos CAD da pistola. Ou seja, qualquer pessoa com uma impressora 3D seria capaz de fazer uma arma em casa. E para provar que a arma funciona, o DEFCAD preparou o vídeo acima. (O DEFCAD reúne arquivos relacionados a impressão 3D de armas que foram banidos pela Makerbot Industries.) A pistola parece disparar balas de calibre .22, que são muito pequenas, mas ainda bastante letais quando disparadas contra humanos. Embora o Liberator não tenha sido testado exaustivamente – a Forbes tem o relato completo – ela parece funcionar, o que essencialmente significa que sim, armas impressas agora são realidade. Políticos nos EUA já pedem por leis que proíbam armas feitas em impressora 3D. Segundo a Forbes, o Liberator é feito de dezesseis peças diferentes, e usa canos intercambiáveis para diferentes calibres. Todas as peças são feitas de plástico ABS e feitas em uma impressora Stratasys Dimension SST. A arma também usa um prego, que age como pino de disparo. Wilson adicionou uma peça de aço de 170g para que a arma seja reconhecida por detectores de metais. Ótimo! Mas, é claro, as pessoas que imprimirem esta arma não serão obrigadas a fazer isso. Armas de plástico deixaram de ser meros brinquedos. [Forbes; Defence Distributed via BBC] Imagem por Michael Thad Carter/Forbes |
|
Posted: 06 May 2013 06:23 AM PDT
Há alguns meses, a NASA enviou ao espaço alguns satélites cúbicos, chamados PhoneSats, que usavam o Nexus One como cérebro. A ideia era ver se um smartphone poderia concorrer contra satélites de milhões de dólares. A resposta é “não exatamente”: quando se trata de fotografia, provavelmente é melhor ficar com satélites profissionais.
O trio de satélites de smartphones se coordenavam para tirar centenas de fotos da Terra, que então foram enviadas para nós através de ondas de rádio amadoras, para serem então combinadas por voluntários e entusiastas. Essa parte foi bem-sucedida, embora as imagens não sejam exatamente detalhadas. Entre os artefatos da imagem causados pela transmissão e a qualidade da câmera de smartphones, o resultado fica longe da perfeição. Mesmo assim, criar satélites a partir de smartphones – e ver que eles funcionam como esperado no espaço – ainda é impressionante. No final de abril, ao voltarem à atmosfera terrestre, os satélites queimaram e foram destruídos pelo fogo. Ou seja, estas fotos são tudo o que resta da primeira jornada de smartphones Android como satélites. E apesar de as fotos serem bacanas, eles definitivamente não são boas o bastante. Talvez devêssemos aperfeiçoar câmeras de smartphones aqui na Terra antes de voltar a lançá-las no espaço. A NASA já prepara o PhoneSat 2.0, que vai usar o Nexus S como cérebro e terá mais funcionalidades, como eletroímas para controlar a orientação do satélite no espaço, e rádio bidirecional para ser controlado a partir da Terra. [NASA via Engadget] |
|
Posted: 06 May 2013 05:43 AM PDT
Em 11 de maio de 2012, policiais civis sobrevoavam uma favela do Rio de Janeiro, a bordo de um helicóptero. O objetivo: caçar o “Matemático”, que comandava o tráfico de drogas em quatro favelas da Zona Oeste da cidade.
Veja como, em menos de dois minutos, os policiais conseguem atingir o traficante numa operação muito arriscada – e sem usar equipamentos individuais de visão noturna. As imagens foram exibidas pelo Fantástico. O vídeo foi capturado pelo helicóptero, equipado com um sensor que detecta o calor de corpos e objetos. No entanto, os policiais não usavam equipamentos de visão noturna para atirar: eles contavam com as luzes do bairro, e com a visão da câmera. Segundo o comandante Adonis Lopes de Oliveira, só isto bastava: “por conta da luminosidade, daquele lusco-fusco, não era escuridão total; a câmera era suficiente para fazer aquela operação”. Mas há quem discorde: “é um tiro sem qualidade, um tiro sem compromisso”, diz o consultor de segurança pública Diógenes Lucca. O helicóptero observa a ação a cerca de 1000m de altitude; para os policiais efetuarem os disparos, ele desce a uma altura entre 20m e 40m. Segundo o comandante Adonis, primeiro foram disparados os tiros de advertência. Depois de ouvir tiros na direção deles – dois atingiram o helicóptero – os policiais começaram o ataque. Como o helicóptero não poderia pousar e capturar o traficante, era preciso uma equipe de terra. Isso era responsabilidade da Polícia Militar, mas o blindado quebrou ao entrar na favela, depois que seus pneus foram atingidos por tiros – a PM teve que entrar a pé. Cinco horas depois, após uma troca de tiros, a PM encontrou o corpo do traficante, a três quilômetros do local da perseguição no vídeo. Como a operação foi feita em um bairro residencial à noite, e até casas foram atingidas por tiros, o caso será investigado pela Comissão de Direitos Humanos da Assembleia Legislativa do RJ. Segundo a chefe da Polícia Civil do Rio, Martha Rocha, nenhum morador foi ferido na operação. [Fantástico] |
Home
»
Gizmodo Brasil
»
Gizmodo Brasil: O que o robô fotógrafo do Google estava fazendo dentro do Burj Khalifa, o maior prédio do mundo?
Gizmodo Brasil: O que o robô fotógrafo do Google estava fazendo dentro do Burj Khalifa, o maior prédio do mundo?
in
Gizmodo Brasil
- on
09:48
-
No comments
Postar um comentário