quarta-feira, 22 de fevereiro de 2012

Solução Dockstation com Ubuntu e Android




(imagem do site da Canonical)
No início do ano passado (Fevereiro de 2011) a Motorola lançou o Atrix  com um conceito interessante: unificar a computação pessoal em um único aparelho. Não que isso já seja totalmente possível com o Atrix hoje, mas ela mostrou o caminho: o smartphone já possui poder de processamento considerável, suficiente para grande parte das atividades corriqueiras com um PC. Falta apenas um tela maior e teclado. Então o Atrix tem as opções da docstation desktop, que é praticamente um hub USB para ligar monitor, teclado e mouse no smartphone, ou a docstation notebook, ou seja, tudo isso integrado numa peça única em formato notebook, para encaixar o smartphone. Uma idéia muito interessante, que esbarrou em um problema: o preço. O Atrix em si já era caro, e as docstations, para o que eram (ou seja, terminais passivos), são caríssimas. Simplificando a conta, na minha opinião, no total a solução não deveria ficar mais cara que comprar um smartphone + netbook, mas ficava. Além disso, o padrão é proprietário, preciso comprar todas as peças da Motorola, o que não ajuda a baixar o preço. Com isso infelizmente esta solução promissora acabou virando uma curiosidade, para mim e acredito que para a maioria das pessoas, já que ela não se tornou popular. Veja neste artigo uma alternativa a este tipo de configuração vinda de ninguém menos que a Canonical.



Pois bem, um ano depois o conceito vem reciclado pela Canonical. A mesma idéia: o smartphone é o computador, basta ligar os periféricos. E tudo, é claro, integrado via Ubuntu, que rodará no smartphone junto com o Android. A idéia não é substituir o Android, e sim usar cada sistema em um modo diferente. Voltando ao Atrix, note que a solução da Motorola precisava de um software envolvido para criar o "modo PC". Quer dizer, quando se liga o smartphone na docstation a área de trabalho muda para outra, compatível com o trabalho típico com teclado e mouse. Não é apenas a imagem do celular ampliada na tela. A interface de usuário para celular é projetada para usar naquelas proporções de tela e entrada de toque. Pelo menos a que temos na versão do Android utilizada no Atrix. Então, ao se encaixar o aparelho na docstation, o celular "muda de cara" e entra no modo PC. Para o Ubuntu seria mais ou menos o mesmo, só que ao invés do software proprietário da Motorola temos o da Canonical. O Android rodaria no modo smartphone, e ao conectar na dock, entraria o Ubuntu. Aí começa o lado difícil, este software não é um app comum, porque é preciso mais integração com o Android, é um software de baixo nível e isso requer colaboração com os fabricantes. Além do software, seria preciso algum hardware genérico e padronizado de docstation, compatível com diversos fabricantes. E por fim, os aparelhos tem que possuir alguns requisitos mínimos, como HDMI e USB host (não apenas mass storage). O projeto ainda está em desenvolvimento inicial, e como acabamos de ver, dependendo de interesses comerciais dos parceiros.

Se tudo der certo, o sonho de unificar todo o processamento pessoal em um só aparelho, e a um custo viável, pode finalmente virar realidade. Não seria mais necessário sincronizar informações entre celular e PC, tudo já estaria no lugar, sem duplicidade, sem inconsistência. A única limitação seria a diferença de capacidade de processador e do HD, mas estas estão se tornando aos poucos irrelevantes por meio de coisas como aplicativos para browser em HTML5 e serviços de nuvem. Então, por mais que eu me entusiasme com a solução doscstation descrita acima, o futuro que vai se delineando começa a tornar até isso irrelevante. Quer dizer, talvez não precise unificar tudo no smartphone, porque já vai estar tudo unificado na nuvem, e ele é apenas mais um terminal.

A visão de futuro possível é a seguinte. Conexões Internet de alta capacidade e alta disponibilidade, mesmo móvel (esqueça o 3G que temos hoje), tornam possível aplicações conectadas 100% do tempo, rodando no browser, em qualquer aparelho, móvel ou fixo. Nada é instalado localmente, nada é armazenado localmente. Qualquer fotografia tirada no smartphone é sincronizada o mais cedo possível e de forma transparente no seu serviço de armazenamento de nuvem, e o mesmo para mensagens, contatos, textos, planilhas, tudo. O processamento local necessário vai se tornar transparente também. Hoje se comemora processadores dual core em smartphones, mas no futuro isso tende a ser esquecido, assim como já está sendo esquecido nos PCs. Quer dizer, no futuro todos os processadores de celular terão "n" cores, quantos exatamente não importa, mas será o necessário para deixar o sistema, browser, decodificadores de vídeo, etc, tudo funcionando a contento. E essa capacidade de processamento irá se espalhando por todos os aparelhos de consumo em que se fizer necessária. Exemplo, minha TV LED tem entrada USB, e já permite navegar e nas pastas e arquivos do pendrive, abrir os arquivos de midia (video, fotos, musica), decodificar diversos formatos de vídeo, reconhecer legendas em arquivos txt associados. Para fazer isso é necessário computação, e o processamento já está na TV, um computador minúsculo e integrado que também está nos celulares, e pode ir para qualquer coisa, sem ocupar muito espaço e por um custo mínimo. Pode ser integrado inclusive a  um monitor, um teclado, ou até ao mouse. Ou seja, quando o preço de produzir um monitor (ou teclado) com um computador integrado equivalente ao de um smartphone for quase igual ao de fazer sem isso, pra que docstation? Basta logar na sua conta de serviço em nuvem, e estará tudo lá.

Se este cenário acontecer, soluções como as do Atrix ou a proposta da Canonical seriam intermediárias, para o período de transição. Mas o que não é transitório em tecnologia? Então, torço para que dê certo, será pelo menos mais um passo na limpeza das tralhas da mesa de trabalho...

Fontes:
http://www.ubuntu.com/devices/android
http://www.hardware.com.br/noticias/2012-02/ubuntu-android-2.html

domingo, 19 de fevereiro de 2012

Novo logotipo para o Windows 8 e as muitas novidades da versão

Foi divulgado esta semana que o Windows 8 terá um novo logo:
 Mais "limpo" e moderno que o anterior, que realmente já tinha se tornado cansativo, a mudança veio para melhor. O design está mais de acordo com o da interface Metro, e sinaliza alinhamento da empresa ao novo padrão visual.

Quando pressionada pela concorrência, a Microsoft se mexe rápido. Se o Windows 8 sair este ano, o intervalo entre versões terá sindo bem menor do que nos dois lançamentos anteriores, entre o XP e o Vista e entre o Vista e o 7. A extensão das novidades também é maior: versão ARM, interface Metro, boot, e especula-se até a unificação com o Windows Phone.

Ou seja, por esta especulação, a Microsoft poria um fim no atual código do Windows Phone, que deriva do Windows Mobile/Windows CE, e usaria para smartphones o do próprio Windows para PCs (que deriva do Windows NT, Windows 2000, XP, Vista e 7). Seria uma otimização de custos, já que os dois sistemas já estariam rodando em processadores ARM, então para que manter dois códigos? E  além disso, com os processadores mobile encostando em desempenho nos x86, não haveria mais necessidade de uma versão de sistema otimizada para eles. E por fim, se o Windows 8 "PC" será usado em tablets, então o WP ficaria subaproveitado, rodando apenas em smartphones? Me parece o movimento lógico colocar o Windows 8 em tudo, mas ainda isto que não aconteça na próxima versão do Windows, ela já traz muitas mudanças, e a do logo está simbolizando muito bem isto.
 
Por acaso estava folheando uma revista Info antiga, antes de jogar fora (dezembro de 2009), e o colunista Dvorak estima o lançamento do Windows 8 para 2014, baseando-se no "histórico da Microsoft". Pois bem, alguma coisa deve ter mudado no cenário, porque ela deve lançar bem antes. E o que mudou se chama competição.

sábado, 18 de fevereiro de 2012

Opinião: SOPA, PIPA, Direitos Autorais e Censura da Internet

Os últimos projetos que tentaram ou estão tentando aprovar nos EUA, como por exemplo o SOPA (Stop Online Piracy Act) e o PIPA (PROTECT IP Act), e etc. vem tomando bom espaço nos canais especializados em tecnologia. A coisa está estourando agora, mas ela é um consequência da falta de uma solução comercial e jurídica eficiente diante da realidade da transmissão digital de conteúdo que se tornou possível com a Internet, situação que vem se arrastando há décadas.

Com a distribuição de filmes, jogos, livros e música  migrando para a Internet, e dado que as empresas e autores esperam remuneração por este conteúdo, é uma consequência lógica que elas queiram uma forma controlar o trânsito destes arquivos e garantir a receita. Mas os consumidores também deveriam estar atentos com a forma como pretendem fazer isso, e nas implicações sobre a liberdade de expressão e direitos do consumidor.



Pelo lado dos autores,  quem se dedica em tempo integral a escrever, compor e tocar, precisa ter remuneração pelo que for consumido.  As empresas também precisam sobreviver e para isso tem que cobrar pelos produtos/serviços, embora uma análise histórica deixe claro que as margens de lucro imensas as façam parecer, pelo menos moralmente, mais como vilãs do que vítimas. Sem querer defender estas empresas, é preciso reconhecer que valem as regras de mercado: se a maioria do público pagava um certo valor médio por um CD, porque elas iriam baixar o preço? Elam cobravam o valor máximo tal que as pessoas continuassem comprando em volume aceitável. Ou seja, maximizar o produto "unidades vendidas" x "preço unitário". Se o preço aumenta acima de um determinado valor o consumo pode cair demais, a ponto de não compensar o aumento de preço. É simples! Basta ir jogando com as duas variáveis. Isso, é claro, até as pessoas perceberem que poderiam conseguir o mesmo conteúdo por nada via Internet, o que começou a ocorrer a mais ou menos 20 anos atrás, com a  popularização da Internet e PCs com leitores de CD (permitindo ripar as faixas).

Voltando alguns anos ao caso Napster, a questão continua praticamente a mesma, não se evolui muito. O Napster fechou, mas não foi substituído completamente por outros serviços legais e satisfatórios para todos os lados envolvidos: autores, consumidores e industria de entretenimento.  Ao contrário, foi substituídos por outros meios ilegais. A última onda de ataque vem por projetos de leis como o SOPA, PIPA, e etc, criticados por serem potencialmente censuradores (soou mal, será que está certo? :-) )  e, além disso, prejudicar os negócios de outras áreas, como sites de busca e redes sociais. Em outra frente, processam o Megaupload e serviços similares, o PirateBay e etc. Tal como o Napster foi processado antes.

Na minha opinião, pelo menos parte do problema é que a maioria da sociedade não se envolve diretamente no debate, simplesmente se acostuma com as cópias ilegais e vai seguindo em frente alheia a tudo, enquanto dá. O único lado que toma iniciativa legal é justamente o das empresas, interessadas em garantir as suas receitas, o que é fácil de entender. O público consumidor deveria perceber que nestas leis estão em jogo não apenas punições e restrições, mas também os direitos dos cidadãos e consumidores (ou a falta deles). Além da questão da censura na Web, tem também os direitos sobre o conteúdo adquirido legalmente. Por exemplo, um DRM que me impeça de ouvir a música pela qual paguei em qualquer dispositivo meu, eu acho abusivo.

De qualquer modo o tempo não volta, não visualizo a maioria das pessoas voltando a comprar discos físicos ou qualquer outra mídia, o futuro é download, ou ver em streaming (que no fundo é um download também, só que não fica armazenado permanentemente no HD), de forma legalizada, e isto já está ocorrendo em serviços como o iTunes, o Netflix, etc.

Com tudo migrando para a nuvem, talvez a solução para a pirataria acabe sendo mais técnica e não tanto jurídica. Se os usuários mantiverem os arquivos remotamente em algum serviço, será muito mais fácil rastrear e identificar cada arquivo de conteúdo protegido por direito autoral. E então, caso a licença de uso não exista, eles podem ser sumariamente deletados. Com isso iriam acabando as fontes dos arquivos ilegais. Sem arquivos para compartilhar, acaba o compartilhamento ilegal. A outra fonte são os próprios CDs/DVDs/Blurays originais, só que estes são cada vez mais  peças de colecionador. E os serviços de música venderiam não mais arquivos, apenas streaming. Você compraria a música, mas receberia não o arquivo,  mas o direito de ouvi-la por streaming em qualquer dispositivo seu conectado à Internet, mediante login na sua conta.  Tecnicamente ainda seria possível tentar capturar o streaming que está trafegando, embora ele possa vir criptografado, o que já dificulta. De qualquer modo, parti do pressuposto que as pessoas na sua maioria não estarão mais guardando arquivos locais e sim na nuvem, como dito antes, então capturar o arquivo seria praticamente inútil. Para que capturar arquivo da música que você já pagou pelo direito de ouvir ilimitadamente? Simples, e sem precisar censurar a Internet.

terça-feira, 14 de fevereiro de 2012

Teste detalhado de sua conexão com o SIMET

Coloquei a um tempo atrás o link para o medidor de velocidade de conexão da RJNET na barra lateral do blog, pois é uma ferramenta útil para qualquer usuário de Internet, e eu próprio uso a cada mudança de plano, ou de vez em quando para verificar a velocidade da conexão.

Ontem por acaso caí num programa de entrevistas na TV com um representante do nic.br, e ele citou uma ferramenta bem mais detalhada para avaliar a qualidade da conexão, o SIMET. Além das velocidades de download e upload (separadas pelos protocolos TCP e UDP), ele também mede o jitter e a latência. Apareceu a URL da web na tela da TV, mas é até engraçado o tempo curto que mostra, quase não dá tempo de anotar, parece feito de propósito pra levar o espectador à frustração... :-) Enfim, nem adianta reclamar, isto é o velho  formato da TV: "veja o que queremos e quando queremos"... Por sorte o endereço era simples de memorizar. Se você não teve tempo de anotar, ou sequer estava vendo o programa (mais provável), o link para acesso à ferramenta é:

http://www.simet.nic.br/

É preciso ter o plugin do Java instalado no seu navegador. No meu teste usei o navegador Chrome e a versão do Java baixada hoje (eu não tinha), e funcionou perfeitamente. E descobri que não fizeram a última mudança solicitada no plano, de 5 para 10 Mbps...



Nesta tela, os itens marcados como "Ruim" são comparados com a velocidade contratada (10 Mbps). Trocando a velocidade contratada para o valor contratado anterior (5), ele classifica como "bom".

Guarde esta URL, ainda pode ser muito útil. Depois vou colocar o link na barra do blog.

A matéria do programa ainda cobriu os planos do governo para Internet Popular (levar pelo menos 1 Mbps de conexão a todos os pontos do país e a um preço baixo e igual para todas as regiões, em torno de R$ 30,00). Ao contrário da apresentadora, acho uma meta bem realista e útil. Para quem não tem nada, 1 mega já dá pra navegar bem para o padrão atual da Web, ter acesso a diversos serviços, e se preparar as próximas etapas da evolução tecnológica. Não acho que deva ser a meta final, mas é um primeiro passo para tentar acabar com as discrepâncias de acesso da população. É outra coisa irritante da TV, os apresentadores  já assumem sempre o papel de indignação, mesmo quando a notícia não pede isso, sem analisar profundamente.

No outro extremo, nos bairros de maior poder aquisitivo dos grandes centros do país, a disponibilidade de velocidades são já são muito maiores (10, 20, 100) e continuam aumentando, mas como o representante da nic.br explicou (não guardei o nome dele), existem forças de mercado envolvidas, economia de escala, etc, e a proposta do governo, embora pareça tímida, é um bom começo. Se der certo, Internet no Brasil está irá por um bom caminho. Agora, e o 4G, será que implantam antes da copa? :-)

sexta-feira, 3 de fevereiro de 2012

Um fone que detecta em qual ouvido está inserido

É uma coisa meio chata com a qual convivemos ao longo do tempo, ter que verificar qual o fone certo para cada ouvido, direito ou esquerdo. Cada fone tem geralmente uma letrinha minuscula e quase ilegível dizendo qual o canal correto. Se estiver sem paciência você pode ignorar, afinal vai estar ouvindo tudo mesmo, só que dependendo do som, isso pode fazer diferença. O exemplo mais óbvio é de efeitos sonoros espaciais 3D em jogos, mas a própria música pode ter sido pensada com canais distintos. Eu as vezes na pressa coloco em qualquer ouvido, mas o melhor seria colocar sempre nos corretos. A agência Japonesa de Ciência e Tecnologia criou um projeto para resolver isso de uma vez: o Universal Earphones. Cada fone detecta em qual lado está inserido, e troca automaticamente o canal se necessário.  Como feature adicional, eles também detectam se estão inseridos em pessoas diferentes, e neste caso mixam os dois canais em ambos os fones. Tinha como ser mais perfeito? Espero que se torne viável comercialmente. Veja no vídeo abaixo a explicação do princípio de funcionamento.


Universal Earphones: Earphones with Automatic Side and Shared Use Detection from Kohei Matsumura on Vimeo.

Fonte: Engadget.