Tópicos | Tecnologia

Quando Londres sediou a Olimpíada de 1948, a grande inovação era o rádio. Agora, em 2012, a cidade quer ser palco do evento mais conectado da história, com uma rede de internet ultrarrápida, farto uso da mobilidade e 100% de transmissão televisiva de alta definição. Para os Jogos do Rio, em 2016, já se espera um novo salto com a dominância da TV 3D.

Por trás da história dos Jogos Olímpicos, revela-se a revolução tecnológica em curso nas últimas décadas. Foi em 1964, em Tóquio (Japão), que os computadores começaram a entrar em operação no evento esportivo. Os Jogos de Los Angeles (Estados Unidos), em 1984, introduziram o e-mail. Em 1996, o primeiro website "olímpico", em Atlanta (Estados Unidos), recebeu 189 milhões de hits. Eis que Pequim (China), em 2008, consegue a marca de 3,6 mil horas de cobertura de transmissão, mais do que todos os Jogos somados até então.

##RECOMENDA##

Agora em 2012, vai ficar claro que o mundo da informação passou por outra transformação rápida em apenas quatro anos. A quantidade de dados transmitidos será multiplicada por dez. Pela primeira vez, o público poderá fazer e postar vídeos instantaneamente nas mídias sociais, fenômeno que avançou nos últimos anos - na China, havia restrições ao uso da internet.

"Há coisas que você não poderia ter previsto em 2008, como o impacto dos 'tablets', que foi uma surpresa. Mas a tendência de mobilidade já estava muito clara", disse Gerry Pennell, diretor de Tecnologia dos Jogos de Londres. "Em Pequim, não existiam o iPad, o Kindle, o iPhone 3G", afirmou Stuart Hill, vice-presidente para programa olímpico da BT, empresa responsável pelas telecomunicações da Olimpíada de 2012.

Em Pequim, apenas 30% da transmissão televisiva era em alta definição (HD). Em Londres, será 100%. Os celulares eram usados principalmente (80%) para conversar com as pessoas. Agora, os aparelhos servem muito mais para a transmissão de dados (80%), como a navegação pela internet e envio de e-mails e fotos.

As mídias sociais não tinham a força de hoje. Havia 100 milhões de usuários no Facebook em 2008, número que já está em 750 milhões. "A Olimpíada marca como a inovação vem mudando as nossas vidas", disse Stuart Hill, da BT. "Passamos por uma revolução e nem percebemos porque estamos fazendo isso todos os dias."

Para montar a infraestrutura necessária, o braço privado do Comitê Organizador está investindo um valor estimado em 500 milhões de libras (cerca de R$ 1,5 bilhão) em tecnologia. Já foi inaugurado o Centro de Operações de Tecnologia dos Jogos Olímpicos, que irá operar no bairro de Canary Wharf, uma área financeira da cidade. No local, 450 técnicos se revezarão 24 horas por dia durante a realização do evento, entre julho e agosto, para controlar e monitorar toda a operação. Ao todo, 3,5 mil funcionários dedicados à tecnologia estarão espalhados pelos locais que receberão competições no Reino Unido.

Para que pudessem ser usadas no evento, as tecnologias já precisavam estar prontas e testadas desde outubro do ano passado, a fim de evitar "surpresas". A intenção é impedir problemas como os ocorridos em Atlanta, quando inovações foram colocadas em prática sem total sucesso.

A BT está construindo uma rede de internet ultrarrápida, com investimentos de 2,5 bilhões de libras (cerca de R$ 7,5 bilhões). Com 5,5 quilômetros de cabos e 1,8 mil pontos de acesso à internet sem fio, a capacidade estimada é de transmissão de até 60 Gb por segundo. Até 2012, Londres contará com velocidade de 80 Mb/s, o que beneficiará o evento.

Junto com a expectativa em torno dos Jogos, vem a pressão para que nada dê errado, nem por poucos segundos. Basta lembrar que o atleta jamaicano Usain Bolt quebrou o recorde mundial dos 100 metros em Pequim em uma cena inesquecível que durou 9,69 segundos. "Nas telecomunicações, isso é tempo demais. Se eu perder a conexão por 10 segundos, terei de procurar emprego", disse Stuart Hill.

RIO - Para 2016, é esperado um novo salto tecnológico na Olimpíada do Rio. Dentro do exercício de futurologia, já se imagina que a tecnologia 3D terá avançado e poderá ser dominante nas transmissões. "Vou tomar o risco de falar sobre o assunto: acho que está claro que uma das tendências que irão prevalecer é a TV 3D", disse Luis Alvarez, presidente da BT para a América Latina, África e Oriente Médio.

É sempre delicado tentar imaginar o que um país colocará em prática para uma Olimpíada. É por isso que Gerry Pennell, diretor de Tecnologia dos Jogos de Londres, prefere não comentar o assunto em público. "Você pode imaginar muitas coisas que podem acontecer em 2016, mas vou direcionar isso para o Comitê Organizador do Rio", disse. Ele explica que, quando assumiu o cargo, se deparou com diversas expectativas colocadas por pessoas de fora do projeto. "E eu não tenho intenção de contribuir com esse tipo de problema para o Rio."

A Embratel será a responsável pelas telecomunicações da Olimpíada do Rio. A Agência Estado apurou que a empresa brasileira mantém contato estreito com os envolvidos nos Jogos de Londres. Uma equipe da Embratel visitou o centro de tecnologia da BT, no fim de agosto, para conhecer o seu funcionamento e a estrutura necessária. A companhia britânica tem interesse nesse relacionamento, de olho na possibilidade de negócios com os Jogos de 2016, como a venda de consultoria e softwares para o Brasil, por exemplo.

Lançamento do aguardado smartphone iPhone 4S, da Apple, na madrugada desta sexta-feira (16), atraiu dezenas de recifenses aficionados pelo aparelho às lojas de operadoras no Shopping Recife, Zona Sul da capital pernambucana.

Que tal investir em impressão digital? Perda de tempo. Esse era o comentário que mais o empresário Luciano Vasconcelos ouvia na época em que resolveu abrir a Núcleo Digital, empresa especializada em comunicação visual, em Caruaru. Ignorando as posições contrárias, ele buscou as inovações em feiras de tecnologia pelo Brasil, a fim de oferecer o que havia de mais moderno como diferencial de mercado.

A aposta deu certo. Seis anos depois, a empresa já possui duas filiais e pretende investir R$ 2 milhões na compra de novos equipamentos. “Acompanhar a evolução é primordial. Na verdade, é uma necessidade. É preciso estar sempre se reciclando, buscando novidades”, frisa o empresário. Sobre o início do negócio, ousadia e visão de mercado foram as bases para conquistar o diferencial e atrair a atenção do público. “Tivemos a coragem, a dinâmica e a visão numa época em que se dizia que Caruaru não comportava um equipamento de impressão digital. Eu lembro que, em algumas viagens que eu fiz para divulgar a chegada do equipamento, algumas pessoas no alto Sertão chegavam até a não acreditar”, lembra.

Coragem e determinação são mesmo marcas de um empreendedor que deseja obter o sucesso. E investir em inovação é uma das formas de se destacar no mercado.

A tecnologia até contribui para a diminuição dos custos de produção. Na B&B Ambientações – Móveis sob medida, o investimento em equipamentos modernos reduziu o tempo de serviço e otimizou a utilização da matéria prima. “Adquirimos um programa que faz um plano de corte, a fim de aproveitar melhor a madeira. Eu só preciso lançar as medidas, que o sistema faz os devidos cálculos”, explica o proprietário Carlos Barata. A tecnologia permite, ainda, que a entrega do produto para o cliente seja mais rápida, o que contribui para a satisfação e atrai um público que precisa de agilidade na produção.

Ao todo, o investimento foi de R$ 50 mil. Mas a aquisição também abriu portas para a terceirização de parte da produção. “Eu já estou recebendo o produto cortado. Antes, a minha equipe fitava o móvel [fazia o acabamento], mas também pretendo deixar esse serviço com a empresa terceirizada e me concentrar na montagem dos móveis”, conta o empresário.

Apesar da vantagem, ele reclama do acesso ao crédito para a compra das novas ferramentas. “Tive que empenhar alguns bens. O processo foi tão difícil que quase desisti. O mecanismo precisa ser mais ágil, para evitar que a empresa fique descapitalizada”, frisa.

O torneio regional de robótica, First Lego League (FLL), conheceu hoje (11) o seu campeão geral. O Colégio Apoio, localizado no Recife, com a sua equipe Apoiobot, foi o primeiro colocado de uma competição com 23 escolas, entre públicas e privadas. Destas, uma é do estado do Maranhão e as restantes são todas pernambucanas. O início do FLL foi ontem (10), no ginásio poliesportivo da Secretaria de Educação do Estado. Neste domingo, dia da final, as equipes participantes estavam muito empolgadas e ansiosas pelo resultado. 

A coordenadora da Apoiobot, a professora de ciências, Vanja Jota, falou sobre a conquista da equipe: “É muita emoção, pois, a equipe é nova e deu o sangue pelo torneio. Fizemos o melhor”. Ela também comentou sobre a etapa nacional, que será realizada no próximo ano, em São Paulo. “Nós vamos lá para ganhar, pois, sabemos do nosso potencial”, disse bastante alegre a coordenadora.

##RECOMENDA##

O integrante da Apoiobo, Pedro Montenegro, de 13 anos de idade, disse que foi a primeira vez que ele competiu e já foi premiado. “Sou novato e já fui campeão, graças à qualificação que tivemos ao longo da preparação”, comentou Montenegro. Gabriel Moureira, 13, falou sobre a emoção da conquista: “Estou emocionado, a gente trabalhou muito, nem tem como explicar”. O Colégio Apoio preparou um projeto de biotecnologia, com o aperfeiçoamento de uma pesquisa voltada para crianças com dificuldade de comunicação.

Além da Apoiobot, outras quatro equipes se classificaram para a etapa nacional. Entre elas, a equipe do estado do Maranhão, a Quanta, do Centro de Integração do Conhecimento. Felipe Soares, 15, é da Quanta e relata a importância de ser uma das classificadas: “Nós somos a primeira equipe do Maranhão a se classificar para a etapa nacional do FLL. Foi incrível”. Quem também irá para São Paulo são as equipes Technobots e Divinrópolis, dos Colégios Fazer Crescer (Recife) e Divino Mestre (Jaboatão dos Guararapes), respectivamente, ambas da rede particular.

A Escola Santa Maria, de Olinda, com a equipe Evolucion, única da rede pública entre as selecionadas, fez uma grande competição, de acordo com o seu coordenador, Gustavos Bastos, professor de Física: “Pelo incentivo do governo de Pernambuco, nós fizemos uma grande competição, e somos alunos do estado em meio a grandes colégios particulares”, frisou Bastos.

De acordo com informações da comissão julgadora, foram analisados, nas equipes, a capacidade de resolver problemas, trabalho em equipe e situação emocional, além dos critérios: pesquisa, projeto do robô e missões (atividades práticas desenvolvidas pelo robô para a resolução do problema. 

O embaixador do FLL no Brasil, Marcos Wesley, relatou que o torneio é importante e abrange não só a tecnologia educacional, mas também mostra a importância de ajudar pessoas necessitadas: “O ser humano tem capacidade de transformar tecnologia em coisas boas, então, devemos usá-las para o bem, ajudando quem precisa. Além disso, nós mostramos aos jovens que eles são capazes da fazer o bem para o próximo. O FLL trabalha assim, cria tecnologia para ajudar pessoas, com o trinômio: tecnologia, ser humano e meio ambiente”, destacou o embaixador. Ele também falou sobre o resultado geral do evento em si. “Está tudo brilhante! O resultado foi excelente e os alunos se destacaram”, exclamou Wesley.

O secretário de educação do Estado, Anderson Gomes, também esteve presente. Ele falou da importância do FLL para a educação: “É de suma importância o Estado ter acesso a este torneio. Os alunos aprendem a trabalhar em equipe e a atuar com a interdisciplinaridade, e isso ajuda na educação”. De acordo com o secretário, a previsão é que no próximo ano, “280 escolas pernambucanas recebam o material para participar do FLL, inclusive, as do interior do Estado”. Ele ainda revelou que “está sendo feita uma pesquisa para sabermos o que os alunos da rede pública de Pernambuco querem nas aulas, assim, poderemos melhorar a educação”, relatou Gomes.

FLL regional
O tema deste ano para a etapa regional do FLL foi Body Forward, que é relativo a biotecnologia. A partir da temática, as equipes foram estimuladas a explorar o universo da engenharia biomédica, criando maneiras inovadoras de reparar lesões, superar predisposições genéticas e maximizar o potencial do corpo humano. A realização do torneio em Pernambuco se deu à nova gestão da Franquia Regional Zoom / Lego Education no Estado, sob a coordenação padagoga, Janaína Carvalho, juntamente com Anderson Mendes e Ebrahim Rocha, sócios da franquia pernambucana. O evento fora realizado pela última vez em 2009.

Confira fotos das finais regionais do First Lego League, torneio de robótica realizado neste domingo (11), na sede da Secretaria Estadual de Educação de Pernambuco, no bairro da Várzea, zona oeste do Recife.

Recentemente eu li uma notícia que tratava do serviço de mapas do Google, o Google Maps. Lá falava-se que o serviço estava ficando popular demais para continuar gratuito.
Popular demais, neste caso, significa dizer que ele está consumindo muitos recursos fundamentais do Google (leia-se seus servidores) e, obviamente, custando alguns bons dólares (milhares?) aos cofres da gigante de busca.

Recursos estes que podemos tratar por armazenamento de dados para o serviço, armazenamento de dados dos usuários e suas ações junto ao serviço, poder computacional de processador, para executar todas as ações, para poder dar suporte a uma quantidade enorme de usuários e aplicações acessando/consumindo este serviço ao mesmo tempo em uma escala de milhões de acessos por dia.

Todos sabemos da política “eternamente grátis” do modelo de negócios (em destaque, porque falaremos disso mais a frente) do Google. Todos os seus serviços são gratuitos, basta se cadastrar, ter seu usuário e pronto, comece a usar tudo na nuvem. Gmail, Google Docs, Google Maps, GTalk... mas como já foi dito aqui, todo e qualquer serviço (que por natureza é um software) consome recursos computacionais diversos. E estes recursos, por sua vez, demandam custos. Desde custos de manutenção, aquisição, evolução (que são custos diretos) a custos de locação de espaço (para os datacenters) bem como a conta de energia elétrica para manter tudo ligado e, principalmente, resfriado.

Alguns rumores dão conta que a partir do dia primeiro de janeiro de 2012, desenvolvedores serão cobrados quando seus apicativos acessarem a API do Google Maps mais de 25 mil vezes em um dia e que  a taxa cobrada seria de cerca de US$4,00 a cada mil acessos  após os 25 mil.

Se o valor da taxa sera esse, ainda não sabemos, mas o certo é que essa mudança  vai mesmo acontecer. Ter que cobrar as pessoas, mesmo que seja uma média de 0,35% dos usuários, segundo o Google relatou à BBC, é uma forma de assumir que o modelo do Maps tem problemas, ou que pelo menos ele não tem a eficiência em termos de escala. E para um serviço tão popular quanto o Google Maps, isso pode se tornar algo mais perigoso no futuro (BBC via BGR).

O que nos leva a uma importante pergunta: a mudança da plataforma da web, para uma instânica programável, que é possível desenvolver e disponibilizar novos produtos (serviceos) por meio da composição de produtos/serviços de terceiros necessita de uma quebra nos paradigmas também dos modelos de negócio, adotados até hoje?

E qual seria este modelo? Ou mais ainda, como chegar no valor final a ser cobrado? Como foi que o Google chegou nos 4 dólares (se é que são 4 mesmo e não 3,75 ou 5,25)? O que ele leva em consideração? O que é aferido e mais ainda como é aferido?

Um pote de ouro espera por quem sabe como dar estas respostas.

E mais uma informação para reflexão: O jogo Angry Birds, da Rovio, ultrapassou a marca de 500 milhões de downloads, que é um feito memorável mesmo para o jogo mais popular em dispositivos móveis. Dados da empresa afirmam que os usuários passam nele 300 milhões de minutos por dia! E, para informação, ele é um produto (serviceo de entretenimento?) gratuito nos dispositivos android, por exemplo.

Qual o modelo de negócio de Angry Birds? Não é só propaganda embutida. Hoje tem os royalties por uma série de produtos alternativos (de bichos de pelúcia a capas de travesseiro), mas tem muito mais por trás. Rumores dão conta que a Disney estaria fortemente interessada na construção de atrações temáticas dos famosos passarinhos…

Vinicius  Artigo escrito por Vinicius Cardoso Garcia - @vinicius3w

 

Quando você pensa em parques, a primeira coisa que pode vir à sua cabeça é a imagem de um espaço com gramado verde, árvores e brinquedos, onde pessoas praticam exercícios físicos e levam seus filhos, nos finais de semana. Se olharmos de um ponto de vista ainda mais simples, um parque pode ser descrito como um espaço público onde pessoas se reúnem para atividades recreativas, uma extensão de suas casas.

Em grandes áreas urbanas, como o Recife, onde muitas pessoas moram em apartamentos e pouquíssimas dispõem de espaço suficiente em seus lares para atividades de laser, como correr ou um simples bate-bola com os amigos, os parques acabam se tornando a única opção. Porém, muito além dos playgrounds, os parques ao redor do mundo acabaram dando espaço também a outras atividades que antes eram restritas apenas a ambientes domésticos, como surfar na Internet, por exemplo.

Com a conexão à grande rede começando a estar presente em todos os tipos de dispositivos eletrônicos e lugares, não é incomum pensar que alguém possa ir a um parque ou praça para passar um tempo conectada à outras pessoas que estão a milhares de quilômetros de distância.

No verão europeu, em vez de ler um livro à sombra de uma árvore, cada vez tem se tornado mais comum levar o notebook ou um tablet, ler um e-book, usar bate-papos, assistir vídeos online e até mesmo trabalhar remotamente. O Hyde Park, em Londres, por exemplo, se tornou um lugar disputado entre jogadores de frisbee e jovens geeks, aquelas pessoas viciadas em tecnologia.

Áreas públicas, como determina a lei, precisam estar preparadas para receber todos os tipos de pessoas e, em parques, governos locais precisam estar atentos ao comportamento social de seus usuários e criar formas de oferecer opções de laser para seus cidadãos. Pensando desta forma, será que os parques do Recife estão preparados para uma nova geração de pessoas dispostas a consumir — e gerar — conteúdo em todos os lugares, a partir de todos os dispositivos?

Em setembro de 2008, a Prefeitura da Cidade do Recife, através da Empresa Municipal de Informática (Emprel), realizou um projeto pioneiro de cobertura Wi-Fi, oferecendo Internet sem fio em parques, praças e mercados públicos da cidade, apostando na promoção da inclusão digital das pessoas que frequentam estes locais. Apesar da novidade ter sido recebida com entusiasmo pelos usuários, na época, a realidade mostra algo completamente diferente.

Um dos primeiros parques a receber o projeto foi o Parque da Jaqueira, o maior da cidade, situado numa das áreas mais nobres do Recife e predominantemente residencial, na Zona Norte. “Após fazer suas caminhadas, as pessoas terão a chance de usar a internet no ambiente aprazível do parque”, afirmou, na época, o então secretário de Serviços Públicos, Amaro João. “O Recife será cada vez mais coberto pelo sistema”, prometia o presidente da Emprel, Eduardo Vital, que atualmente comanda a pasta de Serviços Públicos da cidade.

 

Porém, o medo da insegurança afasta os usuários, além da falta de manutenção, que deixa o serviço muitas vezes fora do ar. Poucas pessoas chegam a se conectar aos três hotspots que cobrem apenas 100 metros, cada um, dos quase 72 mil m² da área útil do parque. “Quem tem coragem?”, respondeu Carlos Silva, comerciante que trabalha próximo ao local, quando perguntado se já havia visto alguém usar a Internet pública do parque. “Já vi algumas pessoas, sim, uma vez ou outra perdida, mas chama muita atenção. Todo mundo fica olhando”, completou.

“A Guarda Municipal faz a segurança do local, em 4 turnos, mas não há uma equipe específica focada nos pontos [de acesso à Internet]”, afirma a engenheira Ana Guedes, gestora que representa a Nestlé, empresa adotante do Parque da Jaqueira.

“Não me sinto segura para levar meu iPad na Jaqueira, mesmo se eu estiver acompanhada. Já fui assaltada lá, há três anos, enquanto voltava para casa, e dois ‘trombadinhas’ com um caco de vidro na mão levaram meu iPod”, relata Maristela Souza, estudante de direito, que mora numa rua próxima.

Entre outros pontos que precisam ser levados em consideração, está a falta de estrutura física para quem precisa usar um notebook no parque. Não há áreas próprias para isso, como quiosques ou mesas, muito menos tomadas para carregar as baterias dos aparelhos. “Não há espaço específico, pois os pontos são bem distribuídos no parque. São três pontos de acesso e os visitantes podem escolher o lugar que melhor lhe acomode e usar a Internet livremente”, diz Ana Guedes. 

Para testar o serviço, convidados o administrador e blogueiro Murilo Lima, que aceitou ir até o Parque da Jaqueira com seu notebook. Para nossa surpresa, o serviço está em manutenção há mais de um mês, segundo o auxiliar de serviços Romildo Bezerra, que trabalha no Parque. “Rapaz, só tem esse [ponto de acesso] aqui, mas não está funcionando, não. Já faz mais de 1 mês, mas, quando funcionava, o pessoal usava”, disse.

“Quando eu cheguei aqui, tentei achar a rede do parque com o meu celular, mas não encontrei nenhuma”, segundo Murilo, que ficou frustrado por não conseguir usar o serviço. “É uma pena. Aqui é um lugar agradável”, disse.

 Numa rápida caminhada, ainda notamos outro problema: há pouca sinalização informando os visitantes que o Parque é dotado de pontos de Internet pública. Na entrada da Rua do Futuro, próximo aos banheiros, havia uma discreta placa da Emprel — que em nada se parece com o popular símbolo do “Wi-Fi Zone”, usado internacionalmente para sinalizar áreas cobertas por conexões wireless.

 

“Moro quase aqui em frente, frequento há anos e nunca soube que tinha Wi-Fi aqui”, disse a jornalista Janaina Calazans, que corria em umas das pistas de cooper do local. As estudantes Clarissa e Marcela, que estavam lanchando no gramado, ficaram surpresas ao tomar conhecimento que o parque dispõe do serviço. “Tem Internet aqui?”, exclamou uma delas.

Do lado de fora do parque, a comerciária Patrícia Gueiros, que atende em um café a poucos metros de um dos hotspots, afirmou não ter conhecimento do serviço. “Os clientes sempre usam a conexão daqui [do café]. Nem sabia que tinha também no parque, nunca vi [a rede]”, disse, enquanto puxava o notebook próximo ao caixa, para conferir o sinal.

Apesar da ideia de um parque conectado parecer ser bastante bem-vinda, a aparente falta de atenção dos órgãos responsáveis pelo serviço tem atrapalhado a sua adesão. A estranheza das pessoas, ao serem informadas sobre a disponibilidade da Internet grátis no parque, mostra ainda que a falta de divulgação correta atrapalha na utilizaçao de uma ferramenta que poderia garantir acesso a um bem imaterial cada vez mais valorizado: a informação.

O LeiaJá tentou entrar em contato com a Emprel, logo após a tentativa de teste, para ter mais detalhes sobre a manutenção do serviço e a previsão de quando será reestabelecido, mas o ramal informado do responsável não atende as inúmeras ligações. Até a publicação deste texto, a assessoria da presidência do órgão não havia respondido o e-mail pedindo esclarecimentos.

 

Basicamente quando se fala em copa do mundo se escuta duas coisas: que os aeroportos serão um grande problema, que os governadores (qualquer que seja ele) estão com as obras dos estádios atrasadas e o trânsito e o transporte público precisam ser resolvidos.

O que não se escuta falar é que na cartilha da Fifa, para a copa do mundo, estes são apenas alguns dos problemas. Como esta coluna fala de Tecnologia, é necessário se analisar os aspectos tecnológicos associados a cartilha e que são fundamentais para que a copa aconteça. Antes de mais nada, é importante colocar que os prazos para boa parte estar operacional não é 2014 mas sim 2013, pois esta é a data da Copa das Confederações.

Falando de tecnologia, se engana, quem acha que o principal problema será a banda larga 3G, esse problema é tão obvio que se as operadoras não fizerem nada será uma prova de incompetência de quem está a frente deste processo.

O problema que ainda não ganhou fama na mídia são os inúmeros sistemas de suporte ao turista, torcedor e cidadão, que irá ver os jogos nos estádios e que precisam estar funcionando a qualquer custo, ou seja, ter um plano de continuidade.

Ao redor das arenas da copa os sistemas da Polícia Civil, Polícia Militar, Bombeiros, Ministério Público, Secretaria de Saúde e tantos outros precisam estar operacionais. Ai vem à pergunta, quem esta cuidando deste problema? Não podemos deixar isso na conta do governador, ele deve atuar nas grandes questões, como as descritas acima. O que os departamentos de TI estão fazendo? Nos bastidores se houve de tudo, desde que Romário está certo e a mão divina irá atuar fazendo com que todos os sistemas de TIC necessários fiquem operacionais, até que será construído um CPD enorme em Brasília que terá uma cópia de todos os sistemas. Enfim, qualquer um dos dois cenários é hipotético e difícil concretização ate 2013.

Porém esta é apenas a visão governamental da coisa. Claro que ela é importante, mas o que esquecemos é que com uma copa do mundo acontecendo no Brasil nós teremos todas as mídias do mundo apontadas para nós. Isso significa que boa parte dos hackers, sejam eles pertencentes a governos ou a grupos isolados, também estarão olhando para nós. Ai vem à pergunta capital: o que sua empresa esta fazendo, HOJE, para se proteger dos ataques que virão, NO FUTURO?  Estados que terão jogos de países em conflitos políticos provavelmente serão alvos, terão seus órgãos, empresas, etc, como alvos de grupos de ideologias contrárias. Portais, jornais, empresas que estão envolvidas também devem ser alvos, porque simplesmente isso dá fama e certa notoriedade para quem conseguir.

Em resumo, a Copa do Mundo, não é um problema do governador do seu estado, mas um problema dos seus secretários, departamentos de TI destas secretarias, de qualquer um que tenha uma página na Internet e que potencialmente seja um alvo.  Definitivamente não é um problema de um “homem só”, mas um problema nosso, para ser um sucesso, todos nós devemos fazer a nossa parte.

 

Prever o futuro é uma das atribuições mais difíces incubidas ao ser humano, até porque existe aí um pouco do “dom divino”, porém em relação ao trabalhador do amanhã podemos aceitar conjecturas nesse cenário divulgadas  recentemente  na internet, mesmo sabendo que a realidade atual distancia- se da virtual.

Propagou-se alhures no site – “cadê notícias“ – uma Lista das dez carreiras com um futuro brilhante , asseguradas neste quarto do século, segundo especialistas do instituto de futurologia Americano World Future Society (WFS), são elas: técnico em inteligência artificial, técnico em medicina biônica, lingüista informático, engenheiro em informática , engenheiro em criogenia, técnico em fibra ótica, consultor de imagens, agente de informação consultor em tempo livre e conselheiro de aposentadoria.

Essas profissões apresentadas chamam a atenção pelo grau de sua especificidade e, portanto, para o investimento educacional que os interessados terão que fazer para poder exercê-las um dia.

Vislumbra-se, claramente, que o domínio das modernas tecnologias abrirá um novo mercado, gerando novas oportunidades de trabalho e renda, em vista das saturações das relações de trabalho ora existentes.

Lamentavelmente, pelo visto, essa previsão americana, das carreiras do futuro, não levou em consideração a realidade dos países em desenvolvimento, sobretudo, a brasileira, onde as contradições entre emprego e tecnologia se apresentam de forma mais cruel, sendo este último sinônimo de desemprego.

A título de exemplificação, vale lembrar, que recentemente tivemos publicada no DOU de 13/01/2000, a lei n° 9.956, de 12/01/2000, que proíbe o funcionamento de bombas de auto – serviço nos postos de abastecimento de combustíveis, operadas pelo próprio consumidor, em todo o território nacional.

O descumprimento ao disposto na lei citada implicará na aplicação de multas equivalentes a duas mil UFIRs, no posto infrator e á distribuidora à qual o posto estiver vinculado. Em caso de reincidência a multa será em dobro, e na constatação do terceiro descumprimento, no fechamento do posto.

A modernidade das bombas de auto-abastecimento que num primeiro momento iriam contribuir com atendimento automático e pessoal do cliente, e quem sabe com a redução dos valores dos combustíveis (considerando que não teríamos mais a figura frentista), também agravaria a questão do desemprego, porquanto tais trabalhadores ficariam fora do mercado de trabalho, forçando o legislador a vedar sua aparição, proibindo seu funcionamento.

O que pretenderia o legislador pátrio? Impedir os avanços tecnológicos?

A resposta aos questionamentos apresentados vem do princípio da proteção em face da automação, esculpido no art.7°, XXVII, da CF/ 88 que objetiva a proteção do trabalhador frente às modernas tecnologias.

Utilizando a “futurologia brasileira”, todos nós podemos prever que em curto espaço de tempo a lei em tela será insuficiente para evitar a dispensa daqueles (e a contratação de novos) empregados, que irão aumentar os dados estatísticos dos institutos que pesquisam o tema desemprego.

Preocupação maior ao lembrarmos das catracas automáticas nos ônibus, dos caixas eletrônicos nos bancos, das máquinas agrícolas, entre outros.

Há muito tempo o professor Arnaldo Sussekind alerta a comunidade jurídica da necessidade de reciclagem e readaptação profissional, transformando atuais serviços de aprendizagens (SENAI, SENAC e SENAR) em serviços de formação profissional, com os mais amplos encargos. E nada foi realizado neste sentido. Quem sabe não é chegada a hora?  Dificilmente uma lei poderá interromper – por muito tempo – os efeitos da “mundialização”, temos que deixar de sonhar com o amanhã e cuidar, de olhos bem abertos, do futuro de nossos trabalhadores. Investir na educação e na capacitação profissional é uma das soluções para combater o desemprego tecnológico que será uma constante neste século.

 

A décima edição no Recife do iSeminar, evento de tecnologia promovido por um pool de empresas da área, foi sucesso de público com a participação de 800 pessoas na programação que contou com workshops e palestras na sexta(21) e sábado (22), na Universidade Federal de Pernambuco (UFPE).

No palco do teatro da UFPE,  personalidades do marketing digital do país, como Aleksandar Mandic, pioneiro na área de telecomunicações, e os jovens Alexandre Ottoni e Deive Pazos, responsáveis pelo bem sucedido site Jovem Nerd, fizeram a diferença com dicas e narrações de suas experiências.

##RECOMENDA##

Aleksandar Mandic  empolgou os presentes ao contar sobre a empresa, que também leva seu nome, e de como se tornou sócio-fundador do iG, onde ocupou o cargo de vice-presidente até setembro de 2001. “Saí da Siemens porque não era bem aproveitado lá, então segui o pensamento de Ferdinand Porsche, que dizia: ‘eu não encontrei o carro de meus sonhos, então decidi montar o meu’”, comentou descontraidamente.

Quando criou o provedor e Internet Mandic, Aleksandar passou a trabalhar em casa, de bermuda e chinelo, confessou. “Começamos pequenos. Em quatro anos, a empresa lucrou dois milhões de dólares — com apenas três funcionários”, revelou o simpático empresário.

Atualmente, a nova Mandic, criada depois da saída de Aleksandar do iG, atual no setor de e-mails corporativos e serviços de Cloud.

Marketing 2.0 — O publicitário pernambucano Eden Wiedemann, Gerente de Conteúdo e Mídias Socias da agência F.biz, de São Paulo chamou a atenção para a necessidade das empresas gerarem conteúdo de qualidade e replicável, como também prestar atenção dos “hubs”, usuários com grande número de seguidores no Twitter, por exemplo, que atingem até 48% de conversão em campanhas — não de vendas, mas de visibilidade total.

Eden Wiedemann Eden Wiedemann (Imagem: iMedia/Iseminar/Divulgação)

Os “Hubs” —  Para fechar, a dupla Alexandre Ottoni e Deive Pazos, ou “Jovem Nerd” e “Azaghal, o anão”, como são mais conhecidos pelos fãs do site Jovem Nerd, compartilhou detalhes sobre a criação  do site Jovem Nerd. “Demoramos um ano estudando como funciona o e-commerce, para lançar a Nerd Store”, disse Ottoni, revelando que criação da loja virtual foi uma estratégia para descentralizar a renda do site, que até então vinha de publicidade. “Essa foi a nossa estratégia: não colocar todos os ovos numa cesta só”, aconselha.

Mestres em usar as redes sociais para promover seus produtos e patrocinadores, os blogueiros mantém há pouco mais de nove anos uma loja que faz bastante sucesso no seguimento, a Nerd Store.

Além do conteúdo comum do site, como notícias e sátiras de filmes de ação e ficção científica, os dois também mantém um dos podcasts mais premiados do Brasil, o “Nerd Cast”, com uma edição semanal, todas as sextas-feiras, e o videocast “Nerd Office”, que conta os bastidores do escritório criado para gerenciar o negócio, e tem suas esposas como funcionárias – ou seja, sucesso em família.

Jovem Nerd e Azaghal

“Jovem Nerd” e “Azaghal” ainda participaram de uma pequena sessão de autógrafos no lobby do teatro, cercados pelos fãs, que usavam camisas da sua loja ou traziam livros vendidos por eles e se espremiam para ter um estante de atenção dos ídolos nerds.

Capacitar mais de seis mil profissionais da área de tecnologia da informação até o final de 2013 com um investimento da ordem dos R$ 7 milhões de reais. Essa será a grande meta a ser atingida nos próximos anos pelo Porto Digital, ao lançar, nesta tarde de segunda-feira (17), o Programa de Capacitação Porto Digital. O evento de lançamento do programa aconteceu na sede do Porto Digital, no bairro do Recife, Centro da Cidade.

Lá, reunido com autoridades públicas, jornalistas, estudantes e profissionais da área de tecnologia da informação no auditório, o presidente-executivo do Porto Digital, Francisco Saboya, após explanar sobre o histórico do Porto, destacou a importância da capacitação dos profissionais da área de tecnologia da informação. “Nós precisamos qualificar o capital humano na área de tecnologia, pois, com a expansão do Porto Digital, mais mão de obra qualificada será necessária”, disse.

##RECOMENDA##

Pelo programa, cursos de mestrado, especialização e certificações técnicas serão oferecidos aos funcionários do Porto Digital e estudantes das mais diversas áreas ligadas à tecnologia da informação que não tenham vínculo empregatício. O programa capacitará ainda os profissionais nas áreas de linguagem de programação, língua inglesa, gestão de projetos, gestão empresarial, empreendedorismo, qualidade de software e residência em software.

De acordo com Saboya, com essa capacitação duas grandes pretensões são almejadas. “Primeiro, é qualificar e atualizar os funcionários das empresas que fazem parte do Porto Digital. E segundo é qualificar os jovens da cidade do Recife ligados a diversas áreas da tecnologia da informação, gerando, com isso, mão de obra qualificada para o futuro da tecnologia do Estado”, Concluiu.

Fomentar a discussão entre professores e estudantes acerca das mudanças climáticas, desastres naturais e prevenção de riscos. Esse é o objetivo da IV Semana Municipal de Ciência e Tecnologia do município de Olinda, localizado na região metropolitana do Recife. O evento terá início no próximo domingo (16) e se estenderá até o dia 23. Na oportunidade, o público presente ao evento, além de participar de palestras temáticas, poderá conferir exposição fotográfica e minicursos.

No dia 16, haverá solenidade de abertura no Alto da Sé com a participação da orquestra de frevo e a exposição da Caravana da Ciência. Neste dia, a cerimônia iniciará a partir das 16h. Já dos dias 17 a 20 de outubro, haverá exposição fotográfica, palestras e exibição de vídeos relativos ao tema, a partir das 14h.

##RECOMENDA##

No dia 18, por volta das 8h, escolas da rede municipal de ensino participarão da Expolinda, uma mostra científica e cultural. O evento acontecerá na Praça do Carmo, em Olinda. No local, ainda haverá uma oficina de Matemática organizada pela Funeso. Para mais informações e conferir toda a programação, os interessados devem acessar o site do evento.

O Núcleo de Tecnologia da Informação (NTI) da Prefeitura Municipal da Cidade de Camaragibe, município localizado na região metropolitana do Recife, está com as inscrições abertas para os interessados em participar do curso na área de tecnologia promovido pelo Laboratório PHP, vinculado ao NTI. O Laboratório é uma ação do órgão municipal que visa desenvolver softwares para a web, utilizando soluções livres e reconhecidas no mercado.

O intuito do órgão com as inscrições é de formar mão de obra qualificada na área de tecnologia. Os interessados em participar do programa passarão por três etapas: formação básica, linguagem PHP e gestão ágil. Durante o curso, os participantes aprenderão a mexer em lógica de programação, banco de dados, HTML, orientação a objetos, linguagem PHP, scrum, wordpress e XP. Para se inscreverem, os interessados podem acessar o site do NTI e preencherem a ficha de inscrição.

##RECOMENDA##

A tecnologia para determinar se uma bola entrou ou não no gol só deve ser implementada no futebol a partir de 2013. O Campeonato Inglês esperava poder contar com cinco tipos do sistema em agosto de 2012, mas um membro da International Board revelou nesta quarta-feira que os testes de nove aparelhos ainda começarão a ser realizados, o que derrubou a previsão inicial.

"Acho que está muito tarde para acontecer na temporada 2012/2013. Acho que será em 2013/2014 porque é preciso um grande processo para tomar uma decisão capital como essa, para qualquer liga ou competição que quiser aplicar", disse o membro da International Board e secretário-geral da Associação de Futebol da Inglaterra (FA, na sigla em inglês), Alex Horne.

##RECOMENDA##

Os testes acontecerão em estádios pela Europa que não estiverem recebendo partidas, o que fará com que nenhum sistema possa ser aprovado antes de julho do ano que vem. A International Board, que se reuniu na última terça para discutir o assunto, já testou outras nove tecnologias, mas elas não atingiram o resultado esperado.

"Há uma fase de testes que vai acontecer até março que vai estabelecer em princípios básicos se a tecnologia pode atingir um aproveitamento razoável, de 90, 99, talvez 100%", afirmou Horne. "Uma vez que isso for feito, haverá uma segunda fase de testes em condições adversas. Se pudermos ter certeza de que a tecnologia consegue funcionar em todas as condições, então ela será boa o suficiente", completou.

Se tudo ocorrer dentro do planejado, partidas do Campeonato Inglês na temporada 2013/2014 já deverão acontecer com o uso dessa tecnologia. A intenção da International Board é que a escolha do sistema aconteça o mais rápido possível, já que a entidade e a Fifa esperam adotá-lo já na próxima Copa do Mundo, em 2014, no Brasil.

Já há algum tempo algumas empresas tem pensado sobre as competências das empresas do futuro, e principalmente na procura do que pode considerado como o próximo passo iminente para a inovação. O que escutamos há uns 5 (ou mais) anos atrás VAI virar realidade em breve. Mas o que escutamos há 5 anos atrás:

a) “Tudo em nossa casa será INFORMATIZADO, TV, Geladeira, Microondas e etc”
b) “O mundo estará CONECTADO em alguma rede e isso será transparente.”
c) “Os sistemas irão se CONVERSAR de alguma maneira.“

Bom, mas porque IMINENTE e REALIDADE, porque o que faltava, a decisão do mercado e das empresas de pesquisa do modelo para isso. E pelo que se pode observar estas tecnologias chegaram e vão ficar. Para INFORMATIZAR sistemas é necessário que os dispositivos computacionais, que tenham menos recursos obtenham estes recursos de quem tem mais, isso seria GRID COMPUTING e CLOUD COMPUTING. Para isso é necessário uma plataforma OPERACIONAL, isso seria os sistemas operacionais, neste cenário dois se destacam LINUX e WINDOWS, pois atendem diversas plataformas, mas o foco hoje é: Embedded LINUX e WINDOWS (mobile), com as plataformas de desenvolvimento C, JAVA e .NET. Neste cenário temos o problema (a) direcionado.

Não adianta ter sistemas isolados, eles precisam estar CONECTADOS, sendo assim se recorre a idéia de UBIQUIDADE que no dicionário significa “adj. Que está em toda parte ao mesmo tempo; onipresente.” , ou seja, as redes serão ubíquas, mas como: simples .... algumas tecnologias nasceram com este DNA, são elas os protocolos wireless: Bluetooth, Wi-fi 802.11a.b.g.i, Wi-MAX, CDMA, GSM, DVB ....., endereçamos (b), se eles estão conectados eles precisam se CONVERSAR mas.... , mas nada, isso será via utilizando metadados que representam as informações, ou seja, em XML, isso nos leva a WEBSERVICES e REST, endereçamos (c).

Ai vem uma constatação, o que está escrito acima, são competências da maioria das nossas empresas. Na verdade a maioria das empresas já possui profissionais que conhecem disso tudo, nós já trabalhamos com isso!!! nós temos know-how nisso!!! e o melhor para algumas empresas existem bons cases e anos de experiência. Quando me dei conta disso, pude notar o seguinte: Se convergirmos a convergência tecnológica na nossa empresa pensando no futuro e traçarmos isso com um grande objetivo podemos imaginar que: “As Instituições prontas para o futuro são aquelas que irão virar um grande LABORATÓRIO para novas experiências, onde executamos projetos para fazer coisas que não conhecemos, mas que dominamos a tecnologia, o nosso desafio agora é saber FAZER INOVANDO porque sabemos os limites de cada tecnologia e temos condição de propor melhorias nela”.

Agora vem o SILOGISMO, SE for verdade o que esta escrito acima E que temos as competências para realizá-las ENTÃO a nossa empresa está pronta para vender competências em um contexto inter-tecnológicos para o futuro.

Em entrevista recente à revista O Globo, o curador do acervo eletrônico da British Library, Aquiles Alencar-Brayner, afirmou que o Brasil precisa se atualizar no que diz respeito ao armazenamento de obras literárias em formato digital. Segundo o próprio Aquiles, a tecnologia utilizada, ainda que um pouco cara, é fundamental para que, daqui a 20 anos, seja possível pesquisar e consultar o acervo existente hoje.

De fato, a tecnologia tem possibilitado a realização de coisas, até então, improváveis de acontecer, como por exemplo, a união de centenas de livros em apenas um aparelho eletrônico. Ou seja, com as novas ferramentas existentes no mercado, é possível carregar uma biblioteca inteira em algo cujas dimensões são semelhantes às de um exemplar de livro. É fundamental nos adaptarmos a esse novo mercado, pois, como disse o curador, “ter acesso a conteúdo em qualquer lugar é uma questão de democratização”.

No início deste ano a Nintendo revelou seu novo console de mesa, o Wii U. Mas e quanto à Microsoft e Sony? Conversamos com quatro dos maiores gamers em nossa equipe para tentar adivinhar como será a próxima geração do Xbox e do PlayStation.

Hardware: mais rápido e mais esperto

##RECOMENDA##

Jason Cross (editor especializado em notebooks): o tipo de hardware que poderemos esperar na próxima geração de consoles irá depender muito de quando eles serão lançados. À medida em que os anos passam os processos de produção dos chips se tornam mais refinados, o que resulta em mais transistores (e mais poder de processamento) em uma mesma área. Isso significa processadores mais baratos, menores e com consumo de energia reduzido, ou mais rápidos e com o mesmo tamanho e consumo.

O Xbox 360 e o PlayStation 3 vieram ao mercado com CPUs e GPUs produzidos em um processo de 90 nanômetros. Se a próxima geração de sistemas for lançada em 2012, seus chips provavelmente serão produzidos com um eficiente processo de 32 nanômetros, o que se traduz em oito vezes o poder de processamento (e memória cache) em um chip do mesmo tamanho. 

Se os sistemas chegarem às lojas no final de 2013 há uma chance de que os chips usem um processo de 22 nanômetros, com 16 vezes mais transistores por milímetro quadrado do que os chips usados nas primeiras versões do Xbox 360 ou PlayStation 3. Mas sabemos que ambos os consoles tiveram problemas com custo e confiabilidade na época do lançamento, então não ficaria surpreso em ver a Microsoft e a Sony “tirarem o pé” no tamanho e consumo de energia dos chips de seus próximos sistemas.

futuroconsoles_cell-360px.jpg

Processador Cell do PlayStation 3: seu sucessor deverá ser ao menos 4x mais poderoso 

E o que tudo isso significa? É fácil especular sobre a arquitetura exata de um processador e coisas do tipo, mas tudo isso é irrelevante se você não for um desenvolvedor. Na prática, espere que as novas máquinas tenham processadores com desempenho pelo menos quatro vezes superior aos modelos atuais, e GPUs ao menos oito vezes mais poderosas, se não mais.

Comparados aos consoles atuais, que usam GPUs projetadas para gráficos no nível do DirectX 9, os próximos consoles usarão chips que atendem aos requisitos da especificação DirectX 11.1. Os principais benefícios, além de shaders mais sofisticados, são chips muito mais flexíveis que poderão ser usados para uma série de trabalhos em computação geral. Você pode esperar que os consoles da próxima geração façam os cálculos de física, inteligência artifical e até mesmo o processamento de efeitos sonoros na GPU.

A memória é uma questão mais complexa. Nunca é o bastante, mas é difícil vender um console por US$ 399, e reduzir o preço rapidamente, quando ele está lotado de RAM. Não imagino a Sony e a Microsoft sendo sovinas a ponto de não colocar ao menos 2 GB de RAM em suas máquinas, mas devemos torcer por 4 GB ou mais. Ao longo da vida de um console isso fará uma grande diferença no que os desenvolvedores poderão criar.

A verdadeira questão será a mídia de armazenamento em massa. Não importa se os desenvolvedores distribuírem seus títulos via download ou em forma física nas lojas, os jogadores ainda terão muita coisa para baixar: outros jogos, temas, conteúdo extra, roupas para personagens, atualizações e mais. Seria ótimo se os consoles fossem lançados com discos de estado sólido (SSDs), já que eles tem um desempenho tão bom no acesso aos dados que podem mudar a forma como os jogos são feitos.

Mas com os jogos disponíveis para download, demos e conteúdo extra cada vez maiores, não sei se o custo dos SSDs será baixo o suficiente e a capacidade grande o bastante. Um HD tradicional de alta capacidade provavelmente será a solução, mas com alguma sorte talvez vejamos algum tipo de produto híbrido com um cache otimizado usando memória flash.

Distribuição dos jogos: discos ou download?

Patrick Miller (editor de tutoriais): O Xbox 360 e o PlayStation 3 introduziram os gamers ao mundo da distribuição digital em larga escala. Embora você possa reclamar aos quatro ventos sobre ter de baixar patches ou pagar por conteúdo para download (DLC), o Xbox Live Arcade e a PlayStation Network deram aos gamers de todo o mundo a chance de jogar jogos que nunca chegariam às prateleiras das lojas, como aqueles criados por desenvolvedores independentes, jogos antigos fora de catálogo ou remakes de clássicos que provavelmente não seria feitos se os desenvolvedores tivessem de pagar pela prensagem dos discos, embalagem e distribuição. E como todos gostamos de jogar no PC, rezamos fervorosamente para que a próxima geração de consoles aprenda uma ou duas coisas com o Steam e adote um modelo de distribuição exclusivamente por download.

Infelizmente, isso não irá acontecer. Para começo de conversa, as conexões de banda larga ainda não são populares o suficiente para possamos confiar apenas nos dowloads para distribuição - especialmente conexões de banda larga rápidas o bastante para baixar um jogo com tamanho entre 8.5 GB (a capacidade de um DVD de dupla camada) e 25 GB (a capacidade de um disco Blu-ray de camada única). Alguém com uma conexão DSL de meros 1 Mb/s levaria dias para concluir o download.

futuroconsoles_steam-360px.jpg

Steam: distribuição digital de jogos, com comodidade e preços atraentes

E mesmo que todo mundo acordasse amanhã com uma conexão de fibra óptica no PC da sala, o mundo dos games ainda assim não estaria pronto para adotar apenas os downloads. Isto porque os gamers não compram seus consoles diretamente da Sony, Microsoft ou Nintendo: eles compram de lojas menores, que na verdade lucram com a venda de periféricos e, claro, os jogos propriamente ditos. Até que este modelo de mercado mude - o que pode acontecer ao final da próxima geração - você pode esperar que os downloads fiquem limitados a jogos mais antigos, demos e títulos menores, como hoje.

Se os downloads não são a solução, teremos mais uma geração com discos? Creio que sim: espero que o Blu-ray seja a mídia padrão tanto no console da Sony quanto no da Microsoft.

Nate Ralph (editor especializado em desktops): realmente precisamos superar esse apego à “mídia física”. Eu sei: conexões de banda larga não são confiáveis, seu provedor limita o tráfego em 80 GB mensais e você quer jogar o FPS do momento AGORA, e não esperar por um download.

Todos esses problemas podem ser corrigidos. Dê uma olhada no sistema Steam, da Valve, a escolha mais popular para distribuição digital de jogos no PC. Quer jogar o game mais aguardado do momento no dia do lançamento? Sem problemas, o serviço é capaz de começar o download dias antes, e no momento certo liberar o acesso. E você nem precisa passar a madrugada numa fila.

Preocupado com os downloads comendo toda sua banda? Sou um assinante do serviço PlayStation Plus. Toda noite meu PS3 se liga sozinho, verifica se há atualizações ou downloads de que necessito e faz o serviço. Também posso colocar downloads numa fila, dizer ao videogame para se desligar quando terminar e ir cuidar da minha vida.

Isso não é o futuro: isso é hoje. Imagine a próxima geração de consoles, com HDs maiores (320 GB é o limite hoje, mas isso sem dúvida irá mudar). E com o streaming de mídia através da internet se tornando algo tão comum os provedores não terão escolha a não ser acompanhar a demanda, melhorando sua infraestrutura e oferecendo novos planos, ou arriscar sofrer a fúria do público.

E quanto à porcentagem dos revendedores? A rede varejista Best Buy vende iPads, mas não faz um centavo nas vendas de software, já que tudo é feito através da App Store da Apple. Mas uma vez que um cliente entra em uma Best Buy para comprar um iPad, seus funcionários podem tentar vender os “extras”: controles, cabos HDMI, planos de assistência técnica e afins. A próxima geração do Xbox e do PlayStation será popular, e onde há vontade de fazer dinheiro, há uma forma.

Vai demorar, com certeza. Mas a próxima geração de consoles ainda vai levar alguns anos para chegar, e a tecnologia evolui cada vez mais rápido.

Jason Cross: ouvimos bons argumentos a favor dos discos e da distribuição digital de jogos, mas há uma terceira opção: cartuchos. Não aqueles cartuchos grandalhões da época do Megadrive ou SNES, mas cartões menores, talvez pouco maiores que um cartão SD. Pense nas vantagens: com um formato proprietário a pirataria é mais difícil, e se um circuito controlador de alto-desempenho for integrado ao console, os cartuchos se tornam meros “pendrives” burros e especializados.

futuroconsoles_cartuchovita-360px.jpg
PS Vita usará cartuchos no lugar de discos (PSP) ou downloads (PSP Go)

Um bom design para um cartucho baseado em memória flash pode oferecer o tipo de desempenho com o qual um disco Blu-ray ou HD só pode sonhar. Estamos falando no fim das telas de “loading”, e cenários com muito mais fidelidade e variedade. E o preço não seria tão alto assim: 16 GB de memória Flash custam cerca de US$ 18 em grande quantidade, mas os preços estão caindo constantemente com o aumento no volume de produção. No fim do ano que vem o preço deverá cair para US$ 10. E quando os consoles da próxima geração tiverem três anos de idade, o custo de produção de um “cartucho” pode chegar a apenas US$ 4 ou US$ 6.

Controles: cada vez mais acessibilidade

Alex Waro (assistente editorial): os controles não mudaram muito desde que o Atari 2600 chegou às lojas há mais de 30 anos. Se você jogava antes de 2006, provavelmente fazia isso com um gamepad com alguma combinação de joysticks, botões e gatilhos. Tudo isso mudou com a chegada do Wii naquele ano.

Embora alguns gamers já tivessem experimentado a idéia de controle por movimentos (não se esqueçam da Power Glove, acessório da Nintendo para o NES), foi o amplo suceso do Wii que provou que os jogos não precisam de controles complexos para ser divertidos. A Microsoft e a Sony logo produziram seus próprios sistemas de controle por movimento, e embora a maioria dos jogos para PCs ainda faça uso da dupla mouse e teclado, é claro que no futuro dos consoles os controles serão opcionais.

Isto é uma ótima notícia para qualquer um que procura compartilhar sua paixão por jogos com a família e amigos, porque um gamepad com dois joysticks e dez ou mais botões é incrivelmente assustador para qualquer um que não tenha crescido jogando. Sistemas de controle inovadores como a tela de toque do iPhone ou o Wii Remote tornam os jogos imediatamente acessíveis para uma ampla audiência de jogadores em potencial, o que no fim das contas é um acontecimento ótimo para a indústria de jogos e gamers em geral.

futuroconsoles_kinect-360px.jpg

Kinect: use seu corpo para controlar o jogo

É claro que nós nunca abandonaremos completamente os controles. Telas sensíveis ao toque e controles por movimento oferecem novas possibilidades de interação, mas ainda não podem duplicar a precisão de um controle analógico. Já sabemos que o gamepad do Wii U incorpora uma tela sensível ao toque, sensores de movimento e dois joysticks analógicos, numa tentativa de torná-lo atraente tanto aos gamers “hardcore” quanto aos jogadores mais casuais. No futuro, a Microsoft e a Sony irão adotar uma abordagem similar e introduzir aparelhos com mais opções de interação para acomodar uma audiência mais ampla. Não importa se tocando em uma tela, balançando um controle ou falando em um microfone, a próxima geração de consoles domésticos oferecerá muitas formas novas e interessantes para se jogar.

Consoles portáteis: eles já morreram?

Nate Ralph: os consoles portáteis estão mortos. Nós os matamos. Mas não tente ficar com todo o crédito: tivemos muita ajuda. Os desejados gadgets da Apple, como o iPhone, iPod e iPad, deram o golpe final, servindo entretenimento barato às massas. Eu não vou dar crédito à pirataria, já que em minha opinião quem baixa um jogo não pretendia comprá-lo. E não dá pra culpar os desenvolvedores por abandonar plataformas que não estavam vendendo muito e abraçar os baixos custos de desenvolvimento e distribuição necessários para colocar seus títulos ao alcance de uma multidão de proprietários de aparelhos com iOS ou Android.

Mas nosso maior aliado foi a inexorável marcha do tempo.

Os consoles portáteis dedicados evoluíram muito - basta olhar para seu velho Game Boy para perceber isso. Ele era compacto para sua época e tinha uma autonomia praticamente ilimitada (desde que você tivesse um saco de pilhas AA à disposição). Claro, o fato de que a Nintendo era praticamente a única com um sistema portátil decente no mercado ajudou no sucesso.

Quando o Nintendo DS chegou, vivemos uma nova era de ouro. Os pequenos cartuchos eram fáceis de transportar, o console trazia um novo esquema de controle e oferecia uma inovadora plataforma para que os desenvolvedores exercitassem sua criatividade. O que poderia dar errado?

Nós queríamos mais. Queríamos jogos que fossem mais divertidos, mas também gráficos com um nível de realismo pelo qual a Nintendo não é conhecida. E ficamos cansados de levar cartuchos para todo canto. Nos dê downloads!

xperiaplay_pspgo-400px.jpg

Smartphones como o Xperia Play (esquerda) estão tomando o lugar de portáteis como o PSP Go (direita)

A Sony fez uma tentativa corajosa com o PSPGo. Mas ele era, para ser direto, estupidamente caro, custando apenas US$ 50 a menos que um PlayStation 3, que além de videogame também serve como player de Blu-ray. E nem me fale na incapacidade do jogador comum de entender que baixar um jogo de 4 GB através de uma conexão 802.11 b/g não é uma boa idéia. Nós reclamamos com razão do preço, e reclamamos sem razão da falta de UMDs, e acabamos assustando os desenvolvedores, afastando-os de um sistema que talvez estivesse apenas à frente do seu tempo.

Seria apenas uma questão de tempo até que a Sony corrigisse seu erro (vide o PlayStation Vita), então a Nintendo teve que agir primeiro com o Nintendo 3DS. “Vocês querem gráficos? Que tal imagens em 3D que saltam da tela? Querem diversão? Temos mais recursos do que vocês podem imaginar. Querem downloads? Ahn... vamos chegar lá. É uma promessa!”

Mas era tarde demais. Os smartphones são leves e esguios por natureza, estão sempre com você e dão acesso a uma ampla gama de títulos distribuídos digitalmente. E não há reclamações quanto aos downloads: a maioria dos jogos são bem pequenos. Compare com o 3DS, que é grande, não essencial e exige que você carregue uma pilha de cartuchos se quiser trocar os jogos. Você pode se preocupar com a autonomia de bateria, mas com os números decepcionantes do 3DS (e do PS Vita) eles são gadgets que, além de ocupar espaço, também estarão mortos em poucas horas. 

Mais importante: numa era onde jogos “descartáveis” custam US$ 0.99 cada e gamers reclamam de pagar US$ 16 por um jogo da série Final Fantasy, o mega-lançamento de US$ 40 de outrora não tem mais lugar. É uma questão de matemática simples: você vai se divertir mais com um jogo de 3DS, ou com 40 jogos para o iPhone (muitos dos quais são gratuitos)?

Os desenvolvedores estão vendo isto. Dê uma olhada na gigantesca lista de jogos disponíveis na App Store da Apple, e compare-a com a parca lista de lançamentos futuros da Nintendo. 

Minha opinião? Já vão tarde. Eu provavelmente ainda irei comprar um PlayStation Vita, apesar dos meus PSP e Nintendo DS  parados em casa (comprei vários ao longo dos anos). Um console dedicado ainda irá oferecer uma experiência superior em jogos, da mesma forma que um bom livro é esteticamente mais agradável do que ler no iPad. Mas é tudo uma questão de acessibilidade: meu iPod Touch de US$ 250 coloca 32 GB de música, livros e jogos na palma de minha mão, o dia todo. Meu 3DS não tem como competir.

Serviços online: bem-vindos a Farmville

Patrick Miller: a Xbox Live e a PlayStation Network são provavelmente os dois recursos que definem e separam a geração atual de consoles da anterior. Distribuição de jogos, conteúdo para downdload, multiplayer online e troca de mensagens são uma parte importante da experiência atual em um console.

Vimos que ambos os serviços são ótimos para conectar pessoas que estejam jogando, mas não se tornaram um destino popular por si só. A PlayStation Network até está tentando com o PlayStation Home, uma espécie de “lobby” virtual onde os usuários podem socializar e jogar, mas ainda não é o ideal. O Xbox Live TV pode atrair mais usuários com a transmissão de programas de TV via streaming, complementando o conteúdo já disponível para download, mas isso irá depender em grande parte da Microsoft conseguir os direitos de transmissão dos programas certos.

Minha previsão: a “killer app” para os serviços de jogos em rede da próxima geração serão os jogos sociais. Você pode falar mal de Farmville o quanto quiser, mas o fato é que esses jogos são muito bons na hora de fazer dinheiro e manter as pessoas visitando seus sites. 

A partir do momento em que o Xbox Live e a PSN começarem a oferecer o mesmo conteúdo e jogabilidade viciantes que me fazem visitar o Facebook a cada hora, a Microsoft e a Sony serão capazes de transformar seus respectivos serviços em redes sociais, de distribuição de vídeo e o que mais quiserem. Poderão até mesmo, nesse momento, dominar completamente minha TV.

Há muito tempo se vê discussões sobre a melhor formação para os profissionais de TIC. O que seria melhor: certificação, graduação, cursos tecnológicos ou especializações, MBA, mestrado, doutorado e etc? No entanto, uma abordagem mais centrada nas necessidades dos profissionais e nas tendências tecnológicas indica que o futuro profissional de TIC é um especialista-generalista. Mas o que seria isso? Observando-se as tendências tecnológicas atuais e as novas tecnologias lançadas pelas grandes empresas de TIC, observa-se que mobilidade associada à cloud computing na construção de aplicações Ubiquas e Pervasivas e algo que veio para ficar por muito tempo.

Fica claro que existe a necessidade de profissionais não apenas extremamente especializados em determinada áreas ou tecnologias, mas que além desta especialização, ele é capaz de conversar sobre outras áreas e assuntos com alguma profundidade.

Futuro Profissional

 

Analisando as palavras ubiqüidade e pervasividade, se tem a chave para o profissional de tecnologia do futuro. Escrever aplicações que sejam ubíquas e pervasivas, exige uma formação geral, conhecimentos de programação, engenharia de software, arquitetura de computadores, sistemas operacionais, protocolos de comunicação e principalmente lógica. Este último ponto, normalmente renegado quando se olha as grades de qualquer curso de formação listado anteriormente.

O profissional do futuro, é aquele que aprendeu a pensar, domina uma determinada área do conhecimento e sabe utilizar e associar os conhecimentos gerais de tecnologia para resolver seus problemas. Ele conhece a cadeia produtiva na qual esta inserido, por exemplo o ciclo de desenvolvimento de software ou operação dele sendo capar de identificar problemas relacionados a sua atividade através de uma visão sistêmica elaborada.

Acima de tudo o profissional do futuro deve saber que os processos e procedimentos estarão cada vez mais automatizados. Em resumo, um engenheiro de software deve conhecer de protocolos redes e sistemas operacionais, um administrador de sistemas que sabe programar.

O Itep (Instituto de Tecnologia de Pernambuco) está com as inscrições abertas para os estudantes que desejam concorrer a vagas de estudo nos cursos técnicos da instituição. Ao todo, estão sendo disponibilizadas 712 vagas para estudantes do nível médio, distribuídas em 11 cursos técnicos (Comunicação visual, lavanderia, química, modelagem do vestuário, alimentos, desenho em construção civil, zootecnia, informática, administração e eletroeletrônica). Os cursos serão ministrados no Recife, Garanhuns, Caruaru, Araripina e Serra Talhada. Para concorrer ao processo seletivo, os estudantes devem estar cursando a 2ª ou 3ª série do Ensino médio e concluintes. Além disto, os dicentes precisam desembolsar um valor de R$ 15 reais referentes às taxas de inscrição. O processo de inscrição será realizado pela internet até o dia 30 de setembro. Para mais informações, os candidatos podem ligar para os telefones (81) 4141-1109/4141-1117.

Na última semana, durante uma aula de novas tecnologias no curso de graduação em jornalismo, um aluno trouxe ao debate um questionamento que gostaria de compartilhar com vocês e colher comentários. Eu falava da velocidade na qual as coisas surgem e se tornam obsoletas. Falava das transformações sociais geradas pelo surgimento de ferramentas tecnológicas quando veio a pergunta: “professor, poderíamos dizer que há um conchavo entre Hollywood, as empresas de tecnologia e o governo americano? Porque a maioria dos recursos tecnológicos que chegam ao mercado já apareceram em filmes um pouco antes”.

De imediato a minha resposta foi que não e que era apenas coincidência. Citei alguns exemplos de produtos que apareceram em filmes e, apesar de também serem maravilhosos, nunca viraram realidade, como o carro voador dos Jetsons ou o tele-transporte de seres humanos de Jornada nas Estrelas e aparentemente convenci a turma. 

##RECOMENDA##

A aula continuou e aquilo ficou na minha cabeça (e continua). Voltamos ao assunto e levantamos vários exemplos, como o fantástico painel multi touch do filme Minority Report, de 2002. Hoje não é só Tom Cruise que pode usá-lo, ele está na vida real e já faz algum tempo; ou os órgãos mecânicos para seres humanos, presentes desde Robocop, de 1987,  e que hoje estão presentes em muitos homens e mulheres comuns; ou ainda os robôs, como o R2D2 e C3PO, de Guerra nas estrelas - Uma Nova Esperança, de 1977, que hoje embarcam nas missões da Nasa e estão presentes em diversos projetos.

Poderíamos passar dias citando exemplos, mas para finalizar, um dos filmes que mais ‘retratou’ os produtos que utilizamos hoje foi De Volta para o Futuro 2, de 1989. No filme de Robert Zemeckis aparece, entre outras tantas coisas,  um vídeo game controlado apenas por gestos e movimentos do corpo, a possibilidade de se fazer uma vídeo conferência (e olhe que eles nem disseram que podia ser pelo celular), televisões ultrafinas, penduradas nas paredes, nas quais era possível acompanhar múltiplos conteúdos simultâneos e filmes em 3D, por exemplo, ou ainda os tablets e handhelds utilizados pelos figurantes do filme.

Tá, tá, com isso quero dizer que eles já sabiam o que iria acontecer no futuro? Não, claro que não! O que defendo é que a imaginação humana é fértil e que, quando não precisa fazer funcionar de verdade conseguimos sonhar ainda mais e projetar coisas fantásticas, que anos depois se tornarão realidade, quando a tecnologia chegar ao mesmo ponto. Tudo vai se tornar real? Não posso dizer. Vai demorar? Talvez. Um exemplo histórico foi o helicóptero, projetado por Leonardo Da Vinci no século XV e que só veio sair do papel depois da invenção do avião, já no século XX. Mas hoje o intervalo de tempo entre uma ideia futurista e sua concretização é cada vez menor e isso não é só por causa do cinema.

Temos a tendência de criar sonhos e objetos de desejo e a sétima arte tem um papel fundamental de amplificar seus efeitos e elevar os produtos ao status de ‘sonhos de consumo’. Quem não sonhava em ter o vídeo fone, o celular, uma BMW cheia de funções tecnológicas, um sapato voador, ou tantos outros Gadgets que povoam o cinema mundial?

Para reforçar a minha teoria, mostrei que esse modismo lançado pelo cinema não está ligado apenas a área tecnológica, afinal, quem nunca quis ter o óculos escuro de missão impossível ou uma maleta 007? E por falar no agente britânico, ele é outro dos campeões na geração de objetos de desejo, como óculos escuros, relógios,  carros, roupas, e, por que não, os mirabolantes gadgets que o agente “Q” sempre preparava para James Bond e que sempre, inevitavelmente, eram destruídos ao longo do filme .

Mas e você, leitor, o que acha disso? Tudo não passa de uma conspiração governamental para controle das massas, como em Teoria da Conspiração, de 1997, é uma evolução do pensar e do fazer dos seres humanos ou é tudo apenas uma grande coincidência? Aproveite e deixe o seu comentário.

 

 

Páginas

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando