Tópicos | Software Livre

Mais um destaque para os recifenses da área de TI foi a aceitação de quatro projetos para o Google Summer of Code (GSoC). Os participantes são alunos do CIn-UFPE e conquistaram vagas entre os 1.212 estudantes do mundo inteiro que estavam na briga. Os estudantes Maílson Menezes, Luís Gabriel Lima, Lucas Lira e Mateus Borges irão desenvolver os projetos submetidos na seleção.

O Google Summer of Code tem a iniciativa de estimular alunos do mundo inteiro no desenvolvimento de plataforma de software livre. Para 2012, 180 organizações irão participar e entre elas estão as renomadas, Mozilla Foundation, Linux e Twitter. Então para participar, os alunos precisam entrar em contato com uma das organizações e enviar a proposta de projeto. Para cada empresa, existem vagas limitadas determinadas pela Google.

##RECOMENDA##

Os projetos são variados e em áreas distintas. Como por exemplo, o aluno do curso de engenharia da computação, Lucas Lira, está trabalhando no projeto que pretende transformar aplicativo de música – Amarok - mais social. A intenção é que o usuário possa compartilhar arquivos, na forma de stream, para amigos que possuam Amarok ou Tomahawk – padrão GNU/Linux em ambiente KDE.

No caso do aluno de ciência da computação, Luís Gabriel Lima, ele pretende deixar o código atual de alguns widgets do ambiente KDE mais concisos e, dessa forma, tornar a manutenção do código uma tarefa mais fácil. Já para Mateus Borges, do mesmo curso, a sua tarefa é analisar bibliotecas de sanitização com a finalidade de encontrar vulnerabilidades e, dessa forma, evitar e prevenir falhas de segurança no sistema. Essa também será uma contribuição para a ferramenta criada pela NASA, Java PathFinder.

Da mesma graduação, o estudante Maílson Menezes, pretende melhorar o leitor de PDF do KDE, Okular. Seu objetivo é renderizar a página dividindo em vários fragmentos localizando os trechos que possuem conteúdo. Isso faz PDFs grandes consumirem menos memória.

Para os alunos, a experiência proporciona um maior crescimento pessoal e profissional, pelo fato de os estudantes estarem constantemente se deparando com desafios. 

O debate sobre as tendências de licenciamento de código aberto durou meses. Tudo começou com afirmações de que o uso da GNU General Public License (GPL) vem caindo rapidamente, em grande parte pelo aumento do uso de licenças permissivas como a Apache. Defensores do software livre discordam.

O que realmente está acontecendo? Para entender a resposta, você precisa conhecer um pouco mais o histórico das licenças de código aberto.

##RECOMENDA##

A história

A GPL é de longe a licença de direitos autorais mais utilizada (clique aqui para ver o status diário de acordo com a KnowledgeBase). Em termos gerais, objetiva garantir as chamadas "Quatro Liberdades" (executar o programa, para qualquer propósito; estudar como o programa funciona e adaptá-lo para as suas necessidades; redistribuir cópias de modo que você possa ajudar ao seu próximo; aperfeiçoar o programa, e liberar os seus aperfeiçoamentos, de modo que toda a comunidade se beneficie deles). Está associada com o movimneto do "software livre", iniciado por Richard Stallman no início dos anos 80 e agora consubstanciado na Free Software Foundation (FSF).

A primeira versão da GPL foi escrita por Stallman em 1989, e desde então vem sido aperfeiçoada, mais recentemente para adicionar proteção contra patentes de software. É notável a maneira controversa como é trabalhada para atingir a meta de Stallman de criação de um pool crescente de licenciados GPL, exigindo que quaisquer outros programas derivados que contenham código GPL sejam licenciados sob a GPL. Esta abordagem "copyleft" é o combustível da natureza controversa da GPL. Algumas pessoas consideram que é errado a licença não permitir, por exemplo, que o código seja apoderado por outra pessoa, ou que sejam impostas sobre ele restrições que impeçam que seja distribuído da mesma maneira como foi adquirido.

Significativamente, a GPL é a licença usada para o kernel Linux. Como o sistema operacional reultante, o GNU/Linux, ganhou destaque, e uma grande quantidade de software tornou-se disponível sob a licença GPL. Tornou-se a opção padrão para desenvolvedores de software para o GNU/Linux.

As licenças "permissivas"

Outro segmento de software livre usa uma abordagem diferente que evita qualquer exigência "copyleft". A maioria dos pares de Stallman decidiu licenciar os direitos autorais de seus software de uma forma muito descontraída, dando a qualquer pessoa que receber o código-fonte o direito de usá-lo com muito poucas restrições.

Originalmente associados com variantes de Unix, essas licenças, em tese mais "permissivas", tomaram seus nomes das universidades de Berkeley e Massachusetts: as licenças BSD e a MIT. Estas licenças permitem fazer quase qualquer coisa com o software, incluindo torná-lo fechado, de código proprietário, ao qual as Quatro Liberdades deixam de ser aplicadas.

Associado ao sucesso da Apache Software Foundation, a licença Apache é similar às licenças BSD e MIT. Como descrito na Wikipedia, a licença Apache (versões 1.0, 1.1 e 2.0) exige a inclusão do aviso de copyright e disclaimer, mas não é uma licença copyleft - ela permite o uso e distribuição do código fonte tanto no software open source como no proprietário.

Tanto a licença a Apache quanto a GPL possuem comunidades associadas. A Apache é associada à Open Source Initiative (OSI), criada em 1998 para validar as licenças de código aberto. O próprio Stallman descreve a Free Software Foundation e a Open Source Initiative como organizações separadas dentro da mesma comunidade de software livre, com diferenças filosóficas. O movimento open source, diz ele, é uma metodologia de desenvolvimento com um enfoque prático para tornar o código fonte disponível. O movimento do software livre, por outro lado, promove uma postura ética e libertária de como os usuários devem ser capazes de interagir com seu software.

Motivos do declínio da GPL

A ideia de que o GPL está em declínio surgiu quando dados da Black Duck, uma empresa que presta serviços de due diligence, revelaram que a proporção de projetos de código aberto usando a família GPL de licenças vinha caindo. Hoje tem 56,35% do mercado. Tinha 70% em junho de 2008.

Ainda assim, continua a ser a licença de fonte aberta mais amplamente utilizada, se comparada a todas as outras opções _ MIT, Artístico, BSD, Apache, MPL, EPL, etc _ juntas.

Há quem aponte problemas para a opção pela GPL por novos projetos, especialmente na nuvem. E há quem garanta que ela continua firme. É o caso do diretor executivo da Free Software Foundation, John Sullivan, que argumenta que dados como os do licenciamentos do Debian GNU demonstram, inclusive, um crescimento, e não um declínio, na adoção da GPL.

A realidade

A melhor resposta para a questão do declínio do GPL é: depende de como você olha a questão. Se você está interessado em negociar operações open source, selecione as estatísticas que dizem que sim, há uma tendência constante para licenças permissivas. De acorodo com a Black Duck, se a taxa atual de declínio da GPL continuar, as licenças da família GPL serão responsáveis ​​por apenas 50% de todos os softwares de código aberto em setembro de 2012. Já as licenças permissivas (especificamente MIT/Apache/BSD/Ms-PL) serão responsáveis ​​por cerca de 30% de todos os softwares de código aberto em setembro de 2012, contra 15% em junho de 2009.

Já se você está focado na defesa da liberdade e na ideologia do software livre, há estatísticas confiáveis de que as licenças GPL estão aumentando.

E para aqueles de nós que estão tentando tomar duas perspectivas? Bem... A tese de aparente conflito entre as duas abordagens de licenciamento me parece ser mais uma dicotomia fabricada, um reflexo do desacordo antigo sobre software livre e código aberto. Na prática, tanto o licenciamento copyleft quanto as licenças permissivas estão crescendo.

A GPL está crescendo muito, com novos trabalhos e novas linhas de código sendo lançadas pelos adeptos do copyleft. Em particular, projetos distribuídos estão usando licenças GPL, como o Freedom Box, o Tahoe-LAFS, o MediaGoblin, o SparkleShare e muitas outras empresas que acreditam que o open source comercial não é sinônimo de licenciamento permissivo.

O sucesso do Linux e do Apache é bastante conhecido, mas outras tecnologias de código aberto estão em ascensão e deverão ganhar mais espaço no mercado. Entre as quais cinco prometem se destacar em 2012 são: Nginx, Openstack, Stig, Linux Mint e Gluster. 

Em 2012, se tudo correr conforme o planejado, a Red Hat deverá tornar-se a primeira empresa de software open source a gerar mais de 1 bilhão de dólares em receitas. Será um marco para a comunidade de código aberto, que há muito tempo vê a sua abordagem de desenvolvimento baseada em comunidades como uma alternativa viável.

”Estamos percebendo uma mudança fundamental sobre onde a inovação começa a acontecer, deixando os enormes laboratórios das empresas de software, e emergindo das enormes comunidades de código aberto”, defende Jim Whitehurst, presidente e CEO da Red Hat.

O open source tem deixado o mundo do software proprietário em tumulto durante os últimos anos. O Linux, Apache Web Server, Perl, Apache, Hadoop, OpenOffice e GIMP têm disputado mercado com programas comerciais concorrentes. 

Mas quais serão os pesos pesados do open source no futuro? Há cinco projetos para acompanhar de perto em 2012 e que podem formar a base para novos negócios e indústrias. Ou podem apenas seduzir as mentes dos programadores e administradores com formas de fazer alguma coisa mais facilmente, ou pelo menos, menos cara.

Veja a seguir quais são essas tecnologias que prometem dar um novo gás em 2012 ao ambiente de código aberto, segundo os especialistas:

1) Nginx Durante a maior parte da última década, a oferta de software para servidores Web têm sido bastante estável. O Apache tem sido utilizado na maioria dos servidores Web, enquanto o Microsoft IIS (Internet Information Services) é usado no resto.

Entretanto, a utilização de um terceiro software, o Nginx (pronuncia-se em inglês “engine-x”), passou a ser considerada graças a sua capacidade de lidar facilmente com elevados volumes de tráfego.

O Nginx está sendo executado em 50 milhões domínios de internet, com participação de 10% do ambiente web, estimam os vários programadores de software.

Essa tecnologia é particularmente utilizada em sites de alto tráfego, tais como Facebook, Zappos, Groupon, Hulu, Dropbox, e WordPress.com. O Nginx foi criado por Igor Sysoev em 2004, especificamente para lidar com um grande número de usuários simultâneos, com capacidade para gerenciar até dez mil acessos por servidor. 

“É uma arquitetura bastante enxuta”, disse Andrew Alexeev, co-fundador de uma empresa fornecedora de uma versão comercial do software. Ele diz que 2012 promete ser de grande adoção do Nginx. Em 2010,  ano passado, o projeto recebeu três milhões de dólares de apoio de uma série de empresas de capital de risco, incluindo capital do CEO da Dell, Michael Dell.

A empresa de Alexeev formou uma parceria com a Jet-Stream para fornecer o Nginx para uma plataforma de Content Delivery Network. O fornecedor de software também está trabalhando com a Amazon para atuar como integradora do serviço de cloud AWS (Amazon Web Service).

Além de uso em operações de grande porte na web, Alexeev acredita que o Nginx será utilizado mais ampla pela nuvem e serviços compartilhados. “Este é o universo onde poderemos adicionar mais benefícios”, considera o executivo.

O grande lançamento do software está previsto para este ano, com uma versão mais flexível para ambientes compartilhados. O produto promete melhorias também para lidar com ataques de Distributed Denial of Service (DDoS) e recursos adicionais de segurança.

2) OpenStack O projeto OpenStack chegou relativamente tarde para participar da festa de cloud computing, mas traz uma característica particularmente indispensável: capacidade de expansão.

“É importante destacar a possibilidade do OpenStack ser processado em 100 ou até mesmo mil servidores. Outras opções não têm escala para esse volume de processamento”, diz Jonathan Bryce, presidente do OpenStack Board Policy Project.

Desde o seu lançamento em julho de 2010, o OpenStack ganhou rapidamente apoio de grandes fornecedores de TI interessados que estão disputando cloud computing, como HP, Intel e Dell. 

Os “devotos” do OpenStack afirmam que o projeto já conta com a adesão de mais de 144 empresas e 2,1 mil participantes. A Dell lançou um pacote, chamado Dell OpenStack Cloud Solution, o qual combina o OpenStack com software e servidores da própria empresa. A HP anunciou um serviço de cloud ainda em beta com a tecnologia.

Os componentes do núcleo computacional do OpenStack foram desenvolvidos no centro de investigação Nasa Ames, para suportar uma cloud interna de armazenamento de grandes quantidades de imagens espaciais. Originalmente, os administradores da Nasa tentaram usar o software Eucalyptus como plataforma de projetos de software.

Entretanto, a agência espacial americana enfrenta desafios para expandir o uso desse software, de acordo com Chris Kemp, que supervisionou o desenvolvimento do controlador de cloud OpenStack, quando era CIO do Nasa Ames.

Para promover uma adoção mais vasta, o OpenStack está sendo equipado com uma série de novos recursos para torná-lo mais atrativo para as empresas, disse John Engates, CTO da Rackspace fornecedor da solução.

Um projeto, chamado Keystone, permitirá que as organizações integrem o OpenStack com os seus sistemas de gestão de identidade, baseados em Microsoft Active Directory ou outras implantações de LDAP (Lightweight Directory Access Protocol). 

Além disso, os programadores estão trabalhando num portal de interface para o software. A Rackspace fez uma primeira parceria com a Nasa para “empacotar” o OpenStack para uso generalizado. Mas está também apresentando o projeto como uma entidade totalmente independente, na esperança de ser uma opção atrativa para os fornecedores de cloud computing.

“2011 foi o ano de desenvolvimento para a base do produto, mas acho que em 2012 esse projeto deslancha e será base para uma série de nuvens públicas e privadas”, acredita Engates.

3) Stig Em 2010, houve um enorme crescimento no uso das bases de dados não relacionais, como a Cassandra, a MongoDB, a CouchDB e inúmeros outros. Mas na conferência NoSQL Now, realizada em setembro deste ano, muitas das conversas centraram-se numa base dados que será lançada chamada Stig. Sua chegada está prevista para 2012.

O software Stig foi concebido para processar grandes volumes de dados característicos de sites de mídias sociais, dizem os seus gestores. Ele nasceu no ambiente da rede social Tagged, criada pelo engenheiro de software Jason Lucas, o qual classifica a tecnologia com base de dados gráfica distribuída.

O Stig foi projetado para suportar aplicações web interativas e sociais. Sua arquitetura de armazenamento de dados permite busca diferenciada, possibilitando que os usuários e as aplicações encontrem conexões entre informações distintas.

Essa capacidade é em razão de a tecnologia ter sido desenvolvida, em parte, na linguagem de programação funcional Haskell. Assim consegue dividir o seu volume de trabalho por vários servidores. 

O Stig é um pouco misterioso, pois ainda não foi lançado oficialmente. Mas analistas preveem que a tecnologia chegará para se destacar no nicho de redes sociais e outras aplicações que processam grandes volumes de variedade de dados. 

As necessidades das redes sociais são diferentes de outros serviços e a tecnologia pode ser uma aliada, espera Lucas.

“Não é possível ter um serviço relevante neste espaço, sem capacidade de expansão para um ‘tamanho planetário’”, diz o engenheiro de software. A tecnologia Stig funciona atualmente num servidor do Tagged, embora a empresa espere expandir o seu uso para ser a única base de dados da empresa.

Originalmente, os programadores estavam planejamento a liberação código em dezembro, mas adiou o lançamento para 2012. “O que eu vi parecia muito interessante”, disse Dan McCreary, um arquiteto de soluções semânticas da Kelly-McCreary & Associates, empresa de consultoria. 

4) Linux Mint Apesar de anos de apologia por parte dos adeptos do código aberto, o Linux nunca teve uma forte presença em ambientes pessoais de trabalho. Mas normalmente há sempre uma distribuição Linux mais fácil de usar, como alternativa ao Microsoft Windows.

Nos últimos anos, o Ubuntu, da Canonical, tem cumprido esse papel, embora o Linux Mint está se tornando mais popular. Ele poderá ultrapassar o Ubuntu por ser mais fácil de usar.

O engenheiro de software, Clement Lefebvre, concebeu o Linux Mint depois de rever outras distribuições Linux, para diversos fóruns online. A partir deste trabalho, ele desenvolveu vários recursos imprescindíveis para distribuição ideal para os consumidores finais.

Assim como a Canonical se apropriou da distribuição Linux Debian para tornar o Ubuntu popular, Lefebvre usou o Ubuntu como base para o Linux Mint. 

Hoje, o projeto Linux Mint é financiado por doações, receitas de publicidade do seu site, e os rendimentos obtidos a partir das buscas dos seus usuários por meio de uma parceria polêmica com a DuckDuckGo.

O Linux Mint foi projetado para atrair os usuários que querem um sistema operacional de código aberto sem seu PC, sem se preocupar e saber como funciona o Linux. Esta abordagem torna a instalação, a execução do software e a manutenção mais fáceis.

Ainda mais do que o Ubuntu, o Mint centra-se na facilidade de uso em razão de não adotar novos recursos. O Mint evita, por exemplo, a interface de desktop Unity, um tanto controversa, escolhida pela Canonical para portar o Ubuntu para plataformas móveis. Em vez disso, a tecnologia adota a interface Gnome, que é mais madura.

Segundo os desenvolvedores do Linux Mint, o projeto já é o quarto mais usado em desktops no mundo inteiro, depois do Windows, Mac OS X (Apple) e Ubuntu.

Em 2010, o Mint assumiu o lugar do Ubuntu como líder, segundo o site de notícias DistroWatch Linux, que adota métricas para perceber a popularidade de distribuições Linux. Sem dúvida, 2012 deve trazer maior crescimento para essa tecnologia.

5) Gluster A Red Hat poderá revolucionar o mundo do software de armazenamento como o fez com o mercado de sistemas operacionais baseados em Unix? A empresa adquiriu a Gluster, fornecedora do sistema de arquivos GlusterFS, que organiza em clusters drives SATA (Serial Advanced Technology Attachment), unidades NAS (Network Attached Storage) e sistemas em repositórios de armazenamento, com elevada capacidade de expansão.

De acordo com o CEO Red Hat, Jim Whitehurst, o mercado de software de armazenamento gera quatro bilhões de dólares em receita anual, mas não é por isso que a empresa está interessada na tecnologia de código aberto.

A companhia quer é encontrar uma tecnologia de armazenamento capaz de fazer migrações para cloud computing com mais velocidade. “Não há outras soluções como esta no mercado”. Em 2010, os downloads do GlusterFS aumentaram 300%. Em novembro de 2011, o software foi baixado mais de 37 mil vezes.

O último ano foi muito emocionante para o Linux. O que começou como passatempo, na Finlândia, completou 20 anos e dominou quase tudo, desde dispositivos móveis a supercomputadores. E tudo leva a crer que 2012 ainda será um ano interessante para o sistema operacional do pinguim.

O Linux não chega a ter um roadmap. O desenvolvimento é resultado da colaboração entre centenas de desenvolvedores e de muitas empresas. Não existe ninguém elaborando uma lista de recursos a serem adicionados e direcionando desenvolvedores a trabalharem nela, ou em melhorias no kernel. Mas se você prestar atenção nas discussões da comunidade Linux, poderá ter uma ideia razoavelmente boa do que vai acontecer no futuro próximo.

Aqui estão algumas coisas que você pode esperar ver no Linux em 2012:

1 - Melhorias no Btrfs

Uma das grandes contribuições da Oracle para o kernel do Linux é o Btrfs, o sistema de arquivos que adiciona muitas características que as empresas gostariam de ver no OS. Por exemplo, o Btrfs suporta uma série de recursos e benefícios ausentes em outros sistemas para Linux, como pooling, instantâneos de estado do disco, soma de verificação, spanning integral de múltiplos dispositivos, uma maior integridade dos dados através da soma de verificação, instantâneos do sistema inteiro de arquivos antes de qualquer grande mudança, melhor gerenciamento de volume e RAID.

No entanto, faltam ao Btrfs algumas características- principalmente, a ferramenta fsck — que muita gente gostaria de ver implementada antes de colocá-lo em produção. A previsão era a de que a ferramenta fsck estivesse disponível no fim de 2011. É provável que esteja pronta ainda no início de 2012, o que deve acelerar a adoção do Btrfs por algumas das distribuições Linux muito rapidamente.

Se eu tivesse que fazer uma previsão, diria que o Btrfs acabará por suplantar o Ext4 como sistema de arquivos padrão para a maioria das principais distribuições Linux. Mas não espere ver uso generalizado em ambientes de produção antes de meados de 2013.

2 - Android, alinhamento com plataforma ARM e foco nos sistemas embarcados

O Linux em sistemas embarcados vai continuar a ser um dos principais focos em 2012. Isso inclui tudo, desde set-top boxes, o Roku para telefones Android e tablets, e até sistemas para impressoras e qualquer outra coisa que você possa pensar.

Há muito barulho na imprensa especializada em TI sobre o fato do Android ser uma "ramificação" do Linux. Aqui está algo sobre o qual você não deve ter ouvido falar muito a respeito: o pessoal do kernel Linux e o do Android tem trabalhado duro para sincronizar o kernel principal e o kernel do Android.

Com o kernel 3.3, a maioria das funcionalidades do Android deve estar presente no kernel principal. Não tudo, mas progressos estão sendo feitos muito rapidamente. Se tudo correr bem, os usuários devem ser capazes de executar Android em cima de um vanilla kernel (kernel reduzido) até o fim do ano.

Note que este tipo de inclusão assíncrona não é incomum, e não há nenhuma razão para pânico. O Xen esteve fora do kernel padrão durante anos, enquanto sua equipe aprendia a trabalhar com a comunidade responsável pelo kernel (e vice-versa). A Red Hat e outras distribuições de Linux têm incluído patches para recursos ou dispositivos constantemente. É algom comum à plataforma.

Ao mesmo tempo, o pessoal do kernel continua a tentar domar o "oeste selvagem" da arquitetura ARM. Em um dado momento, havia cerca de 70 sub-arquiteturas ARM na árvore do kernel. Compare isso com outras arquiteturas, e você verá um problema aí. A boa notícia é que você também verá um esforço maior este ano para a resolução do problema.

Parte dele é o suporte a longo prazo da árvore do kernel para os fornecedores de eletrônicos de consumo. A Long Term Stable Kernel Initiative (LTSI) é focada na produção de um kernel estável, que estará disponível por aproximadamente a mesma quantidade de tempo de vida da maioria dos dispositivos eletrônicos de consumo (2 a 3 anos). O fato de muitos fornecedores estarem trabalhando juntos em um único núcleo deve fornecer uma série de benefícios.

A Canonical também anunciou na CES que está trabalhando em um Linux para set top boxes e DVRs. Será interessante ver a receptividade dos principais fabricantes desses dispositivos. Sou cético sobre suas chances de sucesso, a menos que consigam emplacar em algum dispositivo de uma grande marca, que o torne atraente para os usuários.

3 - Melhor ajuste e provisionamento

O cgroups é um recurso do kernel do Linux, desde a versão 2.6.24, que tem como finalidade limitar, contabilizar e isolar o uso de recursos. Continua a evoluir e permitir um controle mais refinado do sistema. Por exemplo, no Linux 3.2 (lançado em 04 de janeiro) temos um novo recurso chamado CPU bandwidth control que permite que os administradores definam quanto tempo de CPU um grupo de processos pode usar.

A versão 3.2 acrescentou também ajustes finos de provisionamento ao Linux Device Mapper, que permite que administradores possam controlar o excesso de oferta de cotas de armazenamento para cada usuário. Isso pode parecer duvidoso, mas se você tiver algumas centenas de usuários em um sistema, será necessário definir um limite superior para a quantidade de armazenamento que poderão usar. Claro que, se configurado corretamente, a maioria dos usuários não se aproximará desse valor. Então você provavelmente não precisará de armazenamento suficiente para dar a cada usuário sua quota máxima.

Você pode esperar ver a melhoria contínua do cgroups e de outras áreas no kernel para permitir que os administradores de TI possam definir limites de recursos e outras formas de afinar seus sistemas ainda mais. As melhorias podem deixar de estar presentes em futuras versões do Linux por alguns ciclos, mas estão a caminho. Suspeito que o SUSE Enterprise Linux será lançado com um kernel 3.0 em 2013.

4 - Crescimento do OpenStack

Finalmente, esperamos ver o OpenStack sendo implantado até o fim de 2012 ou início de 2013. O projeto foi anunciado em 2010 e já atraiu mais de 140 empresas e organizações. É também a pilha de IaaS para o SUSE Linux e o Ubuntu. A partir das minhas conversas com membros da comunidade OpenStack, SUSE e Rackspace, digo, sem medo de errar, que o OpenStack terá um grande impulso em meados do ano.

Basicamente, o Linux vai continuar a melhorar para uso nas empresas e nas plataforma móveis. Com o Kindle Fire e o Nook, da Barnes & Noble, acho que veremos mais e mais tablets Android ganhando mercado. E, a não ser que algo drástico aconteça, o Android continuará a manter uma liderança firme no mercado de telefonia. O único lugar em que o Linux continuará a definhar será no desktop. Mas não se pode ter tudo, certo?

As promoções de final de ano são uma grande oportunidade para quem precisa trocar de computador ou melhorar o hardware do equipamento que já possui. Se você comprou uma máquina nova, os softwares abaixo podem ser ótimas dicas para tirar o melhor desempenho do seu novo brinquedinho.

1. Linux Ubuntu — Há inúmeras opções de Linux para escolher, caso o Windows não te agrade. Uma das mais populares — e amigáveis aos nossos usuários — é o Ubuntu, que pode ser baixado gratuitamente no site oficial.

O Linux é conhecido por ser um sistema leve, estável e mais seguro que os concorrentes. Outra vantagem é que, como é um software livre e de código aberto, você pode modificá-lo completamente, mesmo sem muito conhecimento de programação.

2. Firefox ou Chrome — Com o Windows, você também tem o Internet Explorer. Há muitas razões para considerar a instalação de outro naveador. O Firefox acaba de receber grandes melhorias de velocidade com a atualização mais recente e foi desenvolvido com a consideração de uma série de questões éticas.

Seja qual for a sua escolha, não há como errar com estes dois navegadores, e ambos são gratuitos.

3. Thunderbird — Também desenvolvido pela Mozilla, o Thunderbird é um dos melhores clientes de e-mail, além de gratuito e multi-plataforma. Além de simples de configurar e personalizar, está disponível em vários idiomas e possui suporte para complementos.

4. LibreOffice — Uma das melhores alternativas para o Microsoft Office, o LibreOffice inclui módulos para trabalhar com textos, planilhas e apresentações. Ele é gratuito, open source, compatível com arquivos do concorrente pago e dá conta do recado com facilidade.

5. GIMP — Na hora de trabalhar com fotos ou imagens, o GIMP é uma alternativa obrigatória ao caríssimo Photoshop, da Adobe.

Esse software é ótimo para criar gráficos para web, materiais de marketing ou simplesmente retocar fotos. As imagens podem ser criadas em vários formatos, incluindo o do próprio Photoshop.

6. ClamAV — Com ou sem Windows, é sempre uma boa ideia ter algum tipo de proteção antivírus - e o ClamAV é a grande escolha entre os gratuitos. Ele é multi-plataforma e detecta Cavalos de Tróia, vírus, malwares e spywares com facilidade.

Na última segunda-feira (21), um evento realizado no Rio de Janeiro apresentou as diretrizes e vantagens da lei nº 5978/2011, mais conhecida como “lei ODF”, que determina a utilização de documentos de padrões abertos, como o OpenDocument (.odf) — equivalente ao “.doc”, da Microsoft —, no âmbito da administração pública estadual.

A lei foi sancionada em maio, pelo governador do Rio de Janeiro, Sérgio Cabral, e diz que "os Órgãos e entidades da Administração Pública Direta, Indireta, Autárquica e Fundacional do Estado do Rio de Janeiro, bem como os Órgãos autônomos e empresas sob o controle estatal adotarão, preferencialmente, formatos abertos de arquivos para criação, armazenamento e disponibilização digital de documentos".

##RECOMENDA##

“Para os cofres públicos do Estado, a economia será de 15 milhões anuais", afirmou o deputado Robson Leite (PT/RJ), autor do projeto no qual a lei se baseia. "A Índia já passou por este momento, quando adotou o software livre e o desenvolvimento da sua indústria de TI acelerou. Esperamos que isto aconteça no Rio de Janeiro também”, completou.

Além do deputado Robson Leite, também estiveram no evento o coordenador do comitê de Software Livre do Serpro, Júlio Neves, o presidente do Centro de TIC do Estado do Rio de Janeiro (Proderj), Paulo Coelho, o gerente geral da Universidade Petrobras, Ricardo Salomão, e representantes da Receita Federal, do Exército Brasileiro e da prefeitura de Silva Jardim (RJ), mostrando seus respectivos casos de uso do formato OpenDocument.

A adoção de padrões abertos, além de promover o corte de custos para o governo, também garante uma maior compatibilidade dos arquivos com softwares mais recentes ou desenvolvidos por outras empresas, que também adotam o formado por ser livre de restrições. "Na justiça, existem alguns processos que estão salvos no formato do Carta Aberta, um software que há muitos anos sumiu do mercado. Até hoje, existem algumas máquinas que só servem para ler estes processos", revelou Júlio Neves, do Serpro.

*Com informações do Serpro

O governo do Paraguai anunciou que migrará todos os computadores do governo federal de softwares proprietários, como Windows e Microsoft Office, para software livre, a partir de 2012. A decisão é bem simples: cortar custos investido em soluções alternativas gratuitas.

O anúncio foi feito por Nicolás Caballero, gerente de TI do gabinente da Presidência da República do Paraguai. “O primeiro e mais evidente objetivo é salvar recuros”, disse Caballero um entrevista ao site europeu OSOR.

##RECOMENDA##

Ainda segundo Caballero, só o Ministério da Saúde Pública e Bem-Estar Social deve economizar aproximadamente US$ 4 milhões, fazendo com que as despesas do governo, após a mudança, fiquem restritas apenas ao treinamento dos funcionários.

O governo paraguaio também pretende assumir o controle de qual software será utilizado e como será utilizado, tomando estas decisões sem a interferência de empresas privadas que fornecem licenças de softwares pagos.

Páginas

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando