Tópicos | algoritmos

Um projeto de pesquisa sobre o Facebook em torno das eleições presidenciais de 2020 nos Estados Unidos publicou seus primeiros resultados nesta quinta-feira (27), que, contra todas as previsões, apontam que o algoritmo da rede social não influencia a opinião de seus usuários.

O trabalho é resultado da colaboração entre a Meta - empresa que controla o Facebook, o Instagram e o WhatsApp - e um grupo de acadêmicos de universidades americanas. Eles receberam amplo acesso a dados internos da companhia e inscreveram dezenas de milhares de usuários para realizar experimentos.

##RECOMENDA##

A equipe acadêmica escreveu quatro artigos sobre o papel do gigante das redes sociais na democracia dos EUA, que foram publicados nas revistas científicas Science e Nature.

Em geral, o algoritmo acabou sendo "extremamente influente nas experiências das pessoas na plataforma", afirmaram os diretores do projeto, Talia Stroud, da Universidade do Texas em Austin, e Joshua Tucker, da Universidade de Nova York.

"Mas também sabemos que mudar o algoritmo mesmo por alguns meses não é provável que mude as atitudes políticas das pessoas", disseram, de acordo com as respostas dos usuários em pesquisas após participarem de experimentos com duração de três meses.

Os autores reconheceram que essa conclusão pode ser devido ao fato de que as mudanças não tiveram tempo suficiente para terem efeito, uma vez que o país vem se polarizando cada vez mais há décadas.

No entanto, "esses resultados questionam as narrativas populares que culpam as câmaras de eco das redes sociais pelos problemas da democracia americana contemporânea", escreveram os autores de um dos artigos publicados na Nature.

- Bolhas -

O algoritmo do Facebook utiliza aprendizado de máquina para decidir quais publicações aparecem primeiro nos feeds dos usuários com base em seus interesses. Ele tem sido acusado de criar "bolhas de filtros" e permitir a disseminação de informações incorretas.

Os pesquisadores recrutaram cerca de 40 mil voluntários por meio de convites em seus perfis do Facebook e Instagram e projetaram um experimento em que um grupo era exposto ao algoritmo normal, enquanto o outro via as publicações ordenadas das mais recentes às mais antigas.

Originalmente, o Facebook utilizava um sistema cronológico reverso e alguns observadores sugeriram que retornar a ele reduziria os efeitos prejudiciais das redes sociais.

A equipe descobriu que os usuários do grupo com feed cronológico passavam metade do tempo no Facebook e Instagram em comparação com os do grupo com o algoritmo.

No Facebook, os participantes com o feed cronológico viram mais conteúdos de amigos moderados, bem como mais fontes com audiências ideologicamente mistas. Mas o feed cronológico também aumentou a quantidade de conteúdo político e pouco confiável visto pelos usuários.

Apesar das diferenças, as mudanças não provocaram alterações detectáveis nas atitudes políticas medidas.

A Meta recebeu as conclusões gerais com satisfação. "Elas se somam a um número crescente de pesquisas que demonstram que há poucas evidências de que as redes sociais causem uma polarização prejudicial ou tenham um impacto significativo em atitudes, crenças ou comportamentos políticos chave", disse Nick Clegg, presidente de Assuntos Globais da Meta.

Algumas importantes empresas de tecnologia chinesa como Tencent, Alibaba e a ByteDance, proprietária do Tiktok, entregaram detalhes de algoritmos usados em seus produtos a um regulador estadual. O gesto inédito faz parte da tentativa de Pequim de controlar o setor, anunciou o regulador.

De acordo com uma lei aprovada em março, as empresas devem garantir ao regulador chinês que seus algoritmos se enquadrem dentro do marco regulatório.

##RECOMENDA##

"No momento as autoridades não pediram explicitamente para que as empresas modifiquem seus algoritmos", Angela Zhang, especialista em direito chinês na Universidade de Hong Kong, explica à AFP.

"Os reguladores, no momento, estão coletando informações", acrescenta Zhang.

Por outro lado, a Admnistração do Ciberespaço da China publicou pela primeira vez na sexta-feira (12) detalhes do uso de seus algoritmos pelas empresas de tecnologia.

O líder do comércio online Alibaba recomenda, por exemplo, novos produtos com base no histórico de pesquisa e navegação dos usuários.

A Douyin, versão do aplicativo do TikTok para o mercado chinês, faz recomendações a partir do tempo que as pessoas gastam em cada conteúdo.

Com essas ferramentas é possível analisar grandes quantidades de dados sobre um usuário e automatizar recomendações de acordo com suas práticas ou hábitos.

Os algoritmos, base da economia digital, servem de motor para grande parte dos aplicativos e serviços da internet, razão pela qual as empresas tendem a mantê-los em segredo.

Diante dessa opacidade de informações, as autoridades buscam redefinir a legislação de algoritmos.

Há dois anos, as autoridades chinesas têm sido particularmente intransigentes com o setor de empresas de tecnologia, que monitoram por meio de práticas até então amplas.

Várias grandes empresas foram multadas por abusos em termos de proteção de dados pessoais, concorrência e direito dos usuários.

No mês passado, a empresa Didi, líder em veículos com motoristas (VTC), foi multada em 1,215 bilhão de dólares por violar as regras de proteção de dados.

A rede social Twitter anunciou na quarta-feira (14) que lançará uma iniciativa sobre "aprendizado de máquina responsável" que incluirá análises de igualdade algorítmica em sua plataforma.

A empresa, sediada na Califórnia, disse que o plano visa oferecer mais transparência sobre sua inteligência artificial e lidar com "os potenciais efeitos prejudiciais das decisões algorítmicas".

##RECOMENDA##

A iniciativa surge em meio à crescente preocupação com os algoritmos usados pelos serviços online, que alguns dizem que podem promover violência, conteúdo extremista e reforçar o preconceito racial ou de gênero.

“O uso responsável da tecnologia inclui o estudo dos efeitos que ela pode ter a longo prazo”, escreveram em um blog Jutta Williams e Rumman Chowdhury, da equipe de ética e transparência do Twitter.

Quando o Twitter usa aprendizado de máquina ou automático, "isso pode afetar centenas de milhões de tweets por dia e, às vezes, a maneira como um sistema foi projetado para ajudar pode começar a se comportar de maneira diferente do esperado", explicaram.

Segundo os pesquisadores, a iniciativa busca "assumir a responsabilidade por nossas decisões algorítmicas" com o objetivo de alcançar "equidade e justiça nos resultados".

"Também estamos construindo soluções de aprendizado de máquina explicáveis, para que nossos algoritmos possam ser melhor compreendidos, o que os informa e como eles impactam o que (o usuário) vê no Twitter".

Williams e Chowdhury disseram que a equipe compartilhará suas descobertas com pesquisadores externos. "Para melhorar o entendimento coletivo da indústria sobre esta questão, nos ajude a melhorar nossa abordagem e nos responsabilizar."

Essa estratégia do Twitter segue uma série de controvérsias na equipe de ética de inteligência artificial do Google, que levaram à demissão de dois pesquisadores de alto nível e à demissão de um cientista de alto escalão.

O Facebook se defendeu nesta quarta-feira (27) de um informe que assegura ter arquivado pesquisas internas segundo as quais a rede incentiva a divisão entre pessoas ao invés de uni-las.

Os algoritmos da rede social têm como objetivo que os usuários passem mais tempo no site. Mas, "exploram a atração do cérebro humano pelas divisões", indicou um slide de uma apresentação feita em 2018 por uma equipe de pesquisas do Facebook, segundo o informe, publicado no Wall Street Journal.

##RECOMENDA##

O artigo a advertiu que se deixada sem controle, a rede social daria aos usuários "mais e mais conteúdo que tende a dividir em um esforço por ganhar a atenção dos usuários e aumentar seu tempo na plataforma".

O diretor do Facebook, Mark Zuckerberg, e outros executivos deixaram de lado a pesquisa porque consideravam este problema paternalista demais ou que resultaria em mudanças que irritariam os usuários politicamente conservadores, informou a publicação.

O vice-presidente de integridade da companhia, Guy Rosen, criticou a informação e disse que o jornal "ignorou voluntariamente os fatos críticos que socavaram sua narrativa".

"Como resultado, os leitores ficaram com a impressão de que estamos ignorando um tema no qual, de fato, investimos muito", acrescentou.

O informe também citou um estudo de 2016 do Facebook, que mostrou que entre grupos com afinidade política alemães, "64% de todos os grupos extremistas que se unem, o fazem através de nossas ferramentas de recomendação".

"Nossos sistemas de recomendação fazem aumentar o problema", dizia o informe.

Durante anos, o Facebook tem sido alvo de críticas por permitir o florescimento do ódio na rede, sendo os posts que atiçam divisões durante a pandemia do novo coronavírus o exemplo mais recente de uma enxurrada de enfrentamentos online.

Rosen reforçou que a rede social toma medidas regularmente no combate à desinformação, o assédio, as ameaças e outros comportamentos abusivos, inclusive às custas dos ganhos da empresa.

"Este trabalho nunca estará completo porque no fim do dia, o discurso online é uma extensão da sociedade e a nossa está altamente polarizada".

Era para ser uma noite diferente. O rapaz chegou em casa, pegou o um pedaço de pizza e correu para a frente da TV para assistir a uma comédia no seu serviço de streaming favorito. Mas, poucos minutos depois, lá estava ele assistindo a outro filme de ação, como em todas as noites anteriores. Seria só uma coincidência? Na verdade, é mais um triunfo de uma sequência de linhas de código, repleta de complexos cálculos matemáticos, que é chamada de algoritmo. Eles viraram o núcleo dos serviços digitais na última década.

Embora a vida tenha ficado mais fácil desde que eles apareceram - basta lembrar de como era pesquisar sobre qualquer assunto sem o Google -, há indícios de que esses softwares não sejam tão neutros e inofensivos quanto parecem.

##RECOMENDA##

"Os algoritmos têm um grande papel nas escolhas das pessoas hoje em dia", diz o professor de Ciências da Computação da Universidade de Washington, Pedro Domingos. "Eles determinam o que vemos no Google, escolhem três quartos dos filmes assistidos no Netflix e sugerem um terço de tudo o que é comprado na Amazon."

Isso não seria um grande problema, se todo mundo soubesse como os algoritmos funcionam e que, dependendo de quem o desenvolveu, eles podem apresentar resultados enviesados. Contudo, hoje eles são como segredos industriais. "Os algoritmos são feitos para beneficiar quem está por trás deles", alertou, em entrevista ao Estado, a matemática norte-americana Cathy O’Neil, autora do livro Weapons of Math Destruction (Armas de Destruição Matemática, em tradução livre). "Eles têm sido usados para separar vencedores de perdedores na internet."

Viés

Nos Estados Unidos, os exemplos de algoritmos "viciados" se acumulam. Em 2016, a agência de notícias Bloomberg revelou que a Amazon não entregava produtos no mesmo dia em bairros predominantemente negros. A empresa negou que seu algoritmo levasse em conta a raça dos clientes.

Outro caso envolve o uso da tecnologia por juízes norte-americanos para determinar penas. Uma investigação da organização sem fins lucrativos ProPublica mostrou que negros tinham o dobro de chances de receberem uma pena mais longa que brancos. Há também casos de sites de emprego que não mostram vagas com altos salários para mulheres e de financeiras que cobram taxas mais altas de quem mora na periferia.

"Os algoritmos aprendem com os dados que são oferecidos a ele", explica Júlio Monteiro, doutorando em Ciências da Computação na Escola Politécnica da Universidade de São Paulo (USP). "Se quem está por trás é preconceituoso, ele pode manter esse perfil."

Para o professor da Universidade Federal do Espírito Santo (Ufes), Fábio Malini, o uso intensivo de algoritmos prejudica a sociedade, pois limita o acesso à web. "A regulação algorítmica melhora a democracia? Acredito que não", defende o pesquisador. "É o acesso pleno a todos os conteúdos da rede que me ajuda a ampliar os pontos de vista." Essa curadoria automatizada é o que tem provocado o "efeito bolha" nas redes sociais, em que as pessoas só veem conteúdos que reforçam suas crenças.

Solução

Especialistas consultados são unânimes em defender que é preciso criar órgãos independentes para auditar os algoritmos. "Imagino um futuro em que decisões são tomadas por eles", diz Cathy. "Mas é preciso poder pedir explicações."

Por enquanto, esse tipo de garantia só está prevista na União Europeia, onde o Regulamento Geral de Proteção de Dados (GDPR) deve entrar em vigor em maio de 2018. A nova lei, que representa a maior mudança na área de privacidade online em 20 anos, prevê que cidadãos possam exigir explicações às empresas por trás dos algoritmos.

Apesar de apresentarem riscos, esses programas são considerados um mal necessário no mundo digital. "Antes, a TV decidia o que veríamos, mas na internet passamos a escolher livremente o que consumir", diz Edney Souza, professor da ESPM. "A maioria não estava pronta para este salto. O algoritmo está no meio do caminho." As informações são do jornal O Estado de S. Paulo.

O mais novo projeto de aprendizagem de máquina do Google lançou sua primeira obra de arte, uma melodia de piano com duração de 90 segundos criada através de uma rede neural. Apesar do feito, a música é formada por apenas quatro notas em uma base rítmica precária. A harmonia pode não soar bem para a maioria dos ouvintes, mas a descoberta é importante porque é um dos primeiros passos no ensino de máquinas sobre como criar trabalhos artísticos. Escute aqui.

Este é o primeiro produto tangível do projeto Magenta, que testa a inteligência artificial para a criação de arte. Junto com a melodia, o Google divulgou quais metas pretende alcançar com a iniciativa. As previsões dos pesquisadores são otimistas.

##RECOMENDA##

A longo prazo, o Magenta quer elaborar peças artísticas e canções sem a ajuda humana - mas, a curto prazo, o objetivo é construir sistemas que se conectam com ferramentas já existentes para auxiliar os profissionais deste meio.

Não é a primeira vez que o Google realiza experimentos com arte gerada por máquina. O algoritmo DeepDream da empresa - inicialmente desenvolvido para visualizar as ações de redes neurais - tornou-se um instrumento de gratuito que permite aos usuários criar suas próprias imagens inspiradas algoritmos. As peças produzidas chegaram a ser leiloadas em São Francisco (EUA).

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando