Tópicos | bots

De que forma o uso de agentes autônomos computacionais ou bots no contexto da internet tem influenciado a execução de processos informacionais e a interação com os seres humanos? Este foi um dos questionamentos levantados – e confirmados – pela tese de doutorado “A Influência dos Bots em Processos Informacionais: limitações, benefícios e desdobramentos”, de Camila Oliveira de Almeida Lima.

O estudo foi defendido, em 2022, no Programa de Pós-Graduação em Ciência da Informação (PPGCI) da Universidade Federal de Pernambuco (UFPE), e teve orientação da professora Sandra de Albuquerque Siebra, do PPGCI e do Departamento de Ciência da Informação.

Um bot – forma reduzida da palavra robot – é um software que executa tarefas automatizadas, repetitivas e pré-definidas. Por ser automatizado, ele é capaz de executar uma infinidade de processos informacionais em uma velocidade superior à dos seres humanos e em áreas tão diversas como saúde, educação, comércio e jurídica.

##RECOMENDA##

“Uma das coisas que mais me chamou a atenção durante a pesquisa foi essa versatilidade dos bots em executar diferentes tipos de processos informacionais de forma autônoma, ou seja, sem intervenção humana na realização das atividades”, afirma Camila Lima. 

Processos informacionais para os quais é possível especificar uma lógica, por exemplo, são facilmente desempenhados por esses agentes, sem intervenção humana e com um bom nível de precisão, o que torna essas ferramentas atraentes para empresas e organizações. No entanto, conforme ressalta Camila, esses softwares ainda possuem limitações quando o processo informacional envolve cognição, empatia e criatividade, consideradas habilidades humanas.

Durante o estudo, Camila se deparou com três situações: uma na qual os processos eram realizados exclusivamente por seres humanos; outra, em que o trabalho era desenvolvido de forma híbrida, com validação humana; e uma terceira, na qual a ação era realizada pelos bots de forma incompleta ou com falhas de execução. Nesse caso, ao invés de apenas pontuar que não havia compreendido a mensagem recebida, o bot oferecia alternativas para tentar descobrir o que o usuário desejava para poder atender sua necessidade informacional. Tal cuidado foi visto como uma medida de segurança, uma vez que os agentes autônomos providos de mecanismos de aprendizagem mais complexos e evoluídos podem agir de forma imprevisível.

“Os bots possuem uma programação inicial que é feita por humanos, e isso já pode influenciar o comportamento deles. Contudo, ao passo que o bot é disponibilizado em rede, ele assume sua personalidade de acordo com as interações e o contexto, podendo adotar padrões benéficos, melhorando a eficiência em determinados processos; como de forma maléfica, propagando desinformação ou violando princípios éticos e legais”, alerta Camila.

Arte: Asscom/UFPE

Com base nisso, a pesquisadora destaca a importância de serem consideradas as implicações éticas, morais e legais relacionadas ao uso dessas ferramentas na interação com a informação. “Houve casos nos quais os bots violaram essas restrições, levantando questões importantes sobre a necessidade de regulação e diretrizes para seu uso responsável”, afirma Camila Lima.

ANÁLISE

Para obter os resultados apresentados na tese, Camila Lima fez um mapeamento da literatura envolvendo o tema, a análise documental e a observação direta da utilização de alguns bots. Para essa observação, ela analisou nove casos distintos nos quais os bots foram protagonistas ativos a fim de verificar os processos informacionais executados, limitações, benefícios, desdobramentos e também a influência em temáticas da área de Ciência da Informação para entender se o comportamento das pessoas poderia ser afetado pela interação com esses agentes computacionais. Os critérios utilizados para a escolha foram abrangência, impacto social da ferramenta, casos reconhecidos pela sociedade e comunidade científica e, principalmente, a existência de informações suficientes para a investigação.

Os chatbots mapeados e listados na tese, assim como aqueles analisados especificamente por Camila, tinham finalidade benigna e influenciaram positivamente seus usuários, motivando-os, orientando-os, informando-os e, em alguns casos, favorecendo o aprendizado. Com relação aos socialbots, segundo tipo de mecanismo mais mencionado nas produções analisadas pela pesquisadora, verificou-se que o cenário mudou um pouco, uma vez que foram encontrados casos de sistemas que atuaram tanto de forma benigna como maligna. Chatbot é um tipo de bot que se concentra na comunicação, enquanto que o socialbot é um software que se comunica de forma autônoma nas redes sociais.

Entre os episódios analisados por Camila está o das eleições presidenciais de 2016 nos Estados Unidos, quando o conteúdo propagado artificialmente pelos bots enfraqueceu o debate político, influenciando opiniões e revertendo votos em favor do candidato republicano Donald Trump – estima-se que 81,9% do conteúdo automatizado sobre as eleições indexado no Twitter envolvia alguma mensagem pró-Trump, o que sufocava as mensagens contrárias ao republicano ou a favor de sua oponente. O mesmo fenômeno foi observado nas eleições presidenciais de países como México, Rússia, Venezuela e Brasil.

Outro contexto apresentado por Camila foi o uso de bots na análise da qualidade da informação publicada na Wikipédia, enciclopédia on-line de licença livre escrita de maneira colaborativa. Os bots presentes nesse ambiente têm por finalidade atuar de forma autônoma na correção do conteúdo inserido por humanos ou por outras máquinas, estando em constante processo de aprendizado. Isso já levou a situações, conforme explica a pesquisadora, nas quais os softwares entraram em conflito entre si e com os internautas a fim de manter na plataforma as informações na forma como julgavam corretas.

CAMINHO SEM VOLTA

Além da necessidade de uma regulamentação envolvendo o uso de bots, o trabalho de Camila ressalta que é preciso que o profissional da informação considere a presença e atuação desses agentes autônomos em suas pesquisas e estudos – uma vez que a realidade atual é marcada pela interação cotidiana entre máquinas e pessoas. Traz ainda como reflexão a importância de que sejam delimitados os papéis e responsabilidades tanto dos atores humanos como dos não humanos.

“Para garantir uma relação saudável e equilibrada, é essencial que sejam estabelecidas regulamentações adequadas para o uso de bots, especialmente no que diz respeito à ética e à proteção dos Direitos Humanos. Os profissionais da informação e pesquisadores da área devem continuar acompanhando de perto esses avanços tecnológicos e compreender como os bots afetam os processos informacionais, a fim de garantir o desenvolvimento responsável e ético dessas tecnologias”, afirma Camila.

Imagem: Pixabay

Deixa ainda um aviso para aqueles que ainda não perceberam a crescente presença desses softwares em nosso dia a dia – tanto em quantidade como em relevância.

“A relação entre seres humanos e bots/chatbots continuará a se desenvolver e evoluir. Este é um caminho sem volta”, diz. “Não há mais como pensar que os bots e a inteligência artificial não farão mais parte do nosso cotidiano, pois já o fazem em vários aspectos, mesmo quando não percebemos. Certamente, todo mundo tem um celular ou utiliza redes sociais. Essas ferramentas, tão comuns de nosso dia a dia, têm uma inteligência artificial sofisticada que conhece cada usuário tão profundamente a ponto de sugerir conteúdos relevantes para cada um”, completa Camila Lima.

Camila finaliza: “É crucial que o fator humano, com suas características únicas, continue sendo valorizado e preservado, evitando que sejamos meramente direcionados por algoritmos; e preservando nossa capacidade de sermos críticos, emocionais e conscientes em nossas interações com a informação na era da inteligência artificial.”

NÚMERO CRESCENTE

De acordo com o Mapa do Ecossistema Brasileiro de Bots mais recente, publicado em agosto do ano passado, de 2020 a 2022, a quantidade de bots produzidos no Brasil triplicou, passando de 101 mil para 317 mil. O dado reforça a necessidade de atenção ao tema.

Mais informações

Programa de Pós-Graduação em Ciência da Informação da UFPE

(81) 2126.7754

ppgci@ufpe.br

 

Por Anderson Lima, da assessoria da UFPE

O senador Angelo Coronel (PSD-BA) adiantou nesta terça-feira (2) os pontos principais do seu relatório para o projeto de lei contra fake news (PL 2.630/2020). Na nova versão, o texto vai subordinar a ação de verificadores de conteúdo às denúncias dos próprios usuários. Também vai restringir a atividade permitida a contas e perfis criados em anonimato.

O relatório de Angelo Coronel ainda não está oficializado, e o senador destaca que continua recebendo sugestões. Além de relator da proposta, ele é presidente da comissão parlamentar de inquérito que que investiga notícias falsas e assédio nas redes sociais (CPI Mista das Fake News).

##RECOMENDA##

O PL 2.630/2020 estava pautado para votação no Plenário nesta terça, mas foi retirado a pedido do autor, senador Alessandro Vieira (Cidadania-SE), após o texto inicial encontrar resistência de vários parlamentares. Os trechos mais polêmicos permitem que as plataformas de redes sociais e de serviços de mensagens removam conteúdo considerado parcial ou totalmente enganoso por verificadores independentes (fact-checkers). A medida foi criticada por senadores como censura.

Sem censura

Coronel antecipou que seu relatório vai manter a parceria entre os fact-checkers e as plataformas, mas a ação desses profissionais ficará restrita à ocorrência de denúncias pelos usuários. O senador também afirmou que vai retirar do texto a definição de “desinformação”, usada para classificar conteúdo sujeito a remoção, e sugeriu que vai acatar sugestão de Alessandro Vieira para proibir expressamente a censura de conteúdo por parte das próprias plataformas.

“Não é verdadeira qualquer afirmação de que construímos algo que represente censura nas redes. O que buscamos é acabar com ações covardes de gente que se esconde atrás de perfis falsos para espalhar ofensas”, disse Angelo Coronel durante a sessão deliberativa desta terça.

O senador também disse estar preocupado com a atividade de contas e perfis anônimos, sem identificação do proprietário. Para ele, o ideal seria que toda conta pudesse estar vinculada a um CPF legítimo, e que houvesse ferramentas para identificar aqueles usuários que usam CPFs falsos ou roubados.

“A nossa Constituição não está sendo cumprida. É vedado o anonimato. Não podemos permitir hoje que a pessoa entre numa plataforma, abra sua conta, crie um nome falso, crie uma caricatura e saia daí em diante depreciando, denegrindo, ferindo a honra das pessoas”.

No relatório, as contas anônimas não serão proibidas, mas as plataformas deverão garantir que elas não tenham acesso a todas as funcionalidades disponíveis para os usuários que se identificam abertamente.

Liberdade de expressão

Autor do PL 2.630/2020, Alessandro Vieira defendeu a continuidade dos debates sobre o projeto para o Senado não “desperdiçar a oportunidade” de aprovar uma legislação contra a disseminação de fake news. Ele negou que o projeto seja um instrumento de censura, atribuindo esse entendimento a “intérpretes que não leram o que estava escrito”.

“Nós temos absoluta convicção de que o texto não apresenta absolutamente nenhum tipo de risco para a liberdade de expressão do brasileiro. A liberdade de expressão está garantida na Constituição, sem o direito de manifestar sua opinião de forma oculta, dissimulada que impeça a sua responsabilização”.

Alessandro Vieira destacou o que considera serem os pontos fundamentais do projeto: responsabilização das empresas que operam plataformas sociais, transparência sobre a atividade de contas automatizadas (“robôs”, ou "bots") e restrição à disseminação automatizada de conteúdo. Para ele, esses são os alvos cruciais no combate às fake news.

“O crime praticado na internet tem impactos imensos. Primeiro, porque a rede é feita para lembrar. Então, mentiras, calúnias, espalhadas meses ou anos atrás, retornam a cada instante: basta que alguém tenha o interesse de reativar esse conteúdo e volte a impulsionar criminosamente. É isto que nós queremos combater: desinformação e mentiras”.

"Práticas danosas"

O presidente do Senado, Davi Alcolumbre, celebrou o adiamento da votação do projeto como a chance para “separar o joio do trigo” e elaborar um texto “conciliatório”. Ele também ressaltou a importância da ação legislativa para identificar e coibir as práticas danosas.

“Que não fiquem vagas no mundo digital, no mundo da internet, agressões que, muitas vezes, destroem a vida das pessoas, pela mentira contada que acaba se tornando verdade”, disse o presidente da Casa.

*Da Agência Senado

 

 

[@#galeria#@]

Postagens com frases idênticas contendo boatos sobre o uso combinado de hidroxicloroquina, azitromicina e zinco contra a covid-19 chamaram a atenção de internautas no Twitter, que suspeitaram do uso de bots (robôs) para alavancar postagens a favor da liberação e utilização do medicamento em casos leves e na fase inicial da doença, como defende o governo.

##RECOMENDA##

A eficácia da cloroquina e da hidroxicloroquina no combate ao novo coronavírus (SARS-CoV-2), no entanto, não tem comprovação científica e ainda está sendo estudada. “Minha filha pegou covid no trabalho (Bancária), e meu genro pegou dela, tomaram AZT+HCQ+Zinco logo no inicio dos sintomas, com 4 dias estavam zerados.

Não vejo motivo pra tanta polêmica, um medicamento tão antigo e que até grávida pode tomar. Simples...ñ acredita ñ toma!!!”, diz a mensagem repetida em vários tweets de diversas contas.

LeiaJá também

--> #BolsonaroDay: maioria dos posts foram de robôs, diz UFRJ

--> WhatsApp: limite de encaminhamento reduz mensagens virais

A última sexta-feira (24) foi um dia muito agitado em Brasília, com a demissão do agora ex-ministro da Justiça e Segurança Pública, Sergio Moro, seguida por um longo pronunciamento em que o presidente Jair Messias Bolsonaro (sem partido) acusou o ex-juiz da Lava Jato de condicionar a exoneração do diretor-geral da Polícia Federal a uma vaga no Supremo Tribunal Federal (STF).

Nas redes sociais e no Jornal Nacional, Moro retaliou as acusações de Bolsonaro e, ainda na noite de sexta, a hashtag #FechadoComBolsonaro, que neste sábado (25) está em primeiro nos trending topics do Brasil, começou a subir.

##RECOMENDA##

[@#galeria#@]

Bots

Ainda na noite de sexta (24), o site https://botsentinel.com/ e perfil do Twitter https://twitter.com/BotSentinel Bot Sentinel, que é uma ferramenta on-line e gratuita hospedada nos Estados Unidos para detectar e rastrear trollbots e contas não confiáveis por meio de aprendizado de máquina e inteligência artificial, identificou um alto nível de atividade de bots na hashtag #FechadoComBolsonaro e fez um tweet com essa informação às 21h.

[@#video#@]

LeiaJá também

--> Flávio Bolsonaro é investigado por financiar milícia

--> Repúdio nas redes chega a 70% e supera o do caso Mandetta

[@#video#@]

 

 

Mais de 55% das publicações no Twitter em apoio ao presidente da República, Jair Bolsonaro (sem partido), foram feitas por robôs. É o que aponta um levantamento feito pela Universidade Federal do Rio de Janeiro (UFRJ), em parceria com a Fundação Escola de Sociologia e Política de São Paulo (FespSP).

Através do processamento feito por um software que analisa algoritmos com base em um banco de dados de temas relacionados a política brasileira, foi percebido que mais da metade das 1,2 milhão de publicações que movimentaram a campanha #BolsonaroDay foram feitos por robôs. A hashtag foi levantada para estimular as manifestações contra o Congresso, convocadas para o dia 15 de março, pelo próprio presidente.

##RECOMENDA##

Foi identificado que 23,5 mil usuários a favor do presidente não eram humanos. Ainda houve 1,7 mil contas que publicaram sobre o #BolsonaroDay e, horas depois, foram excluídas da rede social. Comportamento que a doutora em antropologia social da FespSP, Isabela Kali, e a pós-doutora em Ciência da Informação da UFRJ, Rose Marie Santini, apontam como típico dos robôs ou “bots”. Antes de sumirem, as contas realizaram 22 mil posts favoráveis ao presidente.

"Um uso massivo de robôs não quer dizer necessariamente que aquela campanha nas redes sociais está fraca e precisou ser inflada", destacou Kalil ao Valor Econômico. "O bot não vota nem adoece de covid-19, por exemplo, mas influencia a forma como os humanos votam e se previnem ou não diante de uma pandemia", completou.

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando