Tópicos | Inteligência Artificial

A BIA, inteligência artificial do Bradesco, passará a entrar em contato com os clientes do banco para confirmar envios de Pix que sejam retidos para análise de segurança. De acordo com a instituição, o contato será feito através do WhatsApp, canal em que a BIA já "conversa" com os clientes.

O modelo de prevenção a fraudes é o mesmo que o banco já utiliza na confirmação de gastos com cartão de crédito, desde abril do ano passado. Cálculos do Bradesco apontam que mais de R$ 96 milhões em fraudes foram evitadas pela inteligência artificial.

##RECOMENDA##

"Antes da confirmação com os clientes, avaliamos diversas variáveis que vão desde o histórico e perfil do cliente, valor da transação, até a conta do beneficiado", diz em nota o diretor de Segurança Corporativa do Bradesco, José Gomes Fernandes. "A BIA se mostrou uma ferramenta fundamental em transações de segurança."

A BIA foi lançada em 2016, e faz consultas para os clientes, como saldos e extratos, informe de rendimentos e envio de comprovantes. Desde a criação, soma mais de 2 bilhões de interações.

A inteligência artificial é encarada como um problema para o mercado de produções artísticas em todo o mundo. No Brasil, o lançamento de Alice no País das Maravilhas, pela editora Novo Século, deixou os leitores insatisfeitos por ser ilustrada com IA. 

O clássico da menina que conhece um mundo fantástico depois de perseguir um coelho foi anunciado pela Novo Século como uma "edição de luxo", prevista para chegar às prateleiras por R$ 59,90, a partir do dia 7 deste mês. As ilustrações abusam das cores e chamaram atenção dos interessados em adquirir a publicação, que desconfiaram do uso de IA. 

##RECOMENDA##

Dois dias após a pressão nas redes sociais, a editora admitiu que as imagens do livro foram produzidas por um computador. No modelo, um software é ensinado a produzir as ilustrações após ser alimentado com os trabalhos de diversos artistas e entrega uma combinação dos padrões desses artistas. 

Em seu perfil no Instagram, a editora justifica a própria obra 'disruptiva' de Lewis Carroll para utilizar IA e cita as mudanças da arte. A postagem foi rebatida com críticas nos comentários, mas, como ainda não há regulamentação sobre o tema, a editora não tem obrigação legal de indicar quando usa materiais criados por inteligência artificial. 

Aplicativos fotográficos que desnudam digitalmente mulheres, a possibilidade de criar "garotas de inteligência artificial (IA)" a partir de simples frases, e imagens manipuladas que alimentam a "extorsão sexual": o crescimento da pornografia ultrarrealista está superando os esforços dos Estados Unidos e da Europa para regulamentar a tecnologia.

As falsificações de fotos e vídeos cada vez mais realistas com base em IA, chamadas "deepfakes", normalmente estão associadas a personalidades conhecidas, como o papa Francisco vestindo um casaco acolchoado ou Donald Trump sob custódia, mas especialistas afirmam que seu uso está se disseminando para gerar pornografia não consensual que pode arruinar vidas comuns.

##RECOMENDA##

As mulheres são o principal alvo dessas ferramentas e aplicativos de IA, amplamente disponíveis gratuitamente e sem a necessidade de conhecimento técnico, que permitem aos usuários remover digitalmente as roupas de suas fotos ou inserir seus rostos em vídeos sexualmente explícitos.

"O aumento da pornografia gerada por IA e do 'deepfake porn' normaliza o uso da imagem de uma mulher sem seu consentimento", explica Sophie Maddocks, pesquisadora da Universidade da Pensilvânia que estuda abusos sexuais baseados em imagens.

"Que mensagem estamos enviando como sociedade sobre o consentimento quando qualquer mulher pode ser virtualmente despida?", comenta.

Em um vídeo dramático, uma streamer americana conhecida como QTCinderella lamentou a "exploração e objetificação constantes" das mulheres quando se tornou vítima do "pornô deepfake". Ela foi assediada por pessoas que enviavam cópias das manipulações em que ela aparecia.

O escândalo estourou em janeiro durante uma transmissão ao vivo do também streamer Brandon Ewing, que foi pego olhando um site contendo imagens sexuais falsas de várias mulheres, incluindo QTCinderella.

"Não é tão simples como 'só' ser violentada. É muito mais do que isso", escreveu a criadora de conteúdo no Twitter, agora chamado X, acrescentando que a experiência a "arruinou".

- "Garotas hiper-reais" -

A proliferação de deepfakes destaca a ameaça da desinformação habilitada por IA, que pode prejudicar a reputação e provocar intimidação ou assédio.

Embora celebridades como Taylor Swift e Emma Watson tenham sido vítimas de pornografia falsa, mulheres que não estão em destaque também são alvo desses ataques.

A mídia americana e europeia está repleta de depoimentos em primeira mão de mulheres, de acadêmicas a ativistas, surpreendidas ao descobrir seus rostos em vídeos pornográficos falsos.

Cerca de 96% dos vídeos deepfake online são pornografia não consensual, e a maioria deles apresenta mulheres, de acordo com um estudo de 2019 realizado pela empresa de IA Sensity.

A experiência do "ato de fantasia sexual, que costumava ser privado e ocorrer dentro da mente de alguém, agora está sendo transferida para a tecnologia e para os criadores de conteúdo no mundo real", disse Roberta Duffield, diretora de inteligência da Blackbird.AI.

- "Área obscura" -

Os avanços tecnológicos levaram a uma "indústria artesanal em expansão" em torno do pornô impulsionado pela IA, na qual muitos criadores de deepfakes aceitam pedidos pagos para gerar conteúdo com uma pessoa escolhida pelo cliente.

O FBI emitiu recentemente um alerta sobre "esquemas de sextorsão", nos quais golpistas capturam fotos e vídeos de redes sociais para criar material falso de "temática sexual" que é usado para chantagear o usuário afetado.

A proliferação de ferramentas de inteligência artificial superou a regulamentação.

"Isso não é uma área obscura da Internet onde essas imagens são criadas e compartilhadas", afirmou à AFP Dan Purcell, CEO e fundador da empresa de proteção de marcas de IA Ceartas. "Está bem na nossa frente. E sim, a lei precisa acompanhar", acrescentou.

Nos Estados Unidos, quatro estados, incluindo Califórnia e Virgínia, proibiram a distribuição de pornografia falsa, mas as vítimas geralmente têm poucos recursos legais se os perpetradores estiverem fora dessas jurisdições.

Em maio, um legislador dos EUA apresentou a Lei de Prevenção de Deepfakes de Imagens Íntimas, que tornaria ilegal compartilhar pornografia falsa sem consentimento.

Espaços online populares, como o fórum Reddit, também tentaram regular suas comunidades prósperas de pornografia com IA.

"A internet é uma jurisdição sem fronteiras e deve haver uma lei internacional unificada para proteger as pessoas contra essa forma de exploração", disse Purcell.

Google, Microsoft, Anthropic e OpenAI, quatro das empresas americanas que lideram o cenário da Inteligência Artificial (IA) de última geração, anunciaram nesta quarta-feira (26) a criação de um novo órgão profissional para combater os riscos associados a esta tecnologia.

O "Frontier Model Forum" terá a responsabilidade de promover o "desenvolvimento responsável" dos modelos de IA mais sofisticados e "minimizar os potenciais riscos", de acordo com um comunicado à imprensa.

##RECOMENDA##

Assim, os membros se comprometem a compartilhar boas práticas entre si e com legisladores, pesquisadores e associações, para que esses sistemas sejam menos perigosos.

A rápida implantação da IA generativa, por meio de plataformas como ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), está gerando preocupação entre autoridades e a sociedade civil.

A União Europeia (UE) está finalizando um projeto de regulação desta tecnologia que deve impor obrigações às empresas do setor, como transparência com os usuários ou controle humano sobre as máquinas.

Já nos Estados Unidos, as tensões políticas com o Congresso impedem qualquer esforço neste campo.

Esta é uma das razões pelas quais a Casa Branca pede que as partes interessadas garantam a segurança de seus produtos, em nome de seu "dever moral", afirmou a vice-presidente americana, Kamala Harris, no início de maio.

Na semana passada, o governo de Joe Biden garantiu os "compromissos" da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI para defender "três princípios" no desenvolvimento de IA: segurança, proteção e confiança.

Supõe-se que estas empresas devem testar seus programas antecipadamente, combater ataques cibernéticos e fraudes e encontrar maneiras de sinalizar que o conteúdo foi gerado por IA, para que seja claramente autenticado como tal.

Os dirigentes destas companhias também não negam os riscos.

Em junho, Sam Altman, diretor da OpenAI, e Demis Hassabis, presidente da DeepMind (Google), exortaram a luta contra "os riscos de extinção" da humanidade "ligada à IA".

Durante uma audiência no Congresso, Altman endossou a ideia cada vez mais popular de criar uma agência internacional encarregada da regulação da inteligência artificial, como as que existem em outros campos.

Enquanto isso, a OpenAI está trabalhando em uma IA chamada "geral", com habilidades cognitivas semelhantes às dos humanos.

Em uma publicação de 6 de julho, a empresa abordou que tem como foco os "modelos de fronteira" da IA, "modelos fundamentais altamente sofisticados que poderiam adquirir capacidades perigosas suficientes para oferecer sérios riscos à segurança pública".

A gigante americana ainda alerta que esses recursos perigosos podem "surgir inesperadamente" e que "é realmente difícil impedir que um modelo implantado seja mal utilizado".

Após a veiculação do comercial da Volkswagen que recriou a imagem e a voz da cantora Elis Regina, morta em 1982, por meio da inteligência artificial (IA), um projeto apresentado na Câmara dos Deputados tenta barrar a reprodução por computação gráfica de pessoas falecidas.

A proposta, de autoria da deputada Benedita da Silva (PT-RJ), foi apresentada nesta segunda-feira (24), e busca restringir a reprodução de pessoas mortas. De acordo com o texto, a recriação de falecidos somente poderia ser feita se o indivíduo sinalizasse no testamento a permissão de "volta" pela inteligência artificial. Outra mudança sugerida por Benedita é que os herdeiros não possam mais autorizar o uso da imagem e da voz de falecidos.

##RECOMENDA##

No caso do comercial da Kombi, o uso da imagem de Elis Regina teve o aval da família. No comercial, a imagem dela foi recriada digitalmente para dueto com a filha, a também cantora Maria Rita.

"Hoje, a inteligência artificial chegou a um patamar que demanda novas respostas legislativas de tal modo que o direito à personalidade das pessoas mortas seja preservado e que o potencial lesivo que possa advir dessa nova tecnologia seja mitigado", justifica a parlamentar no projeto de lei.

Para passar a valer, o projeto de lei precisa ser aprovado na Câmara e no Senado, e sancionado pelo presidente da República.

Elis dirigiu Kombi em comercial da Volkswagen

No início deste mês de julho, a montadora de automóveis Volkswagen lançou uma campanha publicitária onde Elis, morta em 1982, aos 36 anos, aparecia cantando com Maria Rita, que tinha apenas quatro anos quando a mãe faleceu.

A ação fez parte das atividades de comemoração dos 70 anos da montadora no Brasil e do retorno da Kombi depois de dez anos fora do mercado. A peça foi elaborada pela agência de publicidade AlmapBBDO. Para recriar a imagem e a voz de Elis, os publicitários utilizaram a técnica de deep fake, que realiza a sobreposição de voz e expressões. As ferramentas de inteligência artificial foram treinadas para o reconhecimento facial da cantora, e um dublê de corpo foi responsável por refazer os seus movimentos.

O projeto de lei de Benedita usa o comercial da montadora como justificativa para a criação da regulamentação, já que a cantora não foi perguntada se queria ou não ser modelo de uma propaganda da Volkswagen. "Hoje, o Código Civil é omisso quanto a essas questões. Como não há uma regra sobre o tema, os herdeiros podem autorizar o uso da tecnologia para reconstruir a imagem e a voz de seus ancestrais já falecidos", diz o texto.

Além da peça publicitária, a deputada também citou a recriação da voz do cantor Luiz Gonzaga, o "Rei do Baião", durante um show do cantor João Gomes, realizado no último dia 10. No festival "Arraial Estrelado", realizado em São Paulo, a inteligência artificial fez o astro falecido cantar um dos sucessos de Gomes.

"Surge daí alguns questionamentos relativos à vontade dessas pessoas, se estivessem vivas, de participar da campanha publicitária ou de cantarem determinada música. Essas pessoas desejariam ou não que sua imagem e voz fossem reconstruídas digitalmente para a geração de conteúdo novo após a sua morte", destaca a deputada na proposta.

As sete companhias líderes em inteligência artificial (IA) nos Estados Unidos concordaram voluntariamente em adotar salvaguardas para o desenvolvimento da nova tecnologia. O acordo foi anunciado nesta sexta-feira, 21, pelo governo dos Estados Unidos, que coordenou as negociações para formalizar o compromisso das empresas em adotar novos padrões de segurança, proteção e confiança para as suas ferramentas de IA.

São signatárias do acordo a Amazon, Anthropic, Alphabet (Google), Inflection, Meta, Microsoft e a OpenAI. De acordo com a Casa Branca, as empresas concordaram em respeitar mecanismos para garantir que os seus produtos sejam seguros antes de lançá-los ao público. "Se gerenciada adequadamente, a IA pode contribuir enormemente para a prosperidade, igualdade e segurança de todos", disse o governo dos EUA em comunicado.

##RECOMENDA##

Os saltos tecnológicos no campo da inteligência artificial têm gerado temores sobre a disseminação de desinformação à medida que os computadores "autoconscientes" evoluem. Por isso, as salvaguardas voluntárias são vistas apenas como um primeiro passo, enquanto a Casa Branca e outros governos ao redor do mundo correm para estabelecer marcos regulatórios e legais para o desenvolvimento da IA.

Por isso, o pacto anunciado ontem reflete a urgência da administração Joe Biden e dos legisladores americanos em responder à rápida evolução da tecnologia, enquanto os órgãos reguladores ainda se debatem sobre formas de maior controle das redes sociais.

Segurança

Pelo acordo anunciado ontem, as empresas se comprometeram a permitir que especialistas em segurança independentes testem seus sistemas antes de serem lançados, além de criar ferramentas para identificar os conteúdos que produzem por meio da IA, como marcas d'água, a fim de reduzir a desinformação.

"Esses testes protegem contra algumas das fontes mais significativas de riscos de IA, como a biossegurança e a segurança cibernética, bem como seus efeitos sociais mais amplos", disse a Casa Branca.

As empresas também se comprometeram a desenvolver e investir em segurança cibernética para proteger os dados dos usuários, a compartilhar dados sobre a segurança de seus sistemas com o governo e acadêmicos, e a facilitar a realização de auditorias externas em seus sistemas para aperfeiçoar os produtos e encontrar vulnerabilidades.

Elas também terão de relatar publicamente eventuais falhas e riscos em suas tecnologias, apontando riscos de segurança e sociais - como justiça e preconceito.

Várias das signatárias já haviam concordado publicamente com algumas ações semelhantes às do compromisso da Casa Branca. Antes de a OpenAI lançar amplamente seu sistema GPT-4, ela trouxe uma equipe de profissionais externos para exercícios, um processo conhecido como "redteaming". Da mesma forma, o Google já disse em um post que está desenvolvendo uma marca d'água, que empresas e formuladores de políticas afirmam ser uma forma de abordar as preocupações de que a IA poderia sobrecarregar a disseminação de desinformação.

Riscos

Os compromissos voluntários são uma maneira imediata de lidar com os riscos, antes de um esforço de longo prazo para fazer com que o Congresso americano aprove leis que regulem a tecnologia. Alguns defensores da regulamentação da IA disseram que a ação de Biden é um começo, mas é preciso fazer mais para responsabilizar as empresas e seus produtos. "A história indica que muitas empresas de tecnologia não cumprem o compromisso voluntário de agir com responsabilidade e apoiar regulamentações rígidas", disse um comunicado de James Steyer, fundador e CEO da organização sem fins lucrativos Common Sense Media. O líder da maioria no Senado, Chuck Schumer (Democrata), já disse que apresentará uma legislação para regular a IA.

"Este é um primeiro passo para garantir que limites sejam estabelecidos para a IA e que também cria um modelo para outros governos seguirem", disse o presidente para assuntos globais da Meta, Nick Glegg. (COM AGÊNCIAS INTERNACIONAIS)

As informações são do jornal O Estado de S. Paulo.

A Casa Branca afirmou nesta sexta-feira (21) que chegou a um acordo com grandes empresas de tecnologia para criar novas medidas de controle e fiscalização ao uso da inteligência artificial (IA). O anúncio vem após reunião do governo dos EUA com sete empresas líderes em IA: Amazon, Anthropic, Alphabet (Google), Inflection, Meta, Microsoft e OpenAI.

De acordo com nota da Casa Branca, as empresas concordaram em respeitar mecanismos para garantir que os produtos sejam seguros antes de apresentá-los ao público, além de criar ferramentas para identificar conteúdos produzidos por IA, como marcas d'água, e também desenvolver e investir em segurança cibernética para proteger dados dos cidadãos.

##RECOMENDA##

O texto afirma que as sete empresas também se comprometeram em facilitar a realização de auditorias externas em seus sistemas para aperfeiçoar os produtos e encontrar vulnerabilidades.

A LuzIA, sistema de Inteligência Artificial para WhatsApp e Telegram, chegou ao Brasil nessa quarta-feira (19). A ferramenta acumula mais de 4 milhões de usuários ativos em 40 países, e oferece interface simples e interativa aos adeptos, levando funcionalidades de IA para os aplicativos de conversa. O serviço é gratuito e pode ser ativado com uma mensagem simples, como um “Olá”, pelo telefone +55 11 97255-3036. 

A ferramenta está totalmente traduzida para português e tem o objetivo de ser uma porta de entrada descomplicada para os potenciais da inteligência artificial. Ao funcionar no WhatsApp e Telegram, LuzIA elimina a necessidade de cadastros ou downloads à parte e pode ser usada sem consumir pacotes de dados móveis nos planos que contemplam essa oferta. 

##RECOMENDA##

“Nós queremos levar o poder da inteligência artificial para todos, onde quer que estejam. Sabemos que o brasileiro ama tecnologia e o impacto transformador que ela tem em sua vida, e que o WhatsApp é uma ferramenta indispensável às pessoas por aqui. Por isso, trabalhamos para adaptar a LuzIA para o português e para que ela possa ser uma companhia para todas as horas e ajudar os brasileiros nas suas rotinas do dia a dia”, revela o criador e CEO da LuzIA, Álvaro Higes. 

Como a LuzIA funciona? 

O serviço de IA funciona como um canal que facilita o acesso a diferentes Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês), como ChatGPT, Whisper AI e Stable Diffusion. Dependendo do tipo de solicitação feita pela LuzIA, esse dado será enviado para a plataforma especializada em texto, áudio ou imagens. Em seguida, em questão de segundos, a resposta gerada por esse serviço terceiro chega até o usuário como uma mensagem no WhatsApp. 

No caso de áudios, por exemplo, os usuários podem encaminhar a mensagem nesse formato para a LuzIA e pedir que ela transcreva o conteúdo, faça um resumo da mensagem e até traduza a informação caso ela esteja em outro idioma. A ferramenta compreende mais de 80 idiomas. O primeiro contato pode ser realizado em português e posteriormente a conversa por continuar em outra língua, como alemão, francês e até japonês. 

A integração com WhatsApp garante que a mensagem enviada para a LuzIA seja criptografada, uma característica nativa do mensageiro. Na prática, a ferramenta envia o conteúdo da mensagem do usuário de forma cifrada para ferramentas como ChatGPT, Whisper AI e Stable Diffusion e também devolve a resposta nas mesmas configurações. 

"As mensagens se transformam em anônimas quando são enviadas para a plataforma. Nós não sabemos quem está enviado o que. Importante ressaltar que também não usamos essas informações, não vendemos para plataformas terceiras e precisamos seguir as regras de Compliance do ChatGPT", destaca Andrés. 

 

O Google está trabalhando com importantes meios de comunicação no desenho de uma ferramenta baseada em inteligência artificial (IA) para ajudar jornalistas a informar e redigir suas histórias, anunciou o gigante tecnológico nesta quinta-feira (20).

O jornal americano New York Times foi o primeiro a revelar este projeto, no qual colabora junto a Washington Post e Wall Street Journal nos testes do novo produto.

##RECOMENDA##

Citando fontes anônimas, a reportagem do jornal garante que a ferramenta, conhecida internamente como "Genesis", está em fase inicial de testes, mas é suficientemente avançada para que alguns executivos que testemunharam suas capacidades a considerassem "inquietante".

"Em associação com meios de comunicação, especialmente os menores, estamos nas primeiras etapas de exploração de ideias para potencialmente proporcionar ferramentas de IA que ajudem seus jornalistas com seu trabalho", adiantou uma porta-voz do Google em comunicado.

Ela ponderou que "estas ferramentas não pretendem, nem podem substituir o papel essencial que têm os jornalistas na hora de informar, criar e apurar suas histórias".

A ferramenta funcionaria como uma espécie de copiloto para repórteres e editores, oferecendo opções de manchetes e diferentes estilos de redação, segundo a companhia.

O anúncio do projeto do Google chega depois da notícia de um acordo entre a OpenAI e a Associated Press (AP) para que a empresa criadora do ChatGPT utilize os arquivos desta agência internacional de notícias datados desde 1985 para treinar a IA.

"O acordo prevê que a OpenAI terá a licença de parte do arquivo de texto da AP, enquanto a AP se aproveitará da tecnologia e da experiência em produtos da OpenAI", afirmaram ambas as organizações em um comunicado conjunto na semana passada.

O surgimento no ano passado do ChatGPT e de outras ferramentas de IA generativa, capazes de criar todo o tipo de texto e imagem a partir de uma simples pregunta, causou grande inquietação entre criadores de conteúdo, como artistas, escritores e jornalistas.

Vários processos foram abertos contra as empresas implicadas, entre elas a OpenAI.

Os profissionais as acusam de utilizar seus conteúdos sem consentimento e remuneração para alimentar seus programas de computador.

A Trybe, em parceria com o Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), está lançando seu primeiro curso de Inteligência Artificial. A escola de tecnologia oferece 5 mil vagas de forma gratuita, e quem se interessar pode se inscrever mesmo sem ter experiência na área de programação e ou conhecimentos avançados em tecnologia. Depois que as vagas forem preenchidas, as pessoas terão que desembolsar R$ 599,00 para participar.

O programa terá carga horária total de 4 horas e será totalmente online. O curso IA na prática tem o intuito de capacitar as pessoas para fundamentos da tecnologia, explorando o potencial de ferramentas como o ChatGPT e geração de imagens pela IA generativa.

##RECOMENDA##

Ainda haverá a participação do renomado Ronaldo Lemos, professor da Universidade de Columbia e fundador do ITS-Rio. Interessados podem se inscrever no link

Por Mateus Moura.

No último dia 4 de julho, a Volkswagen divulgou uma campanha para comemorar seus 70 anos, protagonizando a cantora Maria Rita e sua mãe, Elis Regina, que morreu em janeiro de 1982. A empresa responsável pela propaganda utilizou tecnologias avançadas de inteligência artificial para criar as imagens de Elis dirigindo um carro e cantando.  

Desde então, o público agitou as redes sociais comentando e levantando questões acerca do uso e da criação da imagem de uma artista que já morreu em uma campanha publicitária. O LeiaJá conversou com a professora de direito civil Luciana Garret, que explicou que existe “um vácuo legislativo sério relacionado à utilização de certos direitos da personalidade, como direito de imagem, o direito ao nome, pós-morte”. 

##RECOMENDA##

De acordo com a docente, sempre vai ser necessária a autorização dos herdeiros para a manipulação de imagens da pessoa falecida. No entanto, falta ainda, na legislação brasileira, a definição do prazo de obrigatoriedade para essa autorização. A discussão fica mais aprofundada quando pensamos ainda na vontade da pessoa, tendo em vista que ela não tem mais poder de escolha.

“Quando você vai ver, por exemplo, eles fazerem a imagem da pessoa e aquela pessoa nunca gravou aquilo, e aí começa a discussão. Eu estou utilizando Inteligência Artificial para recriar aquela pessoa, a imagem dela, em uma obra nova, e eu não tive aquela pessoa lá atrás sequer imaginando que algo assim poderia acontecer. Então não tem como ter, por exemplo, uma vontade daquela pessoa lá atrás”, analisa Garret.

Em relação à jurisprudência, a advogada afirma que ainda faltam parâmetros legislativos. “É mais uma construção jurisprudencial que a gente vai ter relacionado à questão da utilização de direito de imagem e ainda tem pra ser construído até a nível jurisprudencial de entendimento mesmo, dos tribunais e por aí vai, com relação a essa recriação de um vídeo, de eu produzir esse vídeo através de inteligência artificial”, esclarece.

A professora avalia que a problemática do uso de imagem vai além da prática, já que as tecnologias avançam mais rápido do que os países conseguem criar dispositivos de regulamentação. “No caso, quando você vai olhar para as discussões hoje, especialmente, as que estão no legislativo, você vai ter ainda discussão sobre regulamentação de rede social. A gente já está num passo [à frente], em questões que vão até além do direito patrimonial”, reitera. 

Questões éticas

A professora observa que é grande o desafio para compreender os limites da ética no uso de inteligência artificial. “A gente tem agora um desafio pra apreciar, pra discutir, pra refletir, pra pensar em parâmetros, em limites até em questões éticas porque imagine que a pessoa dizia ‘X’, e aí de repente eu pego hoje a imagem dela dizendo ‘não X’”, pondera. 

“Os entendimentos são diversos, e todos eles são válidos e precisam ser discutidos, até pra que se possa concluir qual seria talvez a linha mais adequada diante da utilização”, finaliza.

O relatório Inteligência Artificial e Empregos, divulgado nesta terça-feira (11) pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE), aponta que 27% dos empregos dos países da OCDE são de profissões com alto risco de automatização pela inteligência artificial.

No documento, a organização defende que os países precisam agir agora com políticas que lidem com os riscos da inteligência artificial para o mercado de trabalho. "Os governos precisam garantir que a IA sirva para criar mercados de trabalho inclusivos, em vez de prejudicá-los", diz o relatório.

##RECOMENDA##

Para a Organização, os países estão "à beira de uma revolução da inteligência artificial" no mercado de trabalho e é preciso coletar melhores dados sobre o uso da tecnologia para entender quais empregos mudarão, quais serão criados ou desaparecerão e como as habilidades necessárias estão mudando.

A OCDE recomenda que países invistam em treinamento para trabalhadores menos qualificados e para os mais velhos e encorajem empregadores a instruírem seus funcionários sobre habilidades necessárias para a tecnologia. A organização também afirma priorizar a integração da IA à educação.

Já usado para melhorar a nitidez de fotos, o aplicativo Remini lançou uma ferramenta com uso da inteligência artificial capaz de simular como as usuárias ficariam grávidas e como seriam seus filhos. Famosas aderiram à experiência e publicaram o resultado em seus perfis. 

Mesmo já sendo mães, Virginia Fonseca e Maíra Cardi ficaram curiosas para saber como podem ser seus futuros filhos. "Maria Antônia ou José Leonardo?!", brincou Virginia ao postar a foto do bebê com seus traços.

##RECOMENDA##

                                                            O rosto do bebê desenvolvido com as expressões de Virginia Fonseca Foto: Reprodução

Maíra indicou que a filha Sophia pode ganhar uma irmãzinha e marcou o atual namorado Thiago Nigro. "O que achou da nossa possível bonequinha?", perguntou na publicação.

Na espera do primeiro filho com Dynho Alves, Mc Mirella também usou o aplicativo para ver sua versão mamãe e ter uma ideia de como será o rosto de Serena. "Vocês estão preparados pra esse momento?", escreveu na postagem.

Para criar as imagens, o app pede que o usuário adicione fotos com expressões e posições diferentes. Depois é só esperar 10 minutos para que a IA começa a enviar as primeiras fotos.

O Instituto de Informática e Temática do Conselho Nacional de Pesquisa (Cnr-Iit) da Itália desenvolveu uma metodologia baseada em um novo algoritmo de inteligência artificial (IA) capaz de prever a recorrência do câncer de próstata.

O estudo foi publicado na revista Scientific Reports e explica como a IA é capaz de prever, com alta precisão e melhor do que os métodos atuais, se e quando o tumor irá recorrer após a remoção cirúrgica da próstata.

##RECOMENDA##

Desta forma, a pesquisa pode orientar melhor as decisões clínicas sobre o tratamento a seguir e também abre a possibilidade de personalizar a terapia, aumentando as chances de sobrevivência.

O câncer de próstata é o quarto tipo de câncer mais diagnosticado no mundo e teve aproximadamente 1,4 milhão de casos registrados globalmente no ano passado. Em 2025, são esperados 363 mil novos diagnósticos e 78 mil mortes por esta doença na Europa.

Após a remoção cirúrgica da próstata, cerca de 15% dos pacientes submetidos à cirurgia são classificados como de alto risco de recorrência, exigindo monitoramento rigoroso, mas a taxa de reincidência do câncer varia muito de paciente para paciente.

O especialista Marco Pellegrini, do Iit-Cnr, utilizou um banco de dados de sequências genéticas obtidas a partir de biópsias de 1.240 pacientes, o que lhe permitiu desenvolver um algoritmo capaz de prever com alta precisão o ano de início da recidiva.

"Trata-se de uma melhoria e um refinamento em relação aos resultados obtidos em 2021 que diziam respeito à previsão da sobrevivência de doentes com câncer de mama", explicou Pellegrini.

A previsão é de que um sistema de diagnóstico baseado neste algoritmo seja desenvolvido dentro do projeto "Tuscany Health Ecosystem", financiado pelo Plano Nacional de Retomada e Resiliência (PNRR), nos próximos três anos.

Da Ansa

O desenvolvimento de apostas em torno do setor de inteligência artificial (IA) após o advento do ChatGPT levou a Nasdaq, bolsa que concentra os grandes nomes da tecnologia, ao melhor desempenho semestral divulgado nesta terça-feira (11) - resultado positivo desde a década de 1980. No primeiro semestre, o Nasdaq acumulou ganhos de 32%, no melhor resultado em 40 anos.

O tamanho do resultado permitiu à Nvidia, fabricante de chips para a IA e jogos, entrar para o seleto grupo de companhias que valem US$1 trilhão (R$4,8 trilhões) e ganhar força para a corrida que este setor deve vivenciar na próxima década, e que tem competidores de peso como Microsoft, Google e Samsung, entre outros. A expectativa em Wall Street é de que o momento de alta no setor de tecnologia deve não apenas continuar, mas ficar ainda mais forte nos próximos meses, devido às expectativas em torno da revolução que a IA pode causar. “O ChatGPT e a IA levarão a uma revolução de produtividade, apoiando os lucros da empresa agora e no futuro”, projetou no site o diretor de investimentos do UBS Wealth Management, Mark Haefele - braço que administra grandes fortunas do banco suíço.

##RECOMENDA##

O índice que reúne as maiores empresas listadas dos EUA, S & P 500, também foi contaminado pelo efeito ChatGPT e a IA Generativa. O índice acumulou ganhos de 15,9% no primeiro trimestre, o melhor desempenho para o período desde 2019. Sem o furor da inteligência artificial, tal desempenho cairia para um dígito, segundo cálculos de operadores em Wall Street. Apesar do temor quanto aos efeitos no mercado de trabalho, entre outras dúvidas, a leitura é de que a IA é uma tecnologia transformadora e com potencial de monetização em diferentes segmentos. Com relação aos riscos desses resultados, o Wall Street Journal revelou que o presidente Joe Biden considera impor novas restrições às exportações de chips de IA para a China em resposta à última ofensiva do país asiático na guerra dos semicondutores.

Microsoft 

Em Wall Street, o nome é visto como o mais bem posicionado para triunfar como o desenvolvimento da IA é o da gigante Microsoft. No ano, suas ações acumulam ganhos de mais de 40% na Nasdaq, garantindo com folga o segundo lugar em maior valor de mercado, com US$2,5 trilhões, atrás somente da Apple, que cruzou a fronteira dos US$3 trilhões. A empresa é a principal escolha do banco americano entre empresas de grande capitalização no segmento de software e elevou o preço-alvo de US$335 para US$415. Atualmente, as ações da Microsoft são negociadas em torno de US$340, o que abre um potencial de mais de 20% de alta no próximo ano.

Próxima Nvidia 

O salto da fabricante desencadeou uma busca desenfreada por investidores, analistas e operadores para a “Próxima Nvidia”. Estimativas do braço de grandes fortunas do UBS sugerem que o mercado de IA Generativa dará um salto de menos de US$1 bilhão para US$3 bilhões nos próximos três anos. Depois de lamentar nas redes por não ter entrado nas ações da empresa antes, o time de tech do Itaú BBA dedicou os últimos meses a estudar o setor de IA. Segundo eles, quem colhe os primeiros louros sempre que uma nova tecnologia se torna popular geralmente está no nível da infraestrutura, caso de fabricantes de semicondutores e hardware.

Pesadelo, ou realidade, a Inteligência Artificial (IA) avança a grandes passos, mas muitos assuntos se encontram ainda sem resposta, advertiu a ONU na abertura, nesta quinta-feira (6), de uma conferência de dois dias, da qual participam robôs humanoides.

Muitos participantes ficaram surpresos com o realismo dos robôs humanoides percorrendo os corredores dessa "cúpula mundial sobre IA a serviço do bem social", organizada pela União Internacional de Telecomunicações (UIT), uma agência da ONU.

##RECOMENDA##

No momento em que a pesquisa em IA, em particular a generativa, encontra-se em pleno auge, as Nações Unidas pedem que se crie regras e limites para que essas tecnologias beneficiem a humanidade sem colocá-la em perigo.

"Quando a IA generativa chegou ao mundo há alguns meses, nunca vimos algo assim. Até mesmo os maiores nomes da tecnologia consideraram a experiência impressionante", afirmou a secretária-geral da UIT, Doreen Bogdan-Martin, na cúpula, referindo-se à chegada do programa ChatGPT.

"A possibilidade de que essa forma de inteligência possa se tornar mais inteligente do que nós está se aproximando", disse ela, acrescentando que isso surpreendeu todo o mundo, incluindo os criadores dessas tecnologias.

Em reação, centenas de universitários, empresários e personalidades pediram uma moratória de seis meses para o desenvolvimento dos sistemas de IA mais poderosos, citando "maiores riscos para a humanidade".

Em Genebra, a ONU reuniu nesta semana mais de 3.000 especialistas, líderes e representantes de empresas para discutir a necessidade de elaborar regras que garantam que a IA seja usada para fins positivos para a humanidade, como a luta contra a fome, ou o desenvolvimento sustentável.

Sem isso, a IA pode nos fazer viver um verdadeiro pesadelo, segundo Bogdan-Martin, que descreve um mundo com milhões de empregos em perigo e um aumento da desinformação, "conflitos sociais, instabilidade geopolítica e disparidades econômicas de uma magnitude que nunca vimos antes".

"Muitas das perguntas que temos sobre a IA ainda não têm resposta. Devemos fazer uma pausa nas experiências mais poderosas? Controlaremos a IA mais do que ela pode nos controlar? E a IA ajudará a humanidade?", questionou.

Os robôs humanoides reunidos em Genebra não responderam a essas perguntas, mas talvez o façam na sexta-feira, em uma coletiva de imprensa inédita da qual nove deles participarão.

Humanoides ou não, os robôs invadiram a cúpula.

Cantores, assistentes em casas de repouso, artistas... às vezes é difícil identificá-los a poucos metros de distância.

Um novo projeto digital apresentado em Milão na última segunda-feira (3) explora a vida, obra e legado do gênio italiano Leonardo Da Vinci (1452-1519) e disponibiliza online pela primeira vez mais de 1,3 mil páginas de seus "Códigos".

Batizada de "Inside a Genius Mind", a retrospectiva está disponível no Google Arts & Culture e tem curadoria de especialistas de oito países.

##RECOMENDA##

Ao todo, a iniciativa reúne mais de 80 histórias selecionadas por 28 parceiros em toda a Europa e Estados Unidos, incluindo a British Library em Londres; a National Gallery em Washington; o Castelo Sforzesco; o Museu Nacional de Ciência e Tecnologia Leonardo da Vinci; e a Pinacoteca Ambrosiana de Milão.

O hub digital inclui histórias sobre a vida do gênio renascentista e suas invenções que podem ser vistas em 3D, bem como suas obras-primas pictóricas.

A plataforma também conta com a ajuda da inteligência artificial (IA) e do trabalho do professor Martin Kemp para mergulhar nos mistérios dos manuscritos de Leonardo Da Vinci.

Além das obras de arte, pintadas em tela e nas paredes, o projeto reúne online, em um único lugar e pela primeira vez, os chamados Códigos dispersos do artista italiano: uma vasta série de notas científicas e esboços que captam sua incursão matemática, geometria, física, óptica, astronomia, arquitetura e até voo.

O Codice Trivulziano, por exemplo, guardado no Castelo Sforzesco de Milão, é um pequeno caderno no qual Da Vinci fez vários desenhos durante sua primeira passagem por Milão, incluindo esboços arquitetônicos para o Duomo de Milão e estudos fisionômicos.

A sucessão de todas as páginas traça um relato artístico e pessoal de Da Vinci, desde seus primórdios florentinos até o processo criativo de suas obras mais conhecidas - a Batalha de Anghiari e a Virgem das Rochas - e aquelas que nunca fez - os monumentos equestres Sforza e Trivulzio e a estátua de Ercole para a Piazza della Signoria - para terminar com a solidão serena de sua velhice e o rosto mais famoso e icônico de toda a sua produção, seu autorretrato.

O projeto também oferece novas formas de interagir com o Código Leonardo: graças à IA, a seção "Da Vinci Stickies" permite aos usuários unir os desenhos de Leonardo dando vida a novas ideias e criações. 

Da Ansa

A Valve, dona da Steam, afirmou que os proprietários não poderão mais publicar jogos que usem artes geradas por inteligência artificial (IA). Segundo a empresa, a proibição será aplicada para trabalhos na plataforma que infringem direitos autorais. 

Com a mudança dos termos de uso aplicada para os estúdios, editoras e desenvolvedores que desejam publicar seus jogos na plataforma, a Steam fiscalizará novos títulos recebidos que usem "ativos de arte" gerados por IA. A regra também valerá para aqueles que não consigam provar que possuem os direitos ou a autoria.

##RECOMENDA##

  Vale ressaltar que, o surgimento das possibilidades gráficas através de recursos da inteligência artificial vem impulsionando as discussões sobre direitos autorais e a aplicabilidade das leis de fiscalização. 

A prática dessa tecnologia já vem movimentando processos na Justiça devido o uso de código de fonte aberta não creditado e violação de obras de arte protegidas por direitos autorais. Sendo assim, a empresa acredita que políticas que evitem casos judiciais sejam adotadas. 

Um estudo realizado pela plataforma Onlinecurrículo, com 700 brasileiros, sobre o avanço da inteligência artificial (IA) e o futuro das profissões, mostra que sete a cada dez pessoas, o equivalente a 75% dos entrevistados, esperam que algum tipo de profissão seja substituída por IA.

A pesquisa revelou que 16,8% não acreditam que essa substituição do trabalhador pela máquina pode acontecer, enquanto 47,3% acreditam que essa mudança será em apenas algumas profissões. Já 27,8% dos entrevistados defendem que a mudança será para várias áreas.

##RECOMENDA##

“Sempre que uma nova tecnologia emerge no cenário mundial, é natural questionar seus efeitos no mundo do trabalho. Aconteceu a mesma coisa quando a internet chegou ao grande público, algumas décadas atrás”, explicou Amanda Augustine, especialista em carreiras da plataforma, segundo informações da assessoria de imprensa.

Os participantes também responderam quais as profissões mais prováveis de serem substituídas. Advogados, jornalistas, médicos e engenheiros tiveram menos de 10% das respostas, aparecendo como profissões menos ameaçadas pela inteligência artificial no momento.

Para a maioria das pessoas, o equivalente a 69%, a inteligência artificial irá afetar mais o trabalho de operadores de telemarketing. A profissão de caixa de supermercado e atendente de call center também foi bastante levantada, por 68% e 65% das pessoas, especificamente.

“É verdade que a IA tem capacidade de assumir algumas atividades, embora essa escala não seja tão definida no cenário atual. Talvez seja melhor pensar em como a tecnologia disponível tem condições de fazer com que as diversas profissões se aperfeiçoem”, defendeu Amanda.

No pensamento de ter a IA como aliada e não como ameaça, a plataforma também procurou saber o que os entrevistados gostariam de ter como suporte ou ajuda para melhorar seu desempenho no trabalho. Cerca de 41% das pessoas optaram por uma ferramenta que simplifica as tarefas para aumentar a produtividade.

Já 30% das pessoas responderam que gostariam de ter dispositivos à mão para resolver problemas diários do trabalho. Uma outra parcela, 39%, optou por dispositivos que ajudem a criar conteúdos de qualidade, como textos, por exemplo.

“Se a adoção da Inteligência Artificial resolver necessidades como essas, presentes nas empresas e na vida dos profissionais, então ela terá menos esse papel de substituição e mais de colaboração”, declara a especialista da Onlinecurrículo.

A plataforma Onlinecurrículo ouviu 700 pessoas de diferentes segmentos produtivos, diferentes faixas etárias, classes sociais e regiões do país. A pesquisa aconteceu entre os dias 14 e 21 de junho deste ano. A margem de erro da pesquisa é de 3.7 pontos percentuais.

O uso de tecnologias avançadas tem sido uma prática cada vez mais comum no dia-a-dia de milhares de pessoas. Além do abrangente acesso à internet e smartphones, as pessoas têm adotado outras ferramentas tecnológicas, como assistentes virtuais, inteligência artificial (IA), realidade virtual, entre outros mecanismos que, até alguns atrás, só eram vistos em filmes de ficção científica.

Mas afinal, até onde vão os limites para essas novas tecnologias? O que vem sendo discutido pelo judiciário brasileiro acerca do uso da IA pelo poder público, empresas e pessoa física? Como se proteger de uma exposição que pode sair do controle, como a utilização de técnicas como o deepfake? Para entender um pouco mais sobre o assunto, o LeiaJá conversou com a advogada especializada em direito digital, Natassia Mendes.

##RECOMENDA##

De acordo com a magistrada, “o judiciário tem acompanhado as mudanças tecnológicas, e tem utilizado em alguns casos as IA’s como ferramenta”. É o caso, por exemplo, do projeto de lei (PL) 2338/23, que tramita no Senado desde o mês de maio, que dispõe sobre o uso da IA. De acordo com o texto inicial, o objetivo principal é “proteger direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico”.

O PL 2338/23, surgiu da aprovação do PL 21/20 na Câmara dos Deputados, o Marco Legal da IA. Ambos os textos buscam levantar o entendimento que a tecnologia pode trazer para a população, levando em consideração o respeito à pessoa humana, os limites da democracia e a proteção constitucional. Por ser ainda bastante recente no Senado, o PL 2338 deverá passar por uma longa tramitação até a sua possível aprovação.

Dados

No entanto, se engana quem pensa que o marco legal da IA seria o primeiro texto pensado para certas tecnologias. Em 2018 foi sancionada a Lei Geral de Proteção de Dados (LGPD), que também criou a Autoridade Nacional de Proteção de Dados (ANPD). Tanto o órgão quanto a lei foram desenvolvidas para regular o uso de informações pessoais, para proteger a população de possíveis violações à imagem e à integridade de cada indivíduo.

“Quando falamos de coletas de dados, a LGPD está lá norteando. Caso haja algum vazamento ou coleta indevida, o titular pode sim ingressar com ação, bem como a ANPD pode aplicar as multas previstas na LGPD. Importante ressaltar que no presente momento, um assistente como a Alexa não é sujeito de direitos e deveres para o ordenamento brasileiro, ou seja, ela não poderia, por exemplo, testemunhar em juízo”, explica a advogada.

Inteligência artificial no dia a dia

Quando pensamos em IA, muitas pessoas ainda podem associar a robôs humanóides que têm sentimentos, como foram representados no cinema dos anos 90-2000. Os títulos mais conhecidos são “O homem Bicentenário” (1999) e “AI - Inteligência Artificial” (2001). Por mais futuristas que tenham sido as ideias projetadas nos longas, ainda podemos estar distantes dessa realidade. 

Por outro lado, temos lidado com interações diferentes com as novas tecnologias, como a manipulação da imagem e da voz de uma pessoa, criando um cenário em que ela tenha dito ou feito algo, sem isso ser verdade. Esses efeitos são chamados de deepfake ou deepnude. Para Natassia Mendes, a reflexão a ser feita entra no âmbito do que é de fato útil. “Os deepnudes, por exemplo, são uma situação que põe em xeque se as IA’s podem melhorar ou piorar a humanidade”, ela comenta

Para se proteger com mais segurança, a advogada dá algumas dicas sobre o assunto: “evitar ao máximo postar informações pessoais, principalmente em redes sociais. E um cuidado maior com informações a respeito de menores (filhos, enteados irmãos, enfim). Um exemplo disto é não postar fotos deles em ambientes escolares ou até mesmo usando uniforme da escola”, finaliza.

Páginas

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando