Tópicos | Inteligência Artificial

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

##RECOMENDA##

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

No último dia 15 de junho, a Netflix lançou a nova temporada de Black Mirror, um dos maiores sucessos da plataforma de streaming desde a sua criação. Líder em audiência em diversos países, incluindo o Brasil, a obra costuma propor distopias que mesclam discussões atuais sobre a internet, a inteligência artificial, o uso das redes sociais e outros assuntos voltados à tecnologia. O episódio piloto da nova temporada, “A Joan É Péssima”, estrela a veterana Salma Hayek e a atriz canadense Annie Murphy, ambas interpretando versões diferentes de Joan, que é a protagonista. 

O que deixou muitos fãs surpresos é que o primeiro episódio ironiza a própria Netflix, com uma paródia do streaming chamada “Streamberry”, site com termos de privacidade e direitos abusivos, e que originam a trama por trás da perda dos direitos de Joan sobre a própria imagem. Através de uma tecnologia de inteligência artificial chamada “Deepfake”, Joan tem sua vida exposta em uma série de cronologia em tempo real, lançada no Streamberry e com atualizações cotidianas. 

##RECOMENDA##

Entenda “A Joan É Péssima”, episódio 1 (contém spoilers) 

“A Joan É Péssima” (“Joan Is Awful”, em inglês) é estrelado pela atriz de Schitt's Creek, Annie Murphy, como Joan, uma CEO de tecnologia. De uma só vez, a série contextualiza momentos tensos do cotidiano de Joan: a empresária demitindo de forma nada legal um funcionário (interpretado por Ayo Edebiri, do The Bear), conversando com seu terapeuta sobre não gostar da culinária do seu noivo Krish (Ani Nash) e beijando seu ex-namorado Mac (Rob Delaney) em um momento de fraqueza. 

No final do dia, ela se senta para assistir Streamberry, um substituto da Netflix, e dá de cara com um novo programa chamado “A Joan É Péssima”. Curiosos, ela e Krish assistem ao primeiro episódio que acaba por ser uma dramatização do seu dia, com Joan interpretada por Salma Hayek. No final do episódio, a "Joan" de Hayek liga Streamberry para encontrar Cate Blanchett. 

A forma como ela é retratada imediatamente custa a Joan seu emprego e seu relacionamento. Depois de falar com seu advogado sobre a série invasiva, Joan é informada de que ela renunciou a seus direitos quando concordou com os termos e condições de Streamberry. O show é feito usando inteligência artificial, imagens e tecnologia deepfake, que captam informações do microfone de seu celular. 

Isso significa que a própria Salma Hayek não está envolvida na produção, tendo simplesmente permitido que Streamberry usasse sua imagem. Em uma tentativa de pressionar Hayek a encerrar o show, Joan defeca em uma igreja, para chamar atenção e intimidar Salma, que a interpretaria mais tarde na série, repetindo o mesmo ato. As duas, por fim, unem forças para derrubar o computador quântico da empresa que cria o conteúdo. 

Mas afinal, o que é deepfake? 

Deepfakes (em tradução livre, significa “profundamente falso”) são vídeos artificiais criados por computador nos quais as imagens são combinadas para criar novas imagens que retratam eventos, declarações ou ações que nunca aconteceram. Os resultados podem ser bastante convincentes. Deepfakes diferem de outras formas de informações falsas por serem muito difíceis de identificar como falsas. 

Essa tecnologia surge do trabalho do machine-learning (“aprendizado mecânico”),  subconjunto da inteligência artificial (IA) que se concentra na construção de sistemas que aprendem ou melhoram o desempenho de algo, com base nos dados que consomem. O algoritmo é alimentado com exemplos e aprende a produzir uma saída semelhante aos exemplos dos quais aprendeu. 

O aprendizado profundo (“deep’) é um tipo especial de aprendizado artificial que envolve “camadas ocultas”. Normalmente, o aprendizado profundo é executado por uma classe especial de algoritmo chamada rede neural, projetada para replicar a maneira como o cérebro humano aprende as informações. Uma camada oculta é uma série de nós dentro da rede que realiza transformações matemáticas para converter sinais de entrada em sinais de saída (no caso de deepfakes, para converter imagens reais em imagens falsas de qualidade) 

Quanto mais camadas ocultas uma rede neural tiver, mais “profunda” será a rede. As redes neurais, e particularmente as redes neurais recursivas (RNNs), são conhecidas por terem um desempenho muito bom em tarefas de reconhecimento de imagem. 

O processo de produção de deepfakes complexos envolve, na verdade, dois algoritmos. Um algoritmo é treinado para produzir as melhores réplicas falsas possíveis de imagens reais. O outro modelo é treinado para detectar quando uma imagem é falsa e quando não é. Os dois modelos se repetem, cada um melhorando em suas respectivas tarefas. Ao colocar modelos uns contra os outros, você acaba com um modelo que é extremamente hábil em produzir imagens falsas; tão adepto, de fato, que os humanos muitas vezes não conseguem dizer que o resultado é falso. 

E qual o problema nisso? 

A grande maioria das pessoas, atualmente, obtém suas informações e formula opiniões com base no conteúdo da internet. Portanto, qualquer pessoa com a capacidade de criar deepfakes pode divulgar desinformação e influenciar as massas a se comportarem de uma maneira que avance a agenda pessoal do falsificador de alguma forma. A desinformação baseada em deepfake pode causar estragos em escala micro e macro. 

Em pequena escala, os deepfakers podem, por exemplo, criar vídeos personalizados que parecem mostrar um parente pedindo uma grande quantia em dinheiro para ajudá-los a sair de uma emergência e enviá-los a vítimas inocentes, enganando internautas em um nível sem precedentes. 

Em larga escala, vídeos falsos de importantes líderes mundiais fazendo afirmações falsas podem incitar a violência e até mesmo a guerra, influenciar eleitores e grupos políticos. 

O que pode ser feito? 

A tecnologia ainda não se tornou o maior problema da internet, mas provavelmente aumentará em prevalência e qualidade nos próximos anos. Isso não significa que você não pode confiar em nenhuma imagem ou vídeo, mas deve começar a treinar para ficar mais atento a imagens e vídeos falsos, especialmente quando os vídeos pedem que você envie dinheiro ou informações pessoais ou que façam reivindicações fora do comum. 

Curiosamente, a inteligência artificial pode ser a resposta para detectar deepfakes. Os modelos podem ser treinados para reconhecer imagens falsas em dimensões que o olho humano não consegue detectar. 

 

Antes que a sanção dos EUA sobre as vendas para a China entre em vigor em setembro, empresas chinesas correram para adquirir as Unidades de Processamentos Gráficos (GPUs) da Nvidia e a rede social como um recurso alternativo 

 A proibição dos Estados Unidos de que marcas locais como a Nvidia vendam para a China já causou efeito. Antes que entre em vigor em setembro, as empresas chinesas correram para adquirir as Unidades de Processamentos Gráficos (GPUs) da Nvidia. Como recurso alternativo, o TikTok gastou US$1 bilhão em chips de alto desempenho para IA. Além da Byte DanceTencent, Baidu e Alibaba também correram atrás dos produtos da computação de alto desempenho da Nvidia.  

##RECOMENDA##

A dona do TikTok, Byte Dance, já gastou o que todo o mercado chinês consumiu da Nvidia no ano passado. Todo o dinheiro gasto pela Byte Dance equivale a 100 mil unidades de chips da Nvidia, com cada um custando cerca de US$10 mil. O valor pago equivale ao que todo o mercado chinês consumiu da mesma marca em 2022. As quantidades compradas pelas gigantes de tecnologia da China são grandes que nem a cadeia de distribuidores do país consegue dar conta. Os dados foram divulgados pela publicação chinesa Jitwei 

Essa corrida comercial ocorre porque o governo dos Estados Unidos determinou que a Nvidia parasse de vender os HCP para a China. A fabricante, por sua vez, reclamou das sanções, pois poderia perder US$400 milhões anualmente e prejudicar o desenvolvimento do chip H100. As companhias orientais buscam um espaço no mercado de inteligência artificial, que deve levar US$4,4 trilhões de dólares à economia global. Há ainda questões políticas, incluindo não ficar atrás do mercado ocidental.

 

O polêmico proprietário da Tesla e SpaceX, Elon Musk, afirmou, nesta sexta-feira (16), que quer realizar implantes neurais em um ser humano ainda este ano, em uma apresentação diante de aproximadamente 3.600 admiradores no grande salão europeu de tecnologia em Paris.

Durante sua conferência de duas horas no salão VivaTech, o multimilionário mostrou sua imagem de visionário sem complexos e deu conselhos para que empresários de startups e aspirantes a empresários fascinados com ele tenham sucesso.

##RECOMENDA##

Em contrapartida, após uma reunião com o presidente francês, Emmanuel Macron, Musk não comentou sobre a possível instalação de uma fábrica da Tesla na França, apesar de ter prometido, em meados de maio, que sua empresa faria "investimentos significativos" na França.

Mas a promessa não se concretizou e a Tesla poderá acabar indo para a Espanha, quase quatro anos depois de ter eleito Berlim para receber a primeira fábrica da marca na Europa.

Durante sua palestra, Musk anunciou que quer ver ainda em 2023 um ser humano com implantes neurais de sua empresa Neuralink, que acaba de obter autorização para realizar testes nos Estados Unidos.

"Mais adiante, ainda neste ano, faremos nosso primeiro implante de um microchip em um humano para alguém que tem uma forma de tetraplegia", revelou.

O objetivo desses microchips é que cérebros e computadores se comuniquem diretamente para ajudar as pessoas com deficiência física ou que sofrem com doenças neurológicas.

Durante sua apresentação, diante de uma plateia inflamada, Musk também defendeu um Twitter livre de qualquer censura e avaliou que a inteligência artificial poderia desencadear um "apocalipse" para a humanidade.

"Se um apocalipse desencadeado pela inteligência artificial nos atingir, acredito que gostaria de estar vivo durante esse momento".

Na segunda-feira, Musk viajou à Roma para se reunir com a primeira-ministra da Itália, Giorgia Meloni, com quem falou sobre alguns "temas cruciais" como os "riscos da Inteligência Artificial" e sobre "natalidade", segundo a dirigente.

- "Otimista" com o Twitter -

Desde que assumiu as rédeas do Twitter, Musk demitiu boa parte dos funcionários, revelou os acordos da rede social com o governo americano para censurar mensagens polêmicas e restabeleceu a conta do ex-presidente Donald Trump.

"Estou otimista em relação ao futuro" do Twitter, explicou Musk nesta sexta-feira.

A rede social conseguiu excluir 90% das contas falsas e das fraudes, além de 95% do conteúdo sexual com menores, uma das maiores críticas contra a direção anterior, assegurou.

"Praticamente todas as marcas publicitárias retornaram ou disseram que vão retornar", afirmou.

"Meu conselho claro é que se regule rigorosamente a IA", afirmou o excêntrico magnata ante aos espectadores, sem dar mais detalhes.

Musk foi um dos fundadores da OpenAI, a empresa que desenvolveu o 'chatbot' ChatGPT, uma das ferramentas de IA que mais despertou polêmica e fascinação.

- Figura polêmica -

Provocador e libertário, o proprietário da Tesla, SpaceX e acionista majoritário do Twitter se encontra em meio a uma disputa com a União Europeia (UE) sobre a regulamentação da rede social.

O bloco comunitário, incluindo a França, critica o empresário por sua recusa em frear a desinformação.

No final de 2022, o comissário europeu Thierry Breton instou o bilionário a controlar os conteúdos, acatando a lei de serviços digitais da UE, sob a ameaça de uma multa equivalente a 6% da receita da empresa.

No final de maio, Musk irritou ainda mais os ânimos ao retirar o Twitter do código de boas práticas da UE contra a desinformação. O ministro francês do setor, Jean-Noël Barrot, ameaçou "proibir" a plataforma.

"Elon Musk é a pessoa mais inovadora do mundo! Para nós, é uma fonte de inspiração, alguém que não tem limites e que acredita em seus sonhos e projetos", declarou à AFP Tassadit Quivy, de 36 anos, cofundadora da start-up YOO Soft, com sede em Montpellier.

A plataforma de inteligência artificial (IA) ChatGPT tem sido bastante comentada pela sua resposta veloz e completa. O chatbot possui uma tecnologia de observar e aprender padrões em um vasto banco de dados disponível na internet.

Segundo a OpenAI, empresa responsável pelo ChatGPT, a ferramenta consegue reproduzir várias tarefas e possui um rendimento semelhante ao de um humano. Essa evolução tecnológica está cada vez mais acessível, basta o usuário fazer seu cadastro e se conectar com o ChatGPT.

##RECOMENDA##

Apesar do rápido acesso e entrega de informações, nem sempre a inteligência artificial pode dar a resposta específica para um pedido, em especial nos estudos. A professora de direito Natássia Mendes Gonçalves alerta os estudantes que utilizam o chatbot como forma de estudar.

A docente explica que o ChatGPT, apesar de ser benéfico até certo ponto, ele possui algumas limitações. Um exemplo delas é a validade dos dados, pois o Chat GPT só tem acesso de dados até 2021, o que pode ser já estar desatualizado em alguns assuntos de direito.

“O Chat GPT não seria, a princípio, uma forma 100% segura de estudar. Um dos pontos negativos dele é justamente que ele só acessa dados até 2021. Eu pessoalmente não recomendo estudo por ele. Você pode usar uma IA, por exemplo, para revisar um tema, como nosso código civil, por exemplo, que é de 2002. Mas de forma secundária, nunca fazendo disso a ferramenta número um de estudos”, afirma Natássia.

A docente acredita que utilizar a inteligência artificial como ferramenta principal nos estudos não é a melhor opção. Além de dados desatualizado, esta forma de estudar pode deixar o ensino “muito passivo” por estar recebendo informações sem um esforço maior para absorver o assunto de maneira pedagógica. Para os alunos que procuram essa forma de aprender, Natássia passa outras sugestões:

“Claro que a tendência das inteligências artificiais, a longo prazo, é elas cada vez mais se aprimorarem. Mas o aluno usar uma inteligência artificial como aquela ferramenta chave de estudos, ao meu ver, do ponto de vista pedagógico, mesmo não é a melhor solução. Existem outras estratégias de estudo como leituras, resolução de provas antigas, as bancas seguem muitos padrões, então resolver questões de provas mais antigas ajuda muito mais.”

A advogada reforça que, ao usar o chat bot em excesso, o estudante pode acomodar seu estudo e, ao invés de aprender, apenas decorar a informação naquele momento. Porém, o Exame de Ordem é escrito e vai além do virtual. É importante que o discente saiba aproveitar o momento de estudo com outras práticas no papel físico.

Natássia reitera: “Ele [o Chat GPT] pode ser usado de forma subsidiária, não como única fórmula, até mesmo fórmula principal de estudo, pelos motivos que eu já comentei anteriormente. E tomar um certo cuidado, né? Várias pessoas bem proeminentes do cenário mundial têm manifestado uma certa preocupação com o uso exacerbado de inteligência artificiais”, finaliza.

O Parlamento da União Europeia aprovou nesta quarta-feira (14), por ampla maioria, um texto-base para uma futura lei sobre o uso de inteligência artificial nos Estados-membros do bloco.

O texto recebeu 499 votos a favor e 28 contrários, além de 93 abstenções, e veta a utilização de tecnologias de reconhecimento biométrico em tempo real em lugares públicos.

##RECOMENDA##

O objetivo da proposta é garantir que novas tecnologias ligadas à inteligência artificial, como o ChatGPT, respeitem as leis e os valores da UE.

As regras também miram combater a discriminação digital, a desinformação e o uso de "deepfakes", ou seja, a criação de vídeos e áudios falsos por meio de IA.

As normas estabelecem obrigações de acordo com o nível de risco representado pela plataforma. Sistemas que utilizem "pontuações sociais", ou seja, que classifiquem as pessoas com base em seu comportamento e características, serão proibidos.

Também serão vetados instrumentos de policiamento preditivo e sistemas de reconhecimento de emoções pelas forças de ordem, na gestão de fronteiras e em locais de trabalho.

Já as plataformas de IA generativa, como o ChatGPT, precisarão declarar que o conteúdo é criado por computador, ajudando a distinguir "deepfakes" de imagens reais.

A votação no Europarlamento abre caminho para as negociações com a Comissão Europeia, poder Executivo do bloco, e os Estados-membros, previstas para começar já nesta quarta.

Se o regulamento final for aprovado, a UE terá a primeira legislação no mundo para controlar o uso de inteligência artificial.

Da Ansa

Uma canção inédita dos Beatles gravada com o auxílio de Inteligência Artificial (IA) para recriar a voz do falecido John Lennon será lançada este ano, anunciou Paul McCartney, que citou a "última gravação" do grupo.

O músico do lendário grupo de Liverpool, que vai completar 81 anos no dia 18 de junho, explicou em uma entrevista à BBC que para concretizar a gravação a equipe extraiu a voz de Lennon de uma antiga fita cassete.

##RECOMENDA##

"Era uma demo que John (Lennon) tinha e na qual trabalhamos. Acabamos de finalizá-la", disse, antes de anunciar que a faixa será lançada até o fim do ano.

"Quando viemos fazer o que será a última gravação dos Beatles, era uma demo que John tinha (e) nós conseguimos captar a voz de John e torná-la pura por meio da IA".

"Então nós conseguimos mixar a gravação, como você faria normalmente. Isso dá algum tipo de margem de manobra", acrescentou.

Em abril de 1970, seis meses depois do lançamento do álbum "Abbey Road" e um mês antes antes do lançamento de "Let it Be", os Beatles anunciaram a separação do grupo.

Durante os 10 anos de carreira, os Beatles lançaram 14 álbuns de grande sucesso.

A dona do Facebook, Meta Platformas, permitiu que seus funcionários dessem uma espiada nesta sexta-feira (9) em uma série de ferramentas de inteligência artificial que está desenvolvendo, incluindo bots como o ChatGPT, planejados para o Messenger e o WhatsApp que poderiam conversar usando personalidades diferentes. Entre as ferramentas que estão em desenvolvimento, o Instagram também terá novas aplicações. 

Executivos da empresa também demonstraram em uma reunião um dispositivo que chegará ao Instagram capaz de modificar fotos dos usuários mediante comandos de texto e outro que pode criar stickers de emoji para serviços de mensagem, segundo resumo fornecido por um porta-voz da Meta. A exibição forneceu as primeiras indicações concretas de como a gigante das redes sociais planeja disponibilizar suas próprias ferramentas de inteligência artificial para mais de três bilhões de usuários mensais, meses após competidores como Google e Microsoft anunciarem uma onda de lançamentos do tipo.  

##RECOMENDA##

A Meta ainda não apresentou nenhum produto de inteligência artificial generativa voltado ao consumidor, embora tenha anunciado mês passado que trabalhava com um pequeno grupo de publicitários para testar ferramentas que usam inteligência artificial para gerar imagens de fundo e variações de textos escritos para suas campanhas de publicidade. A empresa também está reorganizando suas divisões de IA e investindo em sua infraestrutura, após identificar no ano passado não ter capacidade de hardware e de software para sustentar as necessidades de seus produtos de IA.  

A regulamentação da inteligência artificial (IA) é necessária e emergencial, em especial diante dos riscos reais e iminentes. Essa foi uma das constatações da primeira reunião de trabalho dos novos integrantes do Conselho de Comunicação Social (CCS) do Congresso Nacional, que debateu na manhã desta segunda-feira (5) em audiência pública o marco legal da Inteligência Artificial (IA).

Em 2022, uma comissão de juristas foi formada no Senado para estudar o tema e propor a regulamentação, que agora está ambientada no Projeto de Lei (PL) 2.338/2023, apresentado pelo presidente da Casa, Rodrigo Pacheco.

##RECOMENDA##

Presidente do CCS, o advogado e editor-chefe do portal jurídico Migalhas, Miguel Matos, disse que “há 20 anos resolvemos não estabelecer esses regramentos para a internet e hoje vemos que talvez tenhamos errado um pouco”, em alusão à necessidade de se regulamentar esse campo da ciência da computação.

Ministro do Superior Tribunal de Justiça (STJ) e presidente da comissão de juristas do Senado destinada a discutir a inteligência artificial, Ricardo Villas Bôas Cueva explicou que o colegiado foi inicialmente formado para analisar projetos sobre o tema aprovados na Câmara em 2020. O trabalho — realizado de fevereiro a dezembro de 2022 —  culminou em um projeto de marco legal encampado pelo Senado.

Cueva destacou que a proposta tem vários objetivos, entre eles, o escopo da IA; princípios éticos na utilização da tecnologia; definição da necessidade de que os algoritmos tenham transparência e que sejam explicáveis; asseguramento de direitos e garantias dos afetados pela IA e  implementação de medidas para o combate à discriminação.

A ideia é a criação de um marco legal para estabelecer os direitos para a proteção do elo mais vulnerável, ou seja, as pessoas afetadas. O segundo eixo consiste, a partir do modelo europeu, definir alguns riscos, classificá-los e com base neles impor deveres de conduta. O ministro enfatizou que algumas ameaças são inaceitáveis, como a hierarquização social.

O presidente da comissão de juristas lembrou que uma das questões mais complexas é a da responsabilidade civil, por isso, é preciso graduá-la de acordo com os riscos. Cueva salientou ainda que o projeto é flexível e que permite ser adequado às novas tecnologias. Para o ministro, haverá agências dedicadas a regular a IA em cada setor.

Relatora da comissão de juristas sobre a inteligência artificial, Laura Schertel disse que com a propositura do PL 2. 338 será possível amadurecer a proposta de um marco geral, “tão complexo e também tão urgente”.

— Conseguimos perceber os benefícios da inteligência artificial, mas também conseguimos perceber de forma rápida a suas falhas — afirmou a relatoria ao chamar atenção para os riscos reais, como erros, discriminações e ampliação de desinformação.

Há uma grande preocupação sobre os impactos da IA sobre as várias áreas, mas uma das que mais merece atenção é a da comunicação social, de acordo com a relatora. Entre os impactos dos direitos fundamentais da IA, ela apontou igualdade, liberdade, devido processo legal, privacidade e proteção de dados, que demonstram, em linhas gerais, o porquê de se precisar de uma regulação.

O projeto apresentado no Senado traz direitos e transparências que não estão no PL 21/2020, enfatizou a relatora. Laura defendeu uma regulamentação horizontal associada a uma coordenação central.

ChatGPT

Matemático e professor do Departamento de Filosofia da Universidade Estadual da Campinas, Walter Carnielli considera que o que está acontecendo hoje com a inteligência artificial “é um tsunami”.

Ele mencionou o caso do ChatGPT, assistente virtual de inteligência que ele considera uma “inteligência muito boa”, mas que também apresenta casos de “alucinação”, como a impossibilidade de fazer cálculos matemáticos e a geração de informações errôneas. 

Questionado, o professor disse que a própria inteligência artificial pode ajudar a conter as fake news, mas que não enxerga interesse das big techs para fazê-lo.

Professora do Programa de Tecnologia da Inteligência e Design Digital da Pontifícia Universidade Católica de São Paulo (PUC-SP), Dora Kaufman salientou que o ChatGPT trouxe o IA para a pauta; mas para a acadêmica, a “repercussão alertando sobre o risco de extinção da humanidade” ainda está no plano da ficção cientifica.

A professora sugeriu que o Senado crie uma comissão que levante como a IA está sendo usada no Brasil e quais são os danos reais. Para esse debate, Dora diz ser essencial a participação de agências regulatórias setoriais, como o sistema bancário e financeiro, que usa a IA há muitos anos, assim como da sociedade.

Ela também defendeu que é preciso capacitar o cidadão do século 21 para entender, ao menos, a lógica do funcionamento desse sistema e disse que o PL 2.338 "é um excelente ponto de partida", mas apelou para que o Senado não precipite a discussão, ao considerar que "o processo é tão importante quanto o resultado".

Comunicação Social

O professor do Departamento de Comunicação Social da Universidade Estadual Paulista (Unesp) Juliano Carvalho defendeu que o setor de comunicação e informação passe a ser uma área de interesse prioritário no marco legal.

Ele destacou a natureza do trabalho jornalístico e problemas, como os relacionados a questão ética. Carvalho também destacou os "ecossistemas de desinformação que alimentam a produção de conteúdo que podem levar a opiniões e a desastres como capacidade para ampliar noticiais faltas e gerar deep fakes.

O professor defendeu ainda o direito autoral e divergiu de algumas colocações ao dizer que, na sua opinião, a IA, da forma como se apresenta hoje, não vai combater fake news.

— Não estamos falando de coisas triviais. O ChatGPT em três meses alcançou cem milhões de usuários. (...) Não acredito numa comunicação que não seja mediada humanamente, porque a nossa história, o nosso legado, a nossa língua depende fundamentalmente das escolhas que nós estamos fazendo — afirmou Carvalho.

A reunião teve a participação de diversos conselheiros, entre eles a da representante do audiovisual, Sonia Santana, que demonstrou preocupação com a questão da segurança, do acesso à informação e da extinção dos postos de trabalho.

*Da Agência Senado

O CEO da OpenAI, Sam Altman, criador da interface ChatGPT, alertou, nesta segunda-feira (5), contra a "regulamentação estrita" da Inteligência Artificial (IA), que ameaça frear seu desenvolvimento, embora reconheça a necessidade de uma vigilância de longo prazo.

Em maio, perante um comitê parlamentar dos Estados Unidos, Altman defendeu a intervenção dos governos para regular a IA e disse que era “chave” para “limitar os riscos” associados a essa tecnologia.

##RECOMENDA##

Nesta segunda-feira, porém, ele frisou que seu apelo por uma maior regulação não era direcionado aos "sistemas atuais".

"Acho que uma regulamentação estrita desse setor, ou tentar desacelerar essa incrível inovação, seria um erro", declarou na Universidade de Tel Aviv, em Israel.

Altman reconheceu que o risco da "superinteligência" mal utilizada é real.

É "algo que deveremos, talvez, enfrentar ao longo da próxima década, e isso não deixa muito tempo para as instituições do mundo se adaptarem", disse ele.

A visita do empresário americano a Israel faz parte de sua turnê mundial, que busca tranquilizar sobre as implicações da IA e defender uma regulação que não seja muito restritiva para seus negócios.

A Inteligência Artificial generativa da OpenAI, aberta ao público em geral no final de 2022, gerou uma onda de reações, temendo seu possível uso para desinformação, destruição de empregos e roubo de direitos autorais.

Em uma reunião com o presidente israelense, Isaac Herzog, Altman insistiu na "urgência" de "encontrar uma forma de mitigar esses enormes riscos".

A primeira-ministra dinamarquesa, Mette Frederiksen, fez nesta quarta-feira (31) um discurso escrito, em parte, pelo software de Inteligência Artificial ChatGPT para ressaltar o aspecto revolucionário, mas também perigoso, da tecnologia.

“O que acabo de ler não foi escrito por mim, ou por nenhum ser humano”, disse Frederiksen ao Parlamento, depois de ler a primeira parte de um discurso escrito pelo chatbot desenvolvido pela OpenAI.

##RECOMENDA##

"Embora nem sempre tenha acertado em cheio nos detalhes do programa de trabalho do governo, ou na pontuação (...) as capacidades (do ChatGPT) são ao mesmo tempo fascinantes e assustadoras", afirmou a primeira-ministra.

O ChatGPT é um dos exemplos mais recentes das impressionantes capacidades da Inteligência Artificial, que também está levantando sérias preocupações quanto ao seu potencial abuso, especialmente em termos de desinformação, ou de substituição em massa de funcionários humanos.

O assunto está na ordem do dia de uma reunião de alto nível sobre comércio entre Estados Unidos e União Europeia na quarta-feira, na Suécia.

Um grupo de empresários e especialistas, entre eles Sam Altman, criador do ChatGPT, advertiu na terça-feira sobre a ameaça de "extinção" da humanidade representada pelo surgimento dessa tecnologia.

Uma das novidades da marca na Computex 2023, será aberta hoje (30) em Taipei, Taiwan. A Nvidia revelou no último domingo (28) o supercomputador DGX GH200 AI, uma poderosa máquina com desempenho de um exaflop por segundo, fornecendo ferramentas para que as gigantes da tecnologia desenvolvam concorrentes para o ChatGPT. 

Para executar um quintilhão de operações a cada segundo, a plataforma conta com 256 superchips Grace Hopper – uma combinação que permite ela trabalhar como uma única GPU (em português, “Unidade de Processamento Gráfico”). Além disso, a reunião dos componentes fornece 144 TB de memória compartilhada, o equivalente a cerca de 500 vezes mais memória do que a geração anterior.

##RECOMENDA##

Combinando uma CPU (em português, “Unidade Central de Processamento”) Nvidia Grace baseada na arquitetura Arm com uma GPU Nvidia H100 Tensor Core, a máquina usa ainda a tecnologia NVLink-C2C para conectar os superchips. De acordo com a fabricante, o método aumenta a banda entre CPU e GPU em até sete vezes e ainda reduz o consumo de energia. O Nvidia DGX GH200 é o segundo supercomputador do mundo a alcançar a marca de 1 exaflop por segundo.  

Toda a potência do novo supercomputador Nvidia DGX GH200 AI será disponibilizada para que os clientes da fabricante sediada nos Estados Unidos desenvolvam a próxima geração de mecanismos de inteligência artificial (IA) generativa. A ideia é superar o chatbot da OpenAI, que tem feito sucesso.

Microsoft, Meta e Google serão as primeiras empresas a testar o poderoso desempenho do DGX GH200 AI, de acordo com a Nvidia, no desenvolvimento de modelos avançados de IA generativa. Mas a performance otimizada da máquina também será aproveitada em outros segmentos, como nos serviços na núvem. O supercomputador deve estar disponível até o final deste ano, quando o desempenho real do dispositivo será conhecido. 

 

 

Os líderes mundiais devem se dedicar a reduzir "o risco de extinção" representado pela Inteligência Artificial (IA) — pediu nesta terça-feira (30) um grupo de empresários e especialistas do setor de tecnologia.

A declaração, de apenas uma linha, foi assinada por dezenas de especialistas, incluindo Sam Altman, cuja empresa OpenAI criou o robô conversacional ChatGPT no ano passado, que permite criar obras de arte ou literatura, ensaios e manter um diálogo com um ser humano sobre qualquer assunto.

##RECOMENDA##

A Inteligência Artificial deve ser "uma prioridade global junto com outros riscos para a sociedade, como pandemias, ou guerra nuclear", explica o texto.

Os críticos da Inteligência Artificial alertam para a possibilidade de um algoritmo assumir atividades essenciais para uma sociedade, como fornecimento de energia, ou defesa. Além disso, robôs conversacionais e outros aplicativos de IA podem causar milhões de perdas de empregos.

Esta declaração não é a primeira assinada por especialistas da indústria, que ao mesmo tempo em que investem e atraem bilhões de dólares em IA, declaram-se publicamente intimidados pelas possibilidades desta nova tecnologia.

Há dois meses, outras personalidades, como o bilionário Elon Musk, assinaram outra carta pública, na qual pediam uma pausa no desenvolvimento da IA até que pudessem garantir sua total segurança.

A Nvidia anunciou uma nova tecnologia de Inteligência Artificial que aprimora as interações dos jogadores com personagens não jogáveis (NPCs) em games. A novidade foi revelada hoje (29), durante a conferência da marca feira Computex, em Taiwan.

Batizado de Nvidia ACE (Avatar Cloud Engine), o recurso permite que os desenvolvedores insiram NPCs que conversam com os jogadores em tempo real. Em vez de diálogos com scripts, serão usados chatbots semelhantes ao ChatGPT e ao Google Bard. 

##RECOMENDA##

Até o momento, não há previsão de quando o recurso ACE estará disponível para os desenvolvedores de jogos. Entretanto, é esperado que a novidade mude a forma de interação dos jogadores com os NPCs “Você pode dar vida aos NPCs usando técnicas de alinhamento de modelo NeMo. Primeiro, empregue a clonagem de comportamento para permitir que o modelo de linguagem execute tarefas de representação de papéis conforme as instruções”, explicou a Nvidia.

Outro ponto interessante é que o Nvidia ACE possibilitará que as animações faciais dos personagens correspondam ao diálogo não roteirizado. Um elemento que deve ampliar o grau de naturalidade das interações. De acordo com a Nvidia, será usado um sistema de aprendizado por reforço de feedback humano para ajustar os comportamentos dos NPCs.  

Isso permitirá que os designers tenham um retorno em tempo real durante o desenvolvimento dos títulos. Para mais, a marca afirma que os NPCs de Inteligência Artificial são controlados por NeMo Guardrails – um software de código aberto que garante a segurança dos criadores do texto e o programa funciona como os sistemas de linguagem de máquina. A plataforma impedirá que os personagens digam coisas estranhas ou ofensivas aos jogadores.

A Nvidia exibiu uma demonstração da tecnologia ACE e da plataforma Convai para criação de personagens com IA na Computex. Embora o teaser não seja perfeito, os padrões de falas dos NPCs devem se tornar mais naturais no futuro.

 

As ações da Nvidia, atualmente uma das empresas mais valiosas do mundo, dispararam na última semana, após a fabricante de chips prever um enorme salto na receita, num sinal de como o amplo uso da inteligência artificial pode remodelar drasticamente o setor de tecnologia.

A empresa sediada em Santa Clara, Califórnia, está próxima de se juntar ao clube exclusivo das empresas de US$ 1 trilhão, como Alphabet, Apple e Microsoft, depois que suas ações subiram mais de 24%.

##RECOMENDA##

Na quarta-feira (24) a fabricante de chips para jogos e inteligência artificial anunciou um lucro trimestral de mais de US$ 2 bilhões e uma receita de US$ 7 bilhões, superando as expectativas de Wall Street.

Suas projeções de vendas de US$ 11 bilhões para este trimestre surpreenderam Wall Street. É um salto de 64% em relação ao ano anterior no mesmo período e bem acima dos US$ 7,2 bilhões previstos pelos analistas do setor.

Fabricantes de chips de todo o mundo foram impulsionados pela notícia. As ações da Taiwan Semiconductor subiram 3%, enquanto a SK Hynix, da Coreia do Sul, ganhou 6%. A ASML, com sede na Holanda, aumentou 5%.

Jensen Huang, fundador e CEO da Nvidia, afirmou que os data centers do mundo precisam passar por uma transformação devido à revolução que virá com a tecnologia de IA.

"O data center de US$ 1 trilhão do mundo é quase inteiramente povoado por unidades de processamento central (CPUs) hoje", disse Huang.

Os chips de IA são projetados para realizar tarefas de inteligência artificial de forma mais rápida e eficiente. Embora chips de propósito geral, como CPUs, também possam ser usados para tarefas de IA mais simples, eles estão "se tornando cada vez menos úteis à medida que a IA avança", observa um relatório de 2020 do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

Analistas afirmam que a Nvidia pode ser um exemplo antecipado de como a IA pode remodelar o setor de tecnologia. "Na noite passada, a Nvidia apresentou orientações incrivelmente robustas que serão ouvidas em todo o mundo e mostram a demanda histórica por IA que está acontecendo agora no mundo corporativo e no mercado consumidor", escreveu Dan Ives, da Wedbush. Fonte: Associated Press.

A OpenAI anunciou, nesta quinta-feira (18), o lançamento de um aplicativo do ChatGPT para iOS. O serviço é gratuito, sincroniza o horário entre diferentes dispositivos e ainda integra o Whisper, um sistema de reconhecimento de voz. O app está disponível atualmente apenas nos Estados Unidos, mas outros países receberão a novidade já nas próximas semanas. 

“O serviço no dispositivo móvel funciona assim como via browser no PC, já que ele fornece respostas imediatas em formato convencional, aconselhamento personalizado sobre receitas, plano de viagem e mais, como inspiração criativa para ideias de presentes”, afirmou a empresa. O ChatGPT para smartphones terá o mesmo uso do serviço no PC. Assim como na versão para computadores, assinantes do ChatGPT Plus também contam com acesso ao modelo de linguagem mais atualizado da empresa, o GPT-4. 

##RECOMENDA##

Além disso, o ChatGPT para iOS também oferece ajuda no campo profissional distribuindo resumos das atas de reuniões, programação, oportunidade de aprendizado de novas línguas, histórias e muito mais.

“Com o aplicativo ChatGPT para iOS, damos mais um passo em direção à nossa missão, transformando pesquisas de ponta em ferramentas úteis que capacitam as pessoas, tornando-as cada vez mais acessíveis”, está escrito no post de lançamento da OpenAI. Por último, foi prometido que os usuários de Android serão os próximos. Apesar de não especificar uma data, a OpenAI prometeu que quem utiliza celulares com sistema operacional do Google receberá em breve o app do ChatGPT. 

 

Os parlamentares de Minnesota, nos Estados Unidos devem aprovar uma lei, nesta segunda-feira (15), que proíbe a divulgação de deepfakes pornográficos. Essa é uma resposta ao compartilhamento de vídeos falsos gerados por inteligência artificial (IA) de conteúdo sexual. A expectativa é de que tudo comece até o final do mês de maio. 

Os deputados estaduais de Minnesota aprovaram um projeto que excluía os vídeos falsos pornográficos que fossem paródias, sátiras, comentários ou com algum valor jornalístico ou político, com base na liberdade de expressão. No entanto, o Senado alterou o dispositivo vetando totalmente o deepfake pornô. Agora a Câmara de Deputados de Minnesota deve voltar novamente o projeto, antes de enviar para a sanção do governador. Porém, os deepfakes para fins educacionais continuam sendo permitidos.  

##RECOMENDA##

Cerca de 96% das deepfakes que circulam online têm natureza pornográfica, afirmou uma das defensoras do projeto, a senadora estadual Erin Maye Quade. “A tecnologia deepfake tem o poder de prejudicar reputações, arruinar vidas e até mesmo ameaçar a integridade de nossa democracia”, avaliou Quade.

Os deepfakes têm sido apontados como a mais nova ameaça à democracia dos Estados Unidos. A ferramenta perigosa pode ser usada para influenciar os eleitores nas semanas que antecedem as eleições e, por isso, os parlamentares estaduais estão buscando regular as tecnologias de inteligência artificial. A Califórnia e o Texas já tornaram crime a divulgação dos vídeos falsificados envolvendo políticos nas semanas que antecedem as eleições. 

A Inteligência Artificial (IA) já começou a transformar o mundo dos audiolivros, com sua capacidade de gerar locuções fluidas sem utilizar um narrador humano, uma novidade que preocupa os profissionais da voz.

Não há um selo para identificar a IA, porém segundo vários profissionais do setor, já circulam no mercado milhares de audiolivros concebidos a partir do banco de dados vocais.

##RECOMENDA##

Entre os programas mais avançados, Deepzen oferece um preço básico que pode reduzir a um quarto o custo de criação de um audiolivro em comparação com um projeto clássico.

Esta pequena empresa sediada em Londres trabalha com um banco de dados que eles mesmos criaram gravando as vozes de vários atores que foram solicitados a expressar uma variedade de diferentes emoções.

Todas as empresas contatadas pela AFP se defendem dessas práticas.

A startup texana Speechki propõe, além de utilizar suas próprias gravações, utiliza vozes extraídas de bancos de dados existentes, afirma seu diretor geral, Dima Abramov.

Essa segunda opção requer a assinatura de um contrato que inclui os direitos de uso, explica ele.

- "Conexão emocional" -

Consultadas sobre o assunto, as cinco principais editoras do mercado americano não responderam.

Mas, de acordo com profissionais entrevistados pela AFP, vários nomes do setor editorial tradicional já usam a chamada IA generativa, ou seja, capaz de criar, sem intervenção humana, textos, imagens, vídeos ou vozes a partir de conteúdos existentes.

"A narração profissional sempre foi essencial para ouvir na Audible e continuará sendo", declarou uma porta-voz da gigante americana de audiolivros, subsidiária da Amazon.

"Dito isso, à medida que a tecnologia melhora, visualizamos um futuro em que a interpretação humana e o conteúdo gerado (com IA) podem coexistir."

Muito focados em inteligência artificial, os gigantes tecnológicos estão envolvidos na florescente economia de audiolivros gerados por software.

No início do ano, a Apple lançou uma oferta de "narrativa digital", destinada, segundo a empresa, a "tornar a criação de audiolivros mais acessível a todos", em particular "a autores independentes e pequenas editoras".

O Google oferece um serviço semelhante, descrito como "autonarração".

"Precisamos democratizar a indústria editorial, porque neste momento apenas os nomes mais conhecidos se tornam audiolivros", afirma Kamis Taylan.

"A narração sintética acaba de abrir a porta para todos os livros existentes que não foram gravados e para todos os livros futuros que nunca seriam gravados devido a limitações econômicas", diz Dima Abramov, que estima que atualmente 5% dos livros são convertidos em audiolivros.

Esse crescimento do mercado também beneficiará os atores de voz, acrescenta. "Eles farão mais gravações e ganharão mais dinheiro."

"Contar histórias, essencialmente, é permitir que os seres humanos se reconectem com sua humanidade", defende Emily Ellet, diretora da Associação de Narradores Profissionais de Audiolivros. "A narração deve continuar sendo completamente humana."

Para Tanya Eby, a narração de IA ainda "carece de conexão emocional. Há uma diferença real (em relação às gravações clássicas). Mas com o tempo, os ouvintes podem se acostumar".

"Gostaria que as empresas deixassem claro para os ouvintes que estão ouvindo uma peça gerada por IA", diz. "Que sejam honestos sobre isso."

O Google anunciou, nessa quarta-feira (10), que vai aumentar a operação da sua inteligência artificial, o Google Bard, para cerca de 180 países. A empresa também citou que o Bard vai se integrar com outras ferramentas nativas e que haverá uma parceria com a Adobe e o Spotify. 

A novidade foi apresentada na conferência Google I/O. Entre a lista de lançamentos, o evento ainda deve compartilhar o Android 14 e o smartphone Pixel Fold. 

##RECOMENDA##

Apenas disponível nos Estados Unidos e Reino Unido, o Google Bard poderá ser acessado por mais de 180 países de língua inglesa, japonesa e coreana. De acordo com os desenvolvedores, a expectativa é que, em breve, a ferramenta seja lançada para mais de 40 países que falam português, espanhol, francês, alemão e italiano. 

Com a expansão, a IA também passa a se integrar ao Gmail, Docs, Planilhas, Maps e outros recursos nativos do Google. Além disso, foi firmada uma parceria com o Spotify e a Adobe. Dessa forma, o Bard poderá criar imagens através de comandos no Firefly. 

Os legisladores do Parlamento Europeu deram nesta quinta-feira (11) o primeiro passo para a aprovação de uma lei que regulamente as ferramentas da Inteligência Artificial (IA), como o ChatGPT.

Os eurodeputados das comissões parlamentares de Liberdades Civis e de Proteção dos Consumidores aprovaram por ampla maioria a limitação do uso da IA no bloco, mas com a continuidade dos incentivos ao setor.

O texto será apresentado ao plenário do Parlamento em junho e, em caso de aprovação, as negociações terão início com os Estados membros da UE para redação de uma lei definitiva.

A UE quer ser o primeiro bloco do mundo a estabelecer um marco jurídico integral para limitar os possíveis excessos da IA, sem prejudicar a inovação.

Bruxelas propôs há dois anos um projeto ambicioso de regulamentação com uma iniciativa da Comissão Europeia.

Os países membros definiram suas posições no fim de 2022.

Mas a análise parlamentar foi mais longa que o previsto, o que provocou um adiamento nos últimos meses devido às polêmicas sobre os perigos das ferramentas de IA capazes de criar textos ou imagens.

Páginas

Leianas redes sociaisAcompanhe-nos!

Facebook

Carregando