Connect with us

Tecnologia

Senadores dos EUA cobram investigação da Meta por políticas de IA com menores

Published

on

Dois senadores republicanos solicitaram, nesta quinta-feira (15), que o Congresso dos Estados Unidos investigue a Meta após a divulgação de um documento interno que autorizava chatbots da empresa a interagir com crianças em conversas de teor romântico ou sugestivo. A revelação foi feita pela agência Reuters, que obteve acesso ao material.

A Meta confirmou a autenticidade do documento e afirmou que revisou as diretrizes no início de agosto, removendo trechos que permitiam esse tipo de interação, após questionamentos da imprensa. O senador Josh Hawley (Missouri) declarou que a alteração só ocorreu depois que a empresa foi exposta e defendeu a abertura imediata de uma investigação legislativa.

A senadora Marsha Blackburn (Tennessee) também se posicionou favoravelmente à apuração e destacou a importância de aprovar a Lei de Segurança Online para Crianças, proposta de sua coautoria aprovada no Senado, mas ainda em análise na Câmara dos Deputados. A medida estabelece que empresas de mídia social têm um “dever de cuidado” em relação a menores, com foco no desenho seguro das plataformas e em regras claras de funcionamento.

O documento da Meta, segundo a Reuters, incluía exemplos de respostas que seriam aceitas dentro da política interna, como declarações de apreço físico direcionadas a uma criança de oito anos. A própria empresa reconheceu que os padrões não representavam resultados “ideais ou preferíveis” de IA, mas ainda assim estavam autorizados.

O senador democrata Ron Wyden (Oregon) classificou as diretrizes como inaceitáveis e defendeu que a imunidade prevista na Seção 230 — que isenta empresas de responsabilidade pelo conteúdo gerado por usuários — não seja aplicada a casos envolvendo chatbots de inteligência artificial. Para ele, a Meta e seu CEO, Mark Zuckerberg, devem responder por eventuais danos causados.

O caso reacende o debate sobre a proteção de crianças no ambiente digital e o papel das empresas de tecnologia na prevenção de interações nocivas mediadas por inteligência artificial. A repercussão política sugere que o tema poderá acelerar propostas legislativas voltadas à regulação dessas plataformas.

MEIO AMBIENTE

COP30 em Belém debate uso da inteligência artificial na proteção da Amazônia

Published

on

O Brasil se prepara para sediar, de 10 a 21 de novembro, a COP30, em Belém (PA), primeira conferência do clima realizada na Amazônia. O encontro ocorre em um contexto de pressão global para reduzir emissões e rever a dependência de combustíveis fósseis, com destaque para o papel da tecnologia e da inteligência artificial na proteção da floresta.

Apesar de décadas de políticas públicas e operações de fiscalização, o desmatamento segue em alta e as mudanças climáticas avançam. Nesse cenário, novas ferramentas tecnológicas surgem como aliadas. Estudo da PwC de 2019 estimou que a aplicação de IA poderia reduzir em até 4% as emissões globais de gases de efeito estufa, o equivalente a 2,4 bilhões de toneladas de CO₂, soma próxima às emissões conjuntas de Austrália, Canadá e Japão naquele ano.

Atualmente, sistemas de IA conseguem prever áreas de risco de desmatamento com semanas de antecedência. Segundo Douglas Torres, especialista em IA e CEO da Yup.AI, “estamos testemunhando o surgimento de uma nova camada de proteção ambiental: algoritmos que preveem a destruição antes que ela aconteça”. Ele acrescenta que, com essas ferramentas, “é como se a floresta tivesse sensores nos olhos, ouvidos digitais e alertas automáticos para cada ameaça”.

O uso da tecnologia vai além do monitoramento do território. Plataformas estão sendo aplicadas para rastrear cadeias produtivas ilegais, detectar fraudes em créditos de carbono, analisar contratos públicos e otimizar rotas de fiscalização. Pesquisadores do Instituto de Pesquisa Ambiental da Amazônia (Ipam), em parceria com o Banco Mundial, lançaram a plataforma Floresta em Risco, que cruza dados macroeconômicos e de governança local para prever a perda de vegetação nativa. O modelo identifica tanto a quantidade de desmatamento esperada quanto os locais de maior vulnerabilidade, além de apontar possíveis vazamentos, quando a derrubada é apenas transferida para outra região.

A expectativa é de que a COP30 fortaleça o debate sobre a integração entre tecnologia, justiça climática e responsabilidade coletiva. Especialistas ressaltam que os avanços tecnológicos não substituem políticas públicas e a ação coordenada de governos, empresas e sociedade civil. A conferência será oportunidade para consolidar compromissos e abrir espaço para a bioeconomia, que pode gerar alternativas sustentáveis de desenvolvimento para a região amazônica.

Continue Reading

Tecnologia

SaferNet lança formação sobre supervisão e controle parental na internet a partir de 10 de setembro

Published

on

A SaferNet Brasil inicia nesta quarta-feira, 10 de setembro, uma formação continuada online, em parceria com o Google, voltada a pais, responsáveis e educadores para conscientização sobre supervisão familiar e uso de ferramentas de controle parental na internet; o lançamento ocorre entre 19h e 20h (horário de Brasília), no canal da organização no YouTube, com inscrição prévia e emissão de certificado ao final da transmissão.

O programa de abertura, intitulado “Famílias Conectadas: uma conversa sobre supervisão familiar e ferramentas de controle parental”, marca o início de uma série de conteúdos que serão publicados ao longo do semestre. A formação abordará introdução à supervisão familiar, noções de privacidade e segurança, abandono digital de crianças e adolescentes e a aplicação prática de controles parentais. A condução será feita pelas psicólogas Juliana Cunha, diretora de Projetos Especiais da SaferNet, e Bianca Orrico, que atua no canal de ajuda e na área de Educação da entidade.

Segundo pesquisa do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br), três em cada dez pais utilizam ferramentas de mediação parental, proporção que cai para 24% quando a pergunta trata de recursos que limitam o tempo de tela. Outro levantamento, encomendado pelo Google, indica que 17% dos pais no Brasil usam ferramentas de controle. Esses dados orientam a proposta da formação ao apontar lacunas na adoção de mecanismos de acompanhamento do uso da internet por crianças e adolescentes.

A agenda prevê transmissões e materiais distribuídos ao longo do semestre, com orientações práticas sobre configuração de recursos e mediação no ambiente doméstico e escolar. Os organizadores indicam que as inscrições são feitas por formulário online e que os participantes receberão instruções para obtenção de certificado após a live de abertura. A programação tem foco em capacitar famílias e educadores a incorporar rotinas de supervisão e a utilizar ferramentas disponíveis em plataformas e dispositivos.

Continue Reading

Tecnologia

Vazamento expõe 370 mil conversas da Grok no Google

Published

on

Mais de 370 mil conversas de usuários com a Grok, inteligência artificial desenvolvida pela xAI de Elon Musk, ficaram acessíveis em mecanismos de busca como o Google, revelando informações pessoais e conteúdos sensíveis. A falha foi identificada após reportagem da Forbes, que apontou que documentos, planilhas e imagens compartilhadas com o chatbot passaram a ser exibidos publicamente sem que os usuários fossem notificados de que suas interações poderiam se tornar públicas.

O problema ocorre quando o usuário clica no botão de compartilhamento da plataforma. A ação gera um link exclusivo para dividir a conversa por e-mail ou mensagem, mas essas mesmas URLs também são indexadas por buscadores. Dessa forma, conteúdos que deveriam permanecer privados se tornaram acessíveis a qualquer pessoa. Entre as informações encontradas estão dados pessoais e até instruções da IA para atividades ilícitas, como a produção de drogas, armas e softwares maliciosos. Em um dos casos, a Grok chegou a apresentar um plano detalhado para o assassinato de Elon Musk.

As diretrizes da empresa proíbem o uso do sistema para finalidades que promovam danos graves à vida humana, incluindo o desenvolvimento de armas químicas, biológicas ou de destruição em massa. Apesar disso, o vazamento mostrou que tais conteúdos foram produzidos, compartilhados e tornados públicos pela própria plataforma.

Este não é o primeiro episódio em que um chatbot de grande porte expõe interações de usuários. No início de agosto, conversas do ChatGPT, da OpenAI, também apareceram no Google. Após críticas, a empresa alterou suas políticas de privacidade e declarou estar comprometida em reforçar medidas de segurança. No caso da Grok, até o momento a xAI não se pronunciou sobre o incidente.

A exposição coloca em debate a segurança dos sistemas de inteligência artificial e os riscos à privacidade de milhões de usuários. Especialistas destacam que a indexação de conversas em buscadores amplia as chances de uso indevido de dados pessoais, além de levantar questionamentos sobre a responsabilidade das empresas que desenvolvem e operam essas tecnologias.

Continue Reading

Tendência