Connect with us

Tecnologia

A disputa global por minerais críticos e energia na era da inteligência artificial

Published

on

A crescente dependência de minerais estratégicos para sustentar a infraestrutura da inteligência artificial (IA) tem ampliado as tensões geopolíticas entre as principais potências mundiais. Elementos como terras raras, gálio, germânio e tântalo são fundamentais para a produção de equipamentos que operam data centers e sistemas de IA, e sua extração e refino estão concentrados majoritariamente em países do Sul global, com forte hegemonia da China.

Nos Estados Unidos, o governo intensificou medidas para garantir o suprimento desses materiais. Entre elas, destaca-se o recente acordo com a China, anunciado por Donald Trump, que envolve a concessão de vistos estudantis em troca do fornecimento de terras raras. Além disso, Washington busca firmar parcerias com países como a Ucrânia, condicionando o apoio político e militar à entrega prioritária de minerais críticos.

A infraestrutura da IA, embora muitas vezes percebida como intangível, depende de uma base física robusta, composta por servidores, cabos, fontes de energia e sistemas de resfriamento. Os data centers — atualmente cerca de 12 mil no mundo, sendo quase mil de hiperescala — representam o principal ponto de convergência dessa rede. A fabricação e manutenção desses centros exige quantidades elevadas de metais, como cobre, prata, ouro e silício, cuja extração traz impactos ambientais e sociais relevantes, agravados pelo curto ciclo de vida dos equipamentos.

A disputa por esses recursos vem sendo marcada por embargos e sanções mútuas entre EUA e China desde 2018. Em 2024, os Estados Unidos suspenderam a exportação de chips voltados à IA para o mercado chinês. A resposta veio com a limitação das exportações chinesas de minerais essenciais, movimento que evidenciou a interdependência entre os setores.

A rivalidade se intensificou quando a empresa chinesa DeepSeek lançou um chatbot concorrente ao ChatGPT com custo reduzido e desempenho competitivo, mesmo sob restrições. A movimentação provocou perdas bilionárias no mercado americano e reforçou a urgência de investimentos na cadeia produtiva interna de IA. O governo Trump anunciou reformas e aportes de US$ 500 bilhões, incluindo a construção de novos data centers.

Outro fator em evidência é o consumo energético da IA. Estimativas da Agência Internacional de Energia indicam que, em 2022, o setor consumiu 460 TWh, o equivalente a 2% da eletricidade global. A projeção para 2026 pode chegar a mais de 1.000 TWh. Nos EUA, data centers já representam cerca de 4% do consumo nacional e devem ultrapassar 9% até o fim da década. A sobrecarga nas redes tem gerado riscos de apagões e aumento nas tarifas de energia, pressionando governos e empresas a buscar soluções.

Companhias como Amazon, Google e Microsoft têm investido em fontes renováveis para abastecer suas operações, mas esses sistemas também requerem minerais críticos e enfrentam desafios relacionados à reciclagem e à eficiência energética. Para atender à demanda prevista dos centros de dados até 2030, seriam necessários cerca de 50 milhões de painéis solares apenas nos EUA.

A complexa cadeia que sustenta a inteligência artificial revela que, além da inovação, a expansão tecnológica exige atenção às suas implicações geopolíticas, ambientais e sociais. Avaliar os custos associados a esse avanço é essencial para orientar decisões públicas e privadas, especialmente diante da tendência de crescimento acelerado da IA.

Fonte: https://theconversation.com/

MEIO AMBIENTE

COP30 em Belém debate uso da inteligência artificial na proteção da Amazônia

Published

on

O Brasil se prepara para sediar, de 10 a 21 de novembro, a COP30, em Belém (PA), primeira conferência do clima realizada na Amazônia. O encontro ocorre em um contexto de pressão global para reduzir emissões e rever a dependência de combustíveis fósseis, com destaque para o papel da tecnologia e da inteligência artificial na proteção da floresta.

Apesar de décadas de políticas públicas e operações de fiscalização, o desmatamento segue em alta e as mudanças climáticas avançam. Nesse cenário, novas ferramentas tecnológicas surgem como aliadas. Estudo da PwC de 2019 estimou que a aplicação de IA poderia reduzir em até 4% as emissões globais de gases de efeito estufa, o equivalente a 2,4 bilhões de toneladas de CO₂, soma próxima às emissões conjuntas de Austrália, Canadá e Japão naquele ano.

Atualmente, sistemas de IA conseguem prever áreas de risco de desmatamento com semanas de antecedência. Segundo Douglas Torres, especialista em IA e CEO da Yup.AI, “estamos testemunhando o surgimento de uma nova camada de proteção ambiental: algoritmos que preveem a destruição antes que ela aconteça”. Ele acrescenta que, com essas ferramentas, “é como se a floresta tivesse sensores nos olhos, ouvidos digitais e alertas automáticos para cada ameaça”.

O uso da tecnologia vai além do monitoramento do território. Plataformas estão sendo aplicadas para rastrear cadeias produtivas ilegais, detectar fraudes em créditos de carbono, analisar contratos públicos e otimizar rotas de fiscalização. Pesquisadores do Instituto de Pesquisa Ambiental da Amazônia (Ipam), em parceria com o Banco Mundial, lançaram a plataforma Floresta em Risco, que cruza dados macroeconômicos e de governança local para prever a perda de vegetação nativa. O modelo identifica tanto a quantidade de desmatamento esperada quanto os locais de maior vulnerabilidade, além de apontar possíveis vazamentos, quando a derrubada é apenas transferida para outra região.

A expectativa é de que a COP30 fortaleça o debate sobre a integração entre tecnologia, justiça climática e responsabilidade coletiva. Especialistas ressaltam que os avanços tecnológicos não substituem políticas públicas e a ação coordenada de governos, empresas e sociedade civil. A conferência será oportunidade para consolidar compromissos e abrir espaço para a bioeconomia, que pode gerar alternativas sustentáveis de desenvolvimento para a região amazônica.

Continue Reading

Tecnologia

SaferNet lança formação sobre supervisão e controle parental na internet a partir de 10 de setembro

Published

on

A SaferNet Brasil inicia nesta quarta-feira, 10 de setembro, uma formação continuada online, em parceria com o Google, voltada a pais, responsáveis e educadores para conscientização sobre supervisão familiar e uso de ferramentas de controle parental na internet; o lançamento ocorre entre 19h e 20h (horário de Brasília), no canal da organização no YouTube, com inscrição prévia e emissão de certificado ao final da transmissão.

O programa de abertura, intitulado “Famílias Conectadas: uma conversa sobre supervisão familiar e ferramentas de controle parental”, marca o início de uma série de conteúdos que serão publicados ao longo do semestre. A formação abordará introdução à supervisão familiar, noções de privacidade e segurança, abandono digital de crianças e adolescentes e a aplicação prática de controles parentais. A condução será feita pelas psicólogas Juliana Cunha, diretora de Projetos Especiais da SaferNet, e Bianca Orrico, que atua no canal de ajuda e na área de Educação da entidade.

Segundo pesquisa do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br), três em cada dez pais utilizam ferramentas de mediação parental, proporção que cai para 24% quando a pergunta trata de recursos que limitam o tempo de tela. Outro levantamento, encomendado pelo Google, indica que 17% dos pais no Brasil usam ferramentas de controle. Esses dados orientam a proposta da formação ao apontar lacunas na adoção de mecanismos de acompanhamento do uso da internet por crianças e adolescentes.

A agenda prevê transmissões e materiais distribuídos ao longo do semestre, com orientações práticas sobre configuração de recursos e mediação no ambiente doméstico e escolar. Os organizadores indicam que as inscrições são feitas por formulário online e que os participantes receberão instruções para obtenção de certificado após a live de abertura. A programação tem foco em capacitar famílias e educadores a incorporar rotinas de supervisão e a utilizar ferramentas disponíveis em plataformas e dispositivos.

Continue Reading

Tecnologia

Vazamento expõe 370 mil conversas da Grok no Google

Published

on

Mais de 370 mil conversas de usuários com a Grok, inteligência artificial desenvolvida pela xAI de Elon Musk, ficaram acessíveis em mecanismos de busca como o Google, revelando informações pessoais e conteúdos sensíveis. A falha foi identificada após reportagem da Forbes, que apontou que documentos, planilhas e imagens compartilhadas com o chatbot passaram a ser exibidos publicamente sem que os usuários fossem notificados de que suas interações poderiam se tornar públicas.

O problema ocorre quando o usuário clica no botão de compartilhamento da plataforma. A ação gera um link exclusivo para dividir a conversa por e-mail ou mensagem, mas essas mesmas URLs também são indexadas por buscadores. Dessa forma, conteúdos que deveriam permanecer privados se tornaram acessíveis a qualquer pessoa. Entre as informações encontradas estão dados pessoais e até instruções da IA para atividades ilícitas, como a produção de drogas, armas e softwares maliciosos. Em um dos casos, a Grok chegou a apresentar um plano detalhado para o assassinato de Elon Musk.

As diretrizes da empresa proíbem o uso do sistema para finalidades que promovam danos graves à vida humana, incluindo o desenvolvimento de armas químicas, biológicas ou de destruição em massa. Apesar disso, o vazamento mostrou que tais conteúdos foram produzidos, compartilhados e tornados públicos pela própria plataforma.

Este não é o primeiro episódio em que um chatbot de grande porte expõe interações de usuários. No início de agosto, conversas do ChatGPT, da OpenAI, também apareceram no Google. Após críticas, a empresa alterou suas políticas de privacidade e declarou estar comprometida em reforçar medidas de segurança. No caso da Grok, até o momento a xAI não se pronunciou sobre o incidente.

A exposição coloca em debate a segurança dos sistemas de inteligência artificial e os riscos à privacidade de milhões de usuários. Especialistas destacam que a indexação de conversas em buscadores amplia as chances de uso indevido de dados pessoais, além de levantar questionamentos sobre a responsabilidade das empresas que desenvolvem e operam essas tecnologias.

Continue Reading

Tendência