Connect with us

Tecnologia

SaferNet lança formação sobre supervisão e controle parental na internet a partir de 10 de setembro

Published

on

A SaferNet Brasil inicia nesta quarta-feira, 10 de setembro, uma formação continuada online, em parceria com o Google, voltada a pais, responsáveis e educadores para conscientização sobre supervisão familiar e uso de ferramentas de controle parental na internet; o lançamento ocorre entre 19h e 20h (horário de Brasília), no canal da organização no YouTube, com inscrição prévia e emissão de certificado ao final da transmissão.

O programa de abertura, intitulado “Famílias Conectadas: uma conversa sobre supervisão familiar e ferramentas de controle parental”, marca o início de uma série de conteúdos que serão publicados ao longo do semestre. A formação abordará introdução à supervisão familiar, noções de privacidade e segurança, abandono digital de crianças e adolescentes e a aplicação prática de controles parentais. A condução será feita pelas psicólogas Juliana Cunha, diretora de Projetos Especiais da SaferNet, e Bianca Orrico, que atua no canal de ajuda e na área de Educação da entidade.

Segundo pesquisa do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Cetic.br), três em cada dez pais utilizam ferramentas de mediação parental, proporção que cai para 24% quando a pergunta trata de recursos que limitam o tempo de tela. Outro levantamento, encomendado pelo Google, indica que 17% dos pais no Brasil usam ferramentas de controle. Esses dados orientam a proposta da formação ao apontar lacunas na adoção de mecanismos de acompanhamento do uso da internet por crianças e adolescentes.

A agenda prevê transmissões e materiais distribuídos ao longo do semestre, com orientações práticas sobre configuração de recursos e mediação no ambiente doméstico e escolar. Os organizadores indicam que as inscrições são feitas por formulário online e que os participantes receberão instruções para obtenção de certificado após a live de abertura. A programação tem foco em capacitar famílias e educadores a incorporar rotinas de supervisão e a utilizar ferramentas disponíveis em plataformas e dispositivos.

Assessoria

Headscon Acre lança Hacka Heads, desafio de inovação em saúde que distribuirá R$ 10 mil em prêmios

Published

on

O Instituto Gamecon acaba de abrir as inscrições para o Hacka Heads – Hackathon de Inovação e Gamificação em Saúde, que integra a programação oficial da Headscon Acre 2025, evento que acontece entre os dias 18, 19 e 20 de novembro, no SESC Bosque, em Rio Branco (AC).

Com o apoio da Universidade Federal do Acre (UFAC) e da Liga Acadêmica de Medicina de Inovação e Tecnologia em Saúde (LAMITS), o desafio convida estudantes e profissionais das áreas de tecnologia, saúde, negócios e design a desenvolverem soluções criativas que possam gerar impacto positivo na qualidade de vida e na gestão em saúde.

A participação é gratuita e as inscrições podem ser feitas até o dia 5 de novembro, às 12h (horário do Acre), pelo link disponível no Instagram oficial da Headscon (@headsconbr).

Durante o processo, os inscritos participam de curso preparatório, mentorias e prova de seleção. As equipes classificadas seguem para o hackathon presencial, de 14 a 16 de novembro, no Sesc Bosque, em Rio Branco. O encerramento será com o Pitch Final, no dia 20 de novembro, no auditório da Headscon Acre 2025.

Os vencedores dividirão R$ 10 mil em prêmios, além de reconhecimento e oportunidades de incubação de projetos e integração à LAMITS/UFAC.

Mais do que uma competição, o Hacka Heads representa a conexão entre educação, tecnologia e inovação, reforçando o papel do Acre como um dos polos da economia criativa brasileira.

SERVIÇO — HEADSCON ACRE 2025

Data: 18, 19 e 20 de novembro de 2025
Local: Sesc Bosque, Rio Branco (AC)
Mais informações: www.headscon.com.br
Instagram: @headsconbr
Inscrições para o Hacka Heads: link disponível no Instagram da Headscon

Continue Reading

MEIO AMBIENTE

COP30 em Belém debate uso da inteligência artificial na proteção da Amazônia

Published

on

O Brasil se prepara para sediar, de 10 a 21 de novembro, a COP30, em Belém (PA), primeira conferência do clima realizada na Amazônia. O encontro ocorre em um contexto de pressão global para reduzir emissões e rever a dependência de combustíveis fósseis, com destaque para o papel da tecnologia e da inteligência artificial na proteção da floresta.

Apesar de décadas de políticas públicas e operações de fiscalização, o desmatamento segue em alta e as mudanças climáticas avançam. Nesse cenário, novas ferramentas tecnológicas surgem como aliadas. Estudo da PwC de 2019 estimou que a aplicação de IA poderia reduzir em até 4% as emissões globais de gases de efeito estufa, o equivalente a 2,4 bilhões de toneladas de CO₂, soma próxima às emissões conjuntas de Austrália, Canadá e Japão naquele ano.

Atualmente, sistemas de IA conseguem prever áreas de risco de desmatamento com semanas de antecedência. Segundo Douglas Torres, especialista em IA e CEO da Yup.AI, “estamos testemunhando o surgimento de uma nova camada de proteção ambiental: algoritmos que preveem a destruição antes que ela aconteça”. Ele acrescenta que, com essas ferramentas, “é como se a floresta tivesse sensores nos olhos, ouvidos digitais e alertas automáticos para cada ameaça”.

O uso da tecnologia vai além do monitoramento do território. Plataformas estão sendo aplicadas para rastrear cadeias produtivas ilegais, detectar fraudes em créditos de carbono, analisar contratos públicos e otimizar rotas de fiscalização. Pesquisadores do Instituto de Pesquisa Ambiental da Amazônia (Ipam), em parceria com o Banco Mundial, lançaram a plataforma Floresta em Risco, que cruza dados macroeconômicos e de governança local para prever a perda de vegetação nativa. O modelo identifica tanto a quantidade de desmatamento esperada quanto os locais de maior vulnerabilidade, além de apontar possíveis vazamentos, quando a derrubada é apenas transferida para outra região.

A expectativa é de que a COP30 fortaleça o debate sobre a integração entre tecnologia, justiça climática e responsabilidade coletiva. Especialistas ressaltam que os avanços tecnológicos não substituem políticas públicas e a ação coordenada de governos, empresas e sociedade civil. A conferência será oportunidade para consolidar compromissos e abrir espaço para a bioeconomia, que pode gerar alternativas sustentáveis de desenvolvimento para a região amazônica.

Continue Reading

Tecnologia

Vazamento expõe 370 mil conversas da Grok no Google

Published

on

Mais de 370 mil conversas de usuários com a Grok, inteligência artificial desenvolvida pela xAI de Elon Musk, ficaram acessíveis em mecanismos de busca como o Google, revelando informações pessoais e conteúdos sensíveis. A falha foi identificada após reportagem da Forbes, que apontou que documentos, planilhas e imagens compartilhadas com o chatbot passaram a ser exibidos publicamente sem que os usuários fossem notificados de que suas interações poderiam se tornar públicas.

O problema ocorre quando o usuário clica no botão de compartilhamento da plataforma. A ação gera um link exclusivo para dividir a conversa por e-mail ou mensagem, mas essas mesmas URLs também são indexadas por buscadores. Dessa forma, conteúdos que deveriam permanecer privados se tornaram acessíveis a qualquer pessoa. Entre as informações encontradas estão dados pessoais e até instruções da IA para atividades ilícitas, como a produção de drogas, armas e softwares maliciosos. Em um dos casos, a Grok chegou a apresentar um plano detalhado para o assassinato de Elon Musk.

As diretrizes da empresa proíbem o uso do sistema para finalidades que promovam danos graves à vida humana, incluindo o desenvolvimento de armas químicas, biológicas ou de destruição em massa. Apesar disso, o vazamento mostrou que tais conteúdos foram produzidos, compartilhados e tornados públicos pela própria plataforma.

Este não é o primeiro episódio em que um chatbot de grande porte expõe interações de usuários. No início de agosto, conversas do ChatGPT, da OpenAI, também apareceram no Google. Após críticas, a empresa alterou suas políticas de privacidade e declarou estar comprometida em reforçar medidas de segurança. No caso da Grok, até o momento a xAI não se pronunciou sobre o incidente.

A exposição coloca em debate a segurança dos sistemas de inteligência artificial e os riscos à privacidade de milhões de usuários. Especialistas destacam que a indexação de conversas em buscadores amplia as chances de uso indevido de dados pessoais, além de levantar questionamentos sobre a responsabilidade das empresas que desenvolvem e operam essas tecnologias.

Continue Reading

Tendência