Advertisement · 728 × 90
#
Hashtag
#Infnciaejuventude
Advertisement · 728 × 90
> _Aviso de conteúdo sensível: este texto inclui descrições de comentários sexuais envolvendo menores de idade_ Conteúdos que erotizam e sexualizam crianças e adolescentes seguem em circulação nas plataformas digitais na primeira semana de funcionamento do ECA Digital, conhecido popularmente como Lei Felca. A Lupa encontrou publicações que expõem menores a comentários com teor sexual no Facebook, Instagram, TikTok e Kwai, incluindo anúncios pagos, usados para aumentar o alcance nas redes. Entre os dias 17 (dia que a lei entrou em vigor) e 24 de março, foram identificados cinco perfis com publicações impulsionadas na Biblioteca de Anúncios da Meta (empresa que congrega o Instagram, Facebook, Threads e WhatsApp) com a promessa de “conteúdos vazados” de “novinhas, estudantes e incesto”. A monetização desse tipo de conteúdo é proibida pelo ECA Digital. Antes de serem divulgados nas redes, a Meta aprova quais anúncios podem circular. > Art. 23. São vedados aos provedores de aplicações de internet a monetização e o impulsionamento de conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva ou em contexto próprio do universo sexual adulto. No Kwai e no TikTok, vídeos de adolescentes e crianças publicados após a vigência da lei foram alvo de perfis predatórios. Em um destes conteúdos, publicado no dia 21, constam comentários como “go_zei” e “delicinha. Princesinha linda”. Eles indicam que, apesar de o ECA Digital ter sido criado para evitar a exploração sexual infantil, perfis de menores de idade continuam vulneráveis a esse tipo de abordagem, ao menos nesta primeira semana. Segundo a professora e pesquisadora em comunicação na Universidade de São Paulo (USP), Issaaf Karhawi, isso mostra como algoritmos de plataformas digitais cumprem um papel facilitador da exploração sexual infantil, mesmo após a lei. “Os algoritmos, quando a gente pensa na lógica de compartilhamento acelerado, potencializam essa circulação. É uma discussão urgente a ser feita”, declarou. Para a psicóloga e co-fundadora da organização de educação digital com foco em proteção à criança Aldear, Nay Macêdo, a existência de comentários dias após a lei entrar em vigor indica uma insuficiência para lidar com o problema. “A velocidade da violência é muito maior que a velocidade da regulação, um ponto crítico, que nos faz reforçar a importância dos adultos cuidadores como primeira linha de defesa desses direitos”, afirmou. ## **Anúncios comercializam conteúdos de menores** Nos anúncios identificados na Biblioteca de Anúncios da Meta, garotas são retratadas com os rostos expostos e descritas como “estudantes”, parte delas, inclusive, em ambiente escolar. As legendas direcionam o usuário para grupos no aplicativo de mensagens Telegram, que recebem nomes em alusão a menores de idade, como “grupo novinha sub18” e “estudante”. Anúncios e grupos semelhantes já haviam sido identificados pela **Lupa** em agosto, dias após o influenciador Felipe Bressanim Pereira, mais conhecido como Felca, expor como os algoritmos de plataformas digitais permitiram que conteúdos de crianças e adolescentes fossem alvo de criminosos e perfis predatórios. Na ocasião, foram encontrados 15 perfis com anúncios que erotizavam menores de idade — um volume três vezes superior ao identificado na busca atual. Para evadir a fiscalização das plataformas, os perfis codificam as legendas com caracteres alfanuméricos, dificultando a identificação automatizada. Em nota à Lupa, a Meta (empresa dona do Facebook, Instagram, Threads e WhatsApp) afirmou que age “em total conformidade com a legislação vigente” e que atua de forma proativa para identificar conteúdos que violem as regras. “Entre outubro e dezembro de 2025, cerca de 97% das remoções no Instagram e do Facebook ocorreram por detecção de nossas próprias equipes, antes de qualquer denúncia”. Ao direcionar os usuários para o Telegram, os anúncios levam a uma outra dinâmica, com um risco maior de exposição, avaliou Karhawi. “O ECA prevê proteger a integridade dos menores. Mas como fazer isso nos grupos que são fechados?”, questiona a pesquisadora. Para ela, esse papel cabe às plataformas. “É possível desenvolver algoritmos que diminuam o alcance de conteúdos sexualizados”, pontuou. A Lupa também entrou em contato com o Telegram para questionar as medidas adotadas para evitar esse tipo de prática da plataforma. Em comunicado, a plataforma afirmou que existe uma dificuldade de monitorar conversas, pois os chats são criptografados.“ Grupo no Telegram promete conteúdos de menores de idade. Foto: Link que leva para o Telegram ## **Vídeos de ‘dancinhas’ são alvo nas plataformas de vídeos curtos** No Kwai e no TikTok, onde os vídeos curtos de danças são populares, a Lupa verificou que a ferramenta de busca de ambas as plataformas permitem localizar conteúdos que expõem crianças e adolescentes, embora o ECA Digital exija medidas para prevenir o acesso de adultos a esse tipo de material. > Art. 6º Os fornecedores de produtos ou serviços de tecnologia da informação direcionados a crianças e a adolescentes ou de acesso provável por eles deverão tomar medidas razoáveis desde a concepção e ao longo da operação de suas aplicações, com o objetivo de prevenir e mitigar riscos de acesso, exposição, recomendação ou facilitação de contato com os seguintes conteúdos, produtos ou práticas: > > I – exploração e abuso sexual; > > II – violência física, intimidação sistemática virtual e assédio. Publicados antes de o ECA Digital entrar em vigor, parte dos vídeos analisados foi alvo de interações predatórias. “Você vai matar os machos de tanto bater”: comentário feito no dia 2 de março. Em outra publicação, de 18 de março, um perfil adulto utiliza o termo “mulherão” acompanhado de emojis de cunho sexual. Em fevereiro, a jovem, que soma mais de 20 mil seguidores no TikTok, publicou fotos celebrando seu aniversário de 15 anos. Um dos perfis identificados demonstra como a exposição de menores extrapola fronteiras. Um dos perfis, pertencente a uma garota com mais de 10 mil seguidores, tem comentários em inglês e espanhol em vídeos nos quais ela aparece dançando. Mensagens como “Hola, bonita. Por favor cásate conmigo” e “Beautiful” aparecem em 2025. Outra, que diz “Hola que tal eres muy linda, hermosa”, foi publicada no dia 16 de março em um vídeo de dezembro, no qual a garota aparece de pijama. O intervalo de três meses entre o post e o comentário reforça que perfis predatórios buscam gravações antigas para estabelecer contato e realizar abordagens inadequadas independentemente da data de publicação. Em um dos vídeos, a menina aparece dançando com uniforme escolar. O acesso de perfis predatórios a conteúdos de crianças e adolescentes tende a acontecer por incentivo do próprio algoritmo das plataformas, como demonstrou o influenciador Felca em agosto. Na área de tecnologia, essa lógica é descrita como “comportamento do algoritmo” — a forma como o sistema processa dados para tomar decisões. Nas redes sociais, o mecanismo identifica as preferências do usuário a partir de visualizações e interações para, então, hierarquizar o que é exibido no feed. Para Issaaf Karhawi, a reorganização desses mecanismos pelas plataformas é fundamental para criar filtros mais eficazes de proteção a menores. “No desenho do Instagram, que a gente tem inclusive dois feeds – de quem estamos seguindo e o algorítmico — já existe processo de hierarquia, moderação e filtragem das plataformas”, explica a pesquisadora. Já na avaliação de Macêdo, da Aldear, a presença desses conteúdos não indica necessariamente uma falha imediata do ECA Digital, mas sim a baixa responsabilidade operacional das plataformas. “Elas precisam ser pressionadas a agir, assim como aconteceu com a indústria do tabaco ou do cinto de segurança”, compara. Ainda não está claro se houve mudanças estruturais nos algoritmos após a vigência do ECA Digital. Desde que a lei entrou em vigor, o TikTok anunciou atualizações para ampliar a privacidade de usuários menores de 16 anos. A partir do dia 17 de março, todas as contas nessa faixa etária passaram a ser privadas por padrão, exigindo autorização dos responsáveis para se tornarem públicas. ## **Impacto no desenvolvimento de crianças e adolescentes** Segundo Macêdo, crianças e adolescentes muitas vezes não reconhecem a violência em situações de abordagem virtual, podendo interpretar comentários predatórios como validação positiva. “O cérebro adolescente não foi feito para lidar com isso. O sistema de recompensa é altamente sensível à validação social. O córtex pré-frontal (responsável pela tomada de decisão) está em desenvolvimento (nesta fase)”, afirma a psicóloga. Para a especialista, a exposição digital faz com que adolescentes passem a medir o próprio valor pelo olhar externo, amplificado no universo digital. “Eles podem entrar em ciclos de validação, risco e vulnerabilidade”, acrescenta. Somado a isso, a lógica atual das plataformas facilita que os conteúdos de menores sejam capturados para “aliciar, extorquir, produzir, armazenar ou disseminar material de abuso”, conforme apontou um estudo do Fundo das Nações Unidas para a Infância (Unicef) publicado este mês. A Lupa identificou exemplos reais dessa disseminação persistente. É o caso de Caroliny Dreher, citada no vídeo do influenciador Felca em agosto. Na época, o perfil da adolescente – que continha vídeos de dança e ofertas de conteúdo “VIP” – foi removido. Apesar disso, suas gravações continuam em circulação por meio de perfis de terceiros. Entre os dias 17 e 24, a Lupa encontrou mais de 30 contas que utilizam o nome e a imagem da garota para replicar o conteúdo original. Busca inclui conteúdos encontrados antes e depois da implementação do “Eca Digital”. “As imagens, os comentários e todo o material mostram que existe, primeiro, uma captura silenciosa. Um estudo da Universidade Oberta da Catalunha junto com a Policia Nacional, por exemplo, fala em 72% das imagens em posse de predadores sexuais sendo retiradas de páginas de familiares”, destacou Macêdo. “Depois, é atribuído um contexto sexualizado ao conteúdo para que, logo após, ocorra a circulação em redes, grupos, listas e espaços de ‘acesso premium’. A distribuição também inclui, como vimos, a linguagem codificada”, concluiu a psicóloga. A Lupa também identificou um perfil em que uma mulher, que se apresenta como mãe de uma menina, publica uma série de conteúdos expondo a filha. A criança aparece em situações habituais: conversando, brincando, dormindo e falando com a câmera. Um dos vídeos, de novembro de 2025, acumula um milhão de visualizações. “Assim eu me apaixono”, comenta um usuário em um vídeo no qual a garota aparece deitada em um colchão. “Quero vê-la sozinha” comenta um usuário com nome masculino em um vídeo onde a menina aparece, de uniforme escolar, com a mãe. “A imagem deixa de ser ‘uma criança dormindo’, ‘dançando’, ‘tirando foto’ e passa a ser tratada como objeto de desejo predatório”, disse Nay Macêdo sobre a configuração do pensamento do assediador. Para ela, o cuidado dos responsáveis começa no entendimento de que nem tudo pode ser publicado nas redes. “Perfis de meninas muitas vezes gerenciados por adultos, na maioria, são seguidos e monitorados por homens com comportamento predatório”, acrescentou. ## **Hashtags e palavras-chave** No X, a Lupa observou uma queda, após a implementação do ECA Digital, nas menções a hashtags usadas para compartilhar ou solicitar conteúdos que exploram sexualmente menores. Dados da ferramenta de monitoramento de redes sociais Meltwater indicam que perfis que costumavam usar essas tags foram excluídos pela plataforma. Na semana anterior à implementação do ECA Digital, entre os dias 10 e 17, a Meltwater identificou cinco mil menções a duas hashtags utilizadas por assediadores e pedófilos. A quantidade foi reduzida para 4 mil na primeira semana da lei, entre os dias 17 e 24. Plataformas, Estado e pais devem agir juntos, dizem especialistas. Apesar de legislações anteriores ao ECA Digital — como o próprio Estatuto da Criança e do Adolescente (ECA) — já preverem proteção em todos os espaços, incluindo o virtual, a pesquisadora Issaaf Karhawi afirma que a nova lei esclarece como isso deve ser feito na internet. “O ECA Digital intensifica a discussão nesse sentido, deixando as regras muito mais claras e sem manobras”, disse. “Por parte das plataformas, é preciso responder e atender as prerrogativas. Acho que é o ponto central”, pontuou. Para ela, também é necessário que outros atores sociais se responsabilizem pelo problema. “Tem a ver com um enfrentamento multisetorial: uma regulação adequada, responsabilização das plataformas e investimento em educação, espaços facilitados para a denúncia e acolhimento de famílias. É uma abordagem complexa e urgente”. De acordo com o ECA digital, as plataformas devem tomar providências diante das denúncias dos usuários. Com a nova lei, o governo criou o Centro Nacional de Proteção à Criança e ao Adolescente, responsável por receber, classificar e encaminhar denúncias de crimes sexuais contra crianças e adolescentes. O órgão recebe as denúncias diretamente das plataformas e atua a partir delas. “Ao identificar conteúdo criminoso, a plataforma deve removê-lo imediatamente, sem necessidade de ordem judicial prévia, e encaminhar o caso ao Centro, que atuará junto à Polícia Federal para investigar e tomar as medidas cabíveis”, detalhou o MJSP sobre o fluxo da denúncia. Segundo o ECA Digital, no capítulo 15, se uma plataforma não cumprir as medidas, ela pode sofrer sanções que dependem da gravidade do caso. Inicialmente, a empresa pode receber uma advertência, com prazo de até 30 dias para adoção de medidas corretivas. Caso a irregularidade persista ou seja considerada mais grave, podem ser aplicadas multas que chegam a até 10% do faturamento da plataforma no Brasil. Em situações mais severas, a legislação prevê a suspensão temporária das atividades ou até mesmo a proibição do exercício das atividades no país. A definição das penalidades leva em conta fatores como a extensão do dano, a reincidência e a capacidade econômica da empresa. ## **O que dizem as redes** A Lupa entrou em contato com Meta, TikTok, Telegram, Kwai e X para questioná-las sobre as mudanças nas plataformas após o ECA Digital. Apenas as três primeiras responderam até a publicação desta reportagem. A Meta afirmou estar comprometida com a legislação e com a proteção de menores. “Nossas políticas contra exploração sexual, abuso e nudez infantil estão em total conformidade com a legislação vigente. Atuamos de forma proativa para identificar conteúdos que violem essas regras: entre outubro e dezembro de 2025, cerca de 97% dos das remoções no Instagram e do Facebook ocorreram por detecção de nossas próprias equipes, antes de qualquer denúncia”, diz a nota da empresa. Já o TikTok informou que não permite conteúdos que coloquem jovens em risco de danos psicológicos, físicos ou de desenvolvimento, incluindo o compartilhamento, exibição, a promoção ou o envolvimento em abuso ou exploração. “Em nosso Centro de Transparência, publicamos trimestralmente relatórios de moderação. O mais recente, referente ao terceiro trimestre de 2025, aponta que 99,8% dos vídeos que violavam nossas diretrizes de abuso sexual e físico de jovens foram removidos proativamente, e 97,5% deles foram retirados do ar em menos de 24 horas”, informa a nota. Em comunicado, o Telegram disse que não tolera o compartilhamento de materiais de abuso sexual infantil. A plataforma assumiu que existe uma dificuldade de monitorar conversas, pois os chats são criptografados. “Embora nenhuma plataforma criptografada possa monitorar proativamente chats privados, o Telegram processa denúncias de usuários e ONGs para aplicar seus termos de serviço lá. O fato de agentes mal-intencionados precisarem anunciar em outras plataformas significa que eles não conseguem existir publicamente no Telegram como resultado dos nossos esforços de moderação. Somente no ano passado, removemos mais de 952.318 materiais infratores”, disse o Telegram. A **Lupa** segue com o espaço aberto para a resposta do Kwai e X.

ECA Digital: conteúdos de crianças e adolescentes seguem alvo de sexualização nas redes.
- bsapub
apublica.org/2026/04/eca-digital-post...
#Portugus #Direitoshumanos #Exploraosexual #Infnciaejuventude #Violnciasexual

1 1 0 0
Preview
No Colégio Estadual Professor Loureiro Fernandes, escola pública de ensino médio no estado do Paraná, no sul do Brasil, uma aula começa como qualquer outra. O professor abre um aplicativo no celular, levanta o aparelho e tira várias fotos da sala. Em segundos, as imagens são enviadas para um servidor em nuvem, onde um algoritmo de reconhecimento facial detecta o rosto de cada estudante, extrai essas imagens e as compara com um banco de dados de perfis biométricos. O aplicativo LRCO Paraná retorna então uma lista de nomes. Os estudantes identificados nas fotos são marcados como presentes; aqueles que o sistema não encontra são registrados como ausentes. Esse software de reconhecimento facial foi projetado para identificar quase 1 milhão de crianças no Paraná todos os dias. Desde 2023, a tecnologia foi implantada em mais de 1.700 escolas do estado, substituindo a tradicional chamada por um sistema automatizado de identificação feito em poucos instantes. Mas o sistema pode cometer erros. Ingrid Adam, orientadora educacional da escola, diz que já aprendeu a esperar por eles. Certa manhã, uma estudante que estava sentada em sala descobriu, no aplicativo estudantil Escola Paraná, que havia sido registrada como ausente. Quando Adam levantou a questão com o professor, a resposta foi familiar. “Eu não estou marcando ela como ausente. Estou usando a chamada por câmera e o sistema disse que estava tudo certo.” Se um estudante percebe um erro, pode corrigi-lo com o professor. Até lá, porém, vale o registro feito pelo sistema. Para alguns estudantes, uma ausência falsa é apenas um incômodo burocrático. Para outros, pode ameaçar o acesso de suas famílias a programas sociais. No Brasil, a elegibilidade para o programa Bolsa Família depende, em parte, da frequência escolar. No Paraná, esses registros agora são gerados em grande medida por um algoritmo. ## **Tecnologia europeia, vigilância no Brasil** A tecnologia de reconhecimento que torna isso possível foi desenvolvida na Europa, pela empresa eslovaca Innovatrics. Embora não seja totalmente proibido na União Europeia, usos comparáveis de reconhecimento facial em escolas foram barrados diversas vezes por tribunais e autoridades regulatórias. Nessas decisões, concluiu-se que crianças não podem consentir de forma significativa com vigilância biométrica em sala de aula, segundo as regras de proteção de dados do GDPR. Mas no Brasil, onde a Agência Nacional de Proteção de Dados (ANPD) só começou a aplicar sanções em 2023 — e impôs poucas penalidades até agora — softwares semelhantes agora podem escanear centenas de milhares de crianças todos os dias. Defensores da privacidade chamam isso de arbitragem regulatória: empresas europeias exportando ferramentas de vigilância que reguladores do próprio continente consideraram invasivas demais para uso em crianças. Em abr.2025, o promotor Marcos José Porto Soares, do Ministério Público do Paraná, apresentou a primeira ação judicial contra o sistema, argumentando que ele viola a legislação brasileira. O caso ainda está em andamento. Enquanto isso, a tecnologia se espalha para outros estados brasileiros, como Rio de Janeiro e São Paulo, e até começa a voltar em direção à Europa. ## **Resistência na Europa** Em agosto de 2019, a Autoridade Sueca de Proteção de Dados multou o conselho escolar da cidade de Skellefteå, uma pequena localidade no norte da Suécia. Uma escola local havia testado um sistema de presença baseado em reconhecimento facial, desenvolvido por uma empresa finlandesa, para registrar 22 alunos durante três semanas, essencialmente o mesmo princípio que hoje opera em larga escala no Brasil. A autoridade sueca concluiu que o experimento violava o GDPR. Segundo o órgão, monitorar frequência por reconhecimento facial era desproporcional e excessivamente intrusivo. “A frequência pode ser monitorada de outras formas que impliquem menor violação da integridade dos estudantes”, diz a decisão. No centro da análise estava a questão do consentimento. A autoridade destacou que crianças não podem concordar livremente com tecnologias de vigilância em sala de aula. “A relação entre o conselho escolar e os estudantes geralmente envolve um considerável desequilíbrio de poder”, observou o regulador, descrevendo o monitoramento de presença como “uma medida unilateral de controle”. Alguns meses depois, em fevereiro de 2020, um tribunal administrativo em Marselha, na França, chegou a conclusão semelhante. A corte suspendeu dois projetos-piloto que instalariam sistemas de reconhecimento facial em escolas de Nice e Marselha. Os juízes derrubaram o experimento por vários motivos. O governo regional não tinha autoridade legal para implementar o sistema. O consentimento obtido dos estudantes era inválido, devido ao desequilíbrio de poder entre escolas e menores de idade. O governo não demonstrou que o reconhecimento facial era necessário ou atendia a um interesse público substancial. E o sistema biométrico era manifestamente desproporcional, já que havia alternativas menos invasivas, como cartões de acesso. Desde então, a União Europeia passou a regular o uso de reconhecimento facial e tecnologias relacionadas com a introdução da Lei de Inteligência Artificial (EU AI Act), aprovada em 2024. Embora não sejam totalmente proibidos, esses sistemas passaram a ser fortemente regulados em escolas, ainda que ferramentas de registro de presença não estejam explicitamente classificadas como de alto risco. A legislação, no entanto, não se estende ao monitoramento da exportação dessas tecnologias para fora da Europa. ## **Um caminho diferente no Brasil** Do lado de cá do Atlântico, autoridades adotaram esses sistemas, vendo neles motores de desenvolvimento e eficiência. O Paraná é o quinto estado mais populoso do Brasil, com quase 12 milhões de habitantes espalhados por áreas agrícolas, cidades industriais e pela extensa capital Curitiba. A rede pública estadual atende mais de um milhão de estudantes. Em 2019, Renato Feder assumiu o comando da Secretaria de Educação do estado. Empresário do setor de tecnologia, Feder chegou ao cargo com uma visão clara, apresentada anos antes em seu livro “Carregando o Elefante”. Nele, Renato afirma que o sistema educacional brasileiro estaria comprometido por “má gestão e desperdícios inacreditáveis com projetos tolos, ineficiência, excesso de pessoal administrativo e corrupção”. Feder construiu reputação como executivo reformista após ajudar a transformar a pequena empresa de eletrônicos Multilaser em uma das maiores companhias de tecnologia do Brasil. Na educação, tentou aplicar lógica semelhante: padronização, mensuração e uso intensivo de ferramentas digitais. “A tecnologia veio para ficar, para ampliar o conteúdo ensinado em sala de aula”, disse Feder após assumir o cargo. Sob sua liderança, o sistema educacional do Paraná passou por uma ampla digitalização. Entre 2021 e 2024, o estado gastou mais de R$153 milhões em plataformas educacionais privadas, segundo um estudo de pesquisadores da Universidade Federal do Paraná. O Google Classroom se tornou o ambiente digital de aprendizagem do estado. A empresa suíça EF Education First passou a oferecer ensino de inglês por meio da plataforma Inglês Paraná. A empresa australiana Matific criou uma plataforma de matemática. E a empresa americana Quizizz, hoje rebatizada como Wayground, forneceu uma ferramenta de aprendizado baseada em quizzes. A secretaria de educação não parou na digitalização de planos de aula e tarefas. Ela também decidiu digitalizar algo ainda mais básico: determinar quais estudantes estão na sala de aula e quais não estão. A justificativa apresentada não foi uma crise de evasão escolar nem baixos índices de frequência, mas eficiência administrativa. Citando um estudo da OCDE que mostra que professores brasileiros gastam um terço de cada aula em tarefas não pedagógicas, o estado argumentou que automatizar a chamada permitiria recuperar tempo de ensino. Em setembro de 2022, a empresa estatal de tecnologia do Paraná, Celepar, assinou um contrato com a empresa brasileira Valid para o fornecimento de uma “solução tecnológica para identificação de pessoas”. O acordo incluía “reconhecimento biométrico facial por meio de análise de imagens”, além de processamento em nuvem e suporte técnico contínuo. Na prática, o contrato marcou uma mudança: determinar quem está presente na sala de aula deixaria de depender apenas do julgamento do professor — e passaria também pela avaliação de um algoritmo. A escala do projeto era enorme. A cada mês, o sistema deveria processar dados biométricos de até 1 milhão de crianças em infraestrutura de nuvem. As imagens são armazenadas em servidores do governo por um ano. Para fornecer o serviço, a Valid firmou parceria com a Innovatrics, empresa eslovaca de reconhecimento facial cujo software forma o núcleo do sistema de identificação. Em um estudo de caso publicado em seu site, a Innovatrics afirma que sua solução economiza 80% do tempo gasto com chamada em cada turma. E, segundo a empresa, o sistema traz outra vantagem: “os pais podem verificar instantaneamente se seu filho está presente.” ## **A empresa por trás da tecnologia** A Innovatrics, sediada em Bratislava, construiu um negócio global baseado em identificação biométrica com faturamento anual superior a €23 milhões. Desde 2004, a empresa desenvolve softwares que permitem a governos e empresas identificar indivíduos por meio de imagens faciais, impressões digitais ou escaneamento da íris. Seus produtos são usados em programas nacionais de identidade, projetos de registro eleitoral e sistemas de controle de fronteiras em todo o mundo. Segundo a empresa, sua tecnologia já processou dados biométricos de mais de 1 bilhão de pessoas em mais de 80 países. A Innovatrics também recebeu apoio financeiro da União Europeia. Entre 2018 e 2019, a empresa recebeu quase €200 mil em financiamento público em um projeto de pesquisa focado na análise automatizada, classificação e organização de fotografias usando biometria facial. De acordo com informações da própria empresa, a Innovatrics possui escritórios “na maioria dos continentes”, incluindo um no Brasil. Em resposta a um “aumento da demanda na América do Sul”, a empresa abriu seu escritório regional em São Paulo, em setembro de 2021. Caitlin Bishop, que coordena o trabalho sobre tecnologias de vigilância na ONG Privacy International, analisou de perto a implementação do sistema no Paraná. O fato de empresas europeias exportarem tecnologias de reconhecimento facial — cujo uso tem sido contestado na Europa — para outros países onde passam a ser utilizadas é algo que ela descreve como nocivo. Segundo Bishop, a legislação brasileira nem é tão diferente da europeia. “Mas existe um grande problema de aplicação da lei.” Na avaliação dela, não é uma lacuna na legislação formal que permite a implantação da tecnologia nas salas de aula, mas a ausência de fiscalização efetiva. Ao mesmo tempo, a falta de qualquer controle de exportação na AI Act ou em outras regulações europeias criou, segundo Bishop, “uma situação ruim”, que permite que tecnologias “profundamente invasivas” sejam vendidas internacionalmente por empresas europeias. Quando a AI Act estava sendo negociada em Bruxelas, o Parlamento Europeu chegou a defender a proibição desse tipo de exportação. A posição oficial dizia: “é apropriado proibir a exportação” de sistemas cujo uso seja classificado como “inaceitável” pela lei. A proposta, porém, recebeu pouco apoio das outras instituições europeias e foi excluída da versão final da legislação. “A ausência dessas medidas significa que tecnologias proibidas aqui ainda podem ser vendidas e usadas em outros lugares, o que enfraquece nossos valores”, disse Brando Benifei, eurodeputado italiano que apoiou a proibição. “Não deveríamos permitir a exportação e o uso no exterior de sistemas que não permitiríamos em casa.” ## **Pelo menos funciona?** Quando o sistema foi implantado no Paraná, a empresa estatal de tecnologia Celepar o apresentou como eficiente, seguro e claramente benéfico. Em um comunicado à imprensa, a empresa afirmou que professores estavam perdendo “mais de 100 horas por ano” por turma com tarefas administrativas rotineiras como registrar presença. O novo sistema, segundo a Celepar, economizaria dezenas de horas de trabalho dos professores. Professores descreveram uma realidade diferente. Segundo eles, o algoritmo frequentemente leva mais tempo para registrar presença do que levaria inserir as informações manualmente. Erros na identificação de estudantes também são comuns. Esses relatos são corroborados por um estudo independente publicado em 2025 por pesquisadores da Universidade Estadual Paulista (Unesp). Os pesquisadores testaram o sistema em uma escola pública do Paraná e descobriram que ele alcançou uma taxa média de acerto de 91,1%, abaixo do limite de 95% especificado no contrato de aquisição do governo. A verificação de presença, que deveria levar 30 segundos, levou em média dois minutos. A conexão com a internet, a posição dos estudantes e a qualidade da câmera influenciaram o desempenho. Uma pesquisa do APP-Sindicato, um dos sindicatos de professores mais influentes do Paraná, mostrou que oito em cada dez educadores consideram o sistema de reconhecimento facial menos eficaz do que fazer chamada presencialmente. A entidade representa mais de 65 mil professores. Dentro das escolas, o uso do sistema tornou-se irregular. “Todo ano, no início do ano letivo, a Secretaria de Educação nos orienta a registrar os estudantes no banco de dados”, disse Vandré Alexandre, professor e dirigente sindical. “No começo, os professores são obrigados a usar a chamada por reconhecimento facial. Mas depois de um tempo os burocratas param de cobrar.” ## **O risco para benefícios sociais** Os erros do sistema ganham outro peso quando vistos à luz da estrutura de assistência social do Brasil. No programa Bolsa Família, as famílias precisam cumprir certas condições para continuar recebendo transferências de renda, incluindo garantir que seus filhos frequentem regularmente a escola. Estudantes com mais de seis anos devem comparecer a pelo menos três quartos das aulas. Esses registros de frequência agora são gerados, no Paraná, pelo mesmo sistema de reconhecimento facial que marcou a estudante da escola de Ingrid Adam como ausente. A taxa de acerto de 91,1%, documentada em um estudo da UNESP, pode parecer alta. Mas em um estado onde mais de um milhão de crianças podem ser escaneadas diariamente, mesmo uma pequena margem de erro pode afetar dezenas de milhares de registros. A reportagem não encontrou nenhum caso confirmado em que uma ausência falsa tenha levado diretamente à suspensão do Bolsa Família. Mas professores alertam que a possibilidade existe. Élio da Silva, professor de língua portuguesa e filosofia no Paraná, descreveu como dados de frequência podem ser manipulados de forma incorreta. Ele lembra de ter visto instruções internas que levaram escolas a registrar certos alunos como “sem frequência”, mesmo quando haviam estado presentes nas aulas. Em um caso, um estudante do sétimo ano com apenas três faltas foi excluído dos registros oficiais de frequência até depois de os dados federais de educação já terem sido compilados. “Eles escreveram que esse aluno não tinha frequência”, disse da Silva, “mesmo ele estando na minha aula”. Ele não conseguiu apontar um caso confirmado em que erros desse tipo tenham levado à suspensão de pagamentos do Bolsa Família. Mas alertou que, se os bancos de dados de frequência algum dia forem cruzados com sistemas de assistência social, um aluno registrado erroneamente como ausente poderia parecer, no papel, como se não estivesse frequentando a escola. “Pode acontecer”, disse. Caitlin Bishop, da Privacy International, afirmou que mesmo a possibilidade de tal ligação já levanta preocupações sérias. “A relação com o Bolsa Família tem sido preocupante”, disse ela, apontando os riscos que surgem quando dados de frequência, especialmente quando imprecisos ou mal administrados, se entrelaçam com o acesso a benefícios sociais. ## **Desafio judicial** Essas preocupações acabaram chegando aos tribunais. Em abril de 2025, o Ministério Público do Paraná entrou com uma ação civil contra o governo do estado, a Celepar e a empresa contratada Valid, alegando violações à Lei Geral de Proteção de Dados (LGPD). Marcos José Porto Soares, o promotor responsável pelo caso, afirmou que foi a primeira vez que seu gabinete processou o governo estadual por supostas violações da lei de proteção de dados. Uma das questões em disputa é o próprio consentimento. A Investigate Europe confirmou com a Secretaria de Educação do Paraná que uma versão anterior do formulário de matrícula dos estudantes não permitia que os pais recusassem o uso das imagens de seus filhos no programa de reconhecimento facial. A secretaria afirmou que a falha já foi corrigida. A Investigate Europe não conseguiu verificar essa mudança de forma independente. Em mai.2025, um juiz negou o pedido do Ministério Público para suspender imediatamente o sistema. A corte afirmou que não havia evidência concreta de dano iminente que justificasse uma intervenção urgente. A decisão também observou que interromper o sistema poderia exigir a adoção rápida de um método alternativo de registro de presença, com possíveis impactos sobre os gastos públicos. Em setembro, o Ministério Público contestou formalmente essa decisão, argumentando que a política não possui base legal clara em lei ou regulamento. O caso segue em andamento, com uma decisão esperada para o primeiro semestre de 2026. A Innovatrics não respondeu ao pedido de comentário até a publicação desta reportagem, nem o ex-secretário estadual de Educação Renato Feder. A Valid se recusou a comentar. A Celepar afirmou que “permanece comprometida com a modernização da educação pública do estado por meio da transformação digital” e disse que “monitora continuamente o feedback dos professores para aprimorar o algoritmo e a interface da tecnologia”. A empresa afirmou ainda que existem “múltiplos mecanismos de segurança” para garantir que a elegibilidade a benefícios sociais não seja afetada pelo sistema, incluindo a possibilidade de realizar alterações manuais e correções retroativas. A Secretaria de Educação do Paraná afirmou que o sistema está em conformidade com a lei brasileira de proteção de dados. Informou também que “antes da implementação da solução foi elaborado um Relatório de Impacto à Proteção de Dados”. Sobre o processo em andamento, a secretaria declarou que “o caso ainda está sob análise judicial e, até o momento, não houve decisão da Justiça”. Sobre a ação movida pelo Ministério Público, a Celepar declarou: “A empresa sustenta que todas as atividades de tratamento de dados são conduzidas em estrita conformidade com a Lei Geral de Proteção de Dados. A Celepar está colaborando ativamente com o MPPR para demonstrar os protocolos de segurança, a criptografia de dados e as justificativas de interesse público que fundamentam o projeto.” ## **Um sistema em expansão** Apesar do aumento das reclamações de professores e da abertura de processos judiciais, o Paraná continuou a usar tecnologia de reconhecimento facial em suas salas de aula. No início de setembro do ano passado, o estado prorrogou o contrato por mais um ano, até set.2026. Enquanto o caso judicial se desenrola, a Innovatrics continuou promovendo sua tecnologia de vigilância escolar em outros países. No verão de 2023, um representante da empresa se reuniu com autoridades do Ministério da Educação do Chile. Segundo uma nota interna do encontro, o representante defendeu o uso nacional de reconhecimento facial para identificar crianças em escolas e jardins de infância, citando a implantação em mais de mil escolas brasileiras. Um representante da empresa NutreChile, envolvida no piloto proposto, disse à Investigate Europe que o projeto nunca chegou a acontecer, sem explicar os motivos. Dentro do Brasil, o modelo se espalhou. Segundo a InternetLab, sete dos 27 estados brasileiros já utilizam tecnologia de reconhecimento facial em escolas, enquanto outros consideram implantar sistemas semelhantes. “O Paraná foi um modelo para outros estados”, disse Bishop. “Encontramos um estado que copiou quase integralmente o edital de licitação do Paraná.” Menos visivelmente, a tecnologia também começou a viajar na direção oposta — de volta para a Europa. Em 2024, o governo do Paraná anunciou que seu sistema de reconhecimento facial havia sido exportado para Portugal. O software foi testado durante três meses na United Lisbon International School, uma instituição privada que atende estudantes de cerca de 50 países. Segundo comunicado do governo, o projeto-piloto foi “aprovado pela direção da escola”. Procurada, a proprietária da escola, a empresa britânica Duke Education, não comentou o teste anterior, afirmando apenas: “A escola não utiliza essa ferramenta.” Após questionamentos da Investigate Europe, a autoridade portuguesa de proteção de dados anunciou que abriria uma investigação oficial. A Celepar confirmou que nenhum contrato permanente foi assinado em Portugal — pelo menos por enquanto.

Sistema de reconhecimento facial monitora alunos no Brasil.
- bsapub
apublica.org/2026/03/reconhecimento-f...
#Portugus #Infnciaejuventude #IntelignciaArtificial #Justia #Tecnologia

0 0 0 0