Advertisement · 728 × 90
#
Hashtag
#Intelignciaartificial
Advertisement · 728 × 90
Original post on ursal.zone

Por uma nova estratégia para terras raras e IA.
- bsoplvr
outraspalavras.net/tecnologiaemdisputa/por-...
#TecnologiaemDisputa #Bigtechs #Capa #China #Dataprev #Intelignciaartificial #Lixiviao #Meioambiente #Microsoft #Minerao #Mineraodeterrasraras […]

0 0 0 0
Preview
Os donos da IA também querem mandar no que você compra | Intercept Brasil Modelos de inteligência artificial rompem a lógica do e-commerce e preparam-se para aproveitar conversas e interações com usuários para induzir compras.

Os donos da IA também querem mandar no que você compra.
- bsintcpt
www.intercept.com.br/2026/04/03/donos-da-ia-m...
#Notcias #Bigtechs #Consumo #Intelignciaartificial

0 0 0 0
Uma real economia política da tecnologia: réplica a Morozov

Uma real economia política da tecnologia: réplica a Morozov .
- bsbtpo
blogdaboitempo.com.br/2026/04/02/uma-real-econ...
#Colunas #Automaoeofuturodotrabalho #Capitalismodevigilncia #Intelignciaartificial

0 0 0 0
Uma real economia política da tecnologia: réplica a Morozov

Uma real economia política da tecnologia: réplica a Morozov .
- bsbtpo
blogdaboitempo.com.br/2026/04/02/uma-real-econ...
#Colunas #Automaoeofuturodotrabalho #Capitalismodevigilncia #Intelignciaartificial

0 0 0 0
Original post on ursal.zone

Finanças globais: vem aí nova tempestade.
- bsoplvr
outraspalavras.net/mercadovsdemocracia/fina...
#MercadoxDemocracia #Acionistas #Altorisco #Aplicaesprivadas #Capitalderisco #DonaldTrump #Economiapoltica #Finanas #FirstBrands #GrandeDepresso […]

0 0 0 0
Original post on ursal.zone

Data centers, gulosos e beberrões.
- bsoplvr
outraspalavras.net/terraeantropoceno/data-c...
#TerraeAntropoceno #Bigtechs #Chatbots #Criseclimtica #DataCenterMap #Datacenters #Falnciahdricamundial #Intelignciaartificial #Pegadahdrica #Recursoshdricos […]

0 0 0 0
Original post on ursal.zone

IA: Como a China está vencendo.
- bsoplvr
outraspalavras.net/tecnologiaemdisputa/ia-c...
#TecnologiaemDisputa #Alibaba #Alibaba7 #China #Chips #Cdigoaberto #DeepSeek #Guerracomercial #Intelignciaartificial #Nvidia #Opensource #OpenAI #Robtica #Samaltman #Sulglobal […]

1 0 0 0
Preview
Entrevista: Como a IA abre caminho para o tecnofascismo | Intercept Brasil Pesquisador da Universidade de Viena defende que tecnologias não são neutras.

Entrevista: Como a IA abre caminho para o tecnofascismo.
- bsintcpt
www.intercept.com.br/2026/03/26/entrevista-co...
#Poder #Tecnologia #Algoritmos #Bigtechs #DonaldTrump #Entrevista #EstadosUnidos #Fascismo #Intelignciaartificial

1 1 0 0
Socialismo após a IA

Socialismo após a IA .
- bsbtpo
blogdaboitempo.com.br/2026/03/23/socialismo-ap...
#Colunas #Automaoeofuturodotrabalho #Capitalismodevigilncia #Intelignciaartificial

0 0 0 0
No Brasil, cerca de 140 milhões de mensagens são trocadas por dia apenas com o ChatGPT, segundo a OpenIA, responsável pela tecnologia de Inteligência Artificial (IA) que destaca que o país está entre os três que mais utilizam o recurso no mundo. Esse uso já se reflete nos campos do trabalho, da informação e do aprendizado. Mas o que acontece quando a IA passa a mediar também o campo simbólico, espiritual e religioso? Nesta temporada, _Diálogos para entender o que é real,_ o Pauta Pública convida o acadêmico e pastor Valdinei Ferreira para falar sobre o atual cenário de uso da IA relacionado à fé, desde usuários que acreditam estar de fato conversando com uma consciência de outra dimensão, até as situações mais corriqueiras, como a utilização da IA para criar sermões e pregações que são reproduzidas por pastores nas igrejas. Na entrevista ele fala como tem sido a adaptação para estes novos tempos e aponta os principais desafios e limites das tecnologias em relação às vivências humanas. De acordo Ferreira, o grande desafio é ajudar as pessoas a entenderem que existe um viés e que é preciso formar algum tipo de filtro crítico para que elas não sejam manipuladas pelas ferramentas de IA.” É difícil de entender e conseguir prever exatamente como as próprias igrejas e lideranças vão se posicionar em relação a isso […] e a gente tem uma falta de clareza de como as respostas são geradas. Então é bem difícil prever se isso pode recrudescer ainda mais o fundamentalismo.” Leia os principais pontos da conversa e ouça o podcast completo abaixo. __ __ ## EP 208 A fé que move algoritmos 20 de março de 2026 · Pastor e acadêmico, Valdinei Ferreira, fala sobre o encontro entre fé e inteligência artificial __ __ 0:00 -:– __15 __15 ______ ____ Veja mais episódios desta série **Você escreveu****um artigo****sobre como alguns pastores já utilizam a inteligência artificial para criar sermões, e como alguns fiéis também já consultam ferramentas como o ChatGPT, como uma espécie de oráculo. Gostaria de saber como a inteligência artificial pode transformar a experiência religiosa?** Eu tenho a impressão que [a IA] está transformando e transformará ainda mais a experiência religiosa. Há muitas frentes ou direções, mas ainda é difícil a gente conseguir mapear. Uma delas é o uso que os religiosos fazem da inteligência artificial para elaboração do conteúdo, seja do sermão, de outras orientações, uma fonte de consulta. Isso é parte da performance religiosa, não é a performance toda, porque buscar um sermão, pedir para elaborar um sermão na inteligência artificial é uma parte do sermão, outra parte é entregar esse sermão, performar. Outra é a dos fiéis. A coisa é tão dinâmica e surgem novas aplicações, atualizações. Por exemplo, eu menciono no artigo uma ferramenta PastorsAI, que foi desenvolvida por gente ligada à igreja, à teologia nos Estados Unidos, e é, inclusive, uma ferramenta que eu tenho recomendado também para alguns pastores, não para substituir o sermão. Porque na experiência religiosa, também tem esse elemento da inspiração pessoal, um tipo de jornada muito específica em que a leitura do texto bíblico é mediada pela experiência do pastor e, ao mesmo tempo, pela leitura das necessidades dos ouvintes, da comunidade. E tem a questão do tempo. Existem, de fato, muitos pastores que se dividem entre o trabalho religioso e uma outra atividade profissional. Então, isso pode ser um encurtamento na produção de conteúdo. Mas eu tenho, por exemplo, utilizado essa ferramenta, PastorsAI, que você toma o texto do sermão que você escreveu, sobe e ele gera uma série de produtos a partir do sermão. Por exemplo, um guia de estudos para a comunidade, posts para o Instagram, outras reflexões a partir do sermão e feitas com muita qualidade, com uma interação bíblica, com um diálogo com a própria teologia evangélica protestante. E, nesse sentido, é mais uma ferramenta que encurta e acelera processos. O que envolvia, por exemplo, ter uma equipe de comunicação. Essa equipe já fica mais reduzida. **Digamos que eu quero me comunicar com Deus, então vou fazer uma pergunta ali para o ChatGPT esperar que Deus se comunique comigo a partir dessa IA. Será que isso não pode endurecer ainda mais, por exemplo, o fundamentalismo religioso, aquela ideia das verdades absolutas, ou uma tendência desse cristianismo que vai ali mais para a direita?** É possível. Acho que o grande desafio é conseguir dialogar e ajudar as pessoas a entenderem que existe o viés, que você pode ter esse tipo de direcionamento e formar algum tipo de filtro crítico para que ela não tenha só uma confirmação ou só uma manipulação a partir da ferramenta. Mas é difícil de entender e conseguir prever exatamente para onde isso vai, o tipo de uso que vai ser feito, como que as próprias igrejas e lideranças vão se posicionar em relação a isso, porque as igrejas também são muito ciosas e os líderes em relação a um tipo de autonomia que os fiéis ganham, para que não diminua uma dependência da igreja, e a pessoa passe a ter uma dinâmica devocional, religiosa, que não passe pela instituição. Eu fico imaginando que é possível ter um prompt a partir das palavras de Jesus, ou que selecione somente os ditos de Jesus e formule as perguntas. Mas também não é só o texto literal, depende do contexto, do que é perguntado. E a gente tem uma falta de clareza de como funciona o texto. , como as respostas são geradas. Então é bem difícil prever o uso, se isso pode recrudescer ainda mais o fundamentalismo. Participei de um congresso de psicanálise no final do ano, e um dos temas era inteligência artificial, um congresso de psicologia analítica junguiana, e um dos palestrantes relatou uma experiência dele com a IA, pedindo que a IA se comportasse como determinado psicanalista. Aí resolvi fazer o meu experimento. Fiz um prompt para que a IA agisse como Jung e interpretasse os meus sonhos. E é muito interessante, porque o que ela está fazendo basicamente é acessando a literatura junguiana e construindo interpretações dos meus sonhos. Há coisas muito interessantes que são ditas, mas também é fácil perceber. Por exemplo, os dois últimos parágrafos têm sempre uma estrutura muito semelhante e uma estrutura de dizer alguma coisa muito agradável para mim, muito encorajador, estimulante. **Como você acha que o uso das _deepfakes_ , esses vídeos realistas criados com inteligência artificial, vai afetar ou piorar a circulação de notícias falsas, principalmente nos grupos das igrejas no WhatsApp, por exemplo. Já existem inclusive grupos de checagem específicos, como o ****coletivo Bereia****, que faz um trabalho super bacana de checagem de notícias no mundo cristão. Mas você acha que isso pode se tornar um problema, esse uso das _deepfake_ s nessas eleições? Elas podem piorar essa coisa das informações falsas circulando nesses grupos? E outra pergunta é como você vê o voto dos evangélicos nessas eleições? ** A impressão que eu tenho é que haverá, no segmento evangélico, um pouco mais de cautela, um pouco mais de moderação em relação ao que foi nas eleições de 2018 e de 2022. A razão pela qual eu penso que será assim é que [essa questão política ] tem consequências graves para as igrejas em termos de desgaste. Muitas pessoas que foram condenadas no 8 de janeiro, pelos atos golpistas no 8 de janeiro, são pessoas ligadas a igrejas evangélicas. Então, isso produziu um desgaste. E, por outro lado, acho que o governo Lula foi bem cauteloso nesse mandato em não alimentar, em não ter ações que pudessem fomentar a pauta dos costumes contra o governo. Não há fatos novos que possam, até onde eu tenho conhecimento, ser explorados como em 2018 ou 2022. Por exemplo, as igrejas não foram fechadas, continuam seguindo. Há alguns bolsonaristas que deixaram esse campo, evangélicos bolsonaristas, e estão migrando. Penso, por exemplo, no Otoni de Paula (MDB-RJ). Então, há esse movimento e eu tenho a impressão que isso será mais fraco do que nas outras eleições. O que não significa que não haja resistência à esquerda, eu acho que essa resistência ou cautela existe, mas eu não vejo a mesma onda tão forte como 2018 e 2022. Porém, podem surgir fatos novos e as coisas podem se modificar. Quanto à questão das _deepfakes_ , acho que tem um elemento muito difícil. Eu me lembro do livro do Umberto Eco, a _Viagem na Irrealidade Cotidiana_. Ele disse que seria difícil, que era difícil distinguir a cópia do original, no caso das obras de arte, e que às vezes poderia ficar igual ou até superior ao original. Com a tecnologia fica muito difícil, cada vez mais difícil fazer essa distinção do que é real e o que não é real, o que é feito, o que é construído artificialmente. Eu acho que essa fronteira vai ficar mais difícil. É difícil também porque as pessoas decidem o voto, a adesão política com base em fatores mais emocionais e irracionais e depois elas buscam os argumentos em um vídeo. Ele até pode ser interpretado como não real, mas se representa em alguma medida o que a pessoa acredita, ou retrata parte do que aconteceu na realidade, o resultado disso pode ser imprevisível, embalando essa irracionalidade que move as eleições de um jeito que a gente não viu ainda, que pode ter consequências eleitorais muito fortes. Então, eu acho que esse trabalho de checagem vai ser muito mais necessário, mas não sei também até que ponto ele resolve, porque o fato de receber no grupo, receber de alguém que se confia [pode bastar]. O sociólogo Paul Freston que usa uma expressão, em que ele usa a imagem de uma lavanderia como se fosse a fake news, que ao passar por alguém conhecido, a informação falsa é lavada e recebe um lastro de verdade, chegando para a pessoa como uma coisa autêntica. Esse é um desafio que a gente vai ter que esperar para saber o tamanho do estrago. Torço que não seja tão grande o estrago, mas acho que terá danos e a gente não sabe ainda como manejar isso.

Fé e IA: como as tecnologias estão transformando as experiências religiosas.
- bsapub
apublica.org/2026/03/fe-e-ia-como-as-...
#Portugus #Comportamento #IntelignciaArtificial #Religio #Tecnologia

0 0 0 0
Original post on ursal.zone

O capitalismo algorítmico e a subversão possível.
- bsoplvr
outraspalavras.net/tecnologiaemdisputa/o-ca...
#TecnologiaemDisputa #Amazon #BigData #Bigtechs #Chatbot #ElonMusk #EUA #GlobalSumudFlotilla #IA #Intelignciaartificial #Israel […]

0 0 0 0
Preview
## EP 208 A fé que move algoritmos 20 de março de 2026 · Pastor e acadêmico, Valdinei Ferreira, fala sobre o encontro entre fé e inteligência artificial __ __ 0:00 -:-- __15 __15 ______ ____ Veja mais episódios desta série Atualmente, a Inteligência Artificial está presente em grande parte das atividades humanas. O seu uso já reflete impactos no campo do trabalho, da informação e do aprendizado, mas o que acontece quando essas tecnologias passam a mediar também o campo simbólico, espiritual e religioso? Há desde usuários que acreditam estar de fato conversando com uma consciência de outra dimensão até as situações mais corriqueiras, como pastores que utilizam IA para criar sermões e pregações. Para falar sobre esse tema pouco explorado, o Pauta Pública recebe o acadêmico e pastor Valdinei Ferreira, da Igreja Presbiteriana Independente do Brasil. Na conversa com Andrea Dip, ele fala como tem sido a adaptação para estes novos tempos em que as inteligências artificiais encontram a fé. De acordo com o pastor, a IA não só está transformando como deve transformar ainda mais as experiências religiosas. Ao mesmo tempo que destaca limites importantes, como saber criar um filtro crítico para interpretar as mensagens e não deixar as tecnologias substituírem as vivências.

A fé que move algoritmos.
- bsapub
apublica.org/podcast/2026/03/podcast-...
#Portugus #IntelignciaArtificial #Poltica #Religio #Tecnologia

0 0 0 0
Preview
No Colégio Estadual Professor Loureiro Fernandes, escola pública de ensino médio no estado do Paraná, no sul do Brasil, uma aula começa como qualquer outra. O professor abre um aplicativo no celular, levanta o aparelho e tira várias fotos da sala. Em segundos, as imagens são enviadas para um servidor em nuvem, onde um algoritmo de reconhecimento facial detecta o rosto de cada estudante, extrai essas imagens e as compara com um banco de dados de perfis biométricos. O aplicativo LRCO Paraná retorna então uma lista de nomes. Os estudantes identificados nas fotos são marcados como presentes; aqueles que o sistema não encontra são registrados como ausentes. Esse software de reconhecimento facial foi projetado para identificar quase 1 milhão de crianças no Paraná todos os dias. Desde 2023, a tecnologia foi implantada em mais de 1.700 escolas do estado, substituindo a tradicional chamada por um sistema automatizado de identificação feito em poucos instantes. Mas o sistema pode cometer erros. Ingrid Adam, orientadora educacional da escola, diz que já aprendeu a esperar por eles. Certa manhã, uma estudante que estava sentada em sala descobriu, no aplicativo estudantil Escola Paraná, que havia sido registrada como ausente. Quando Adam levantou a questão com o professor, a resposta foi familiar. “Eu não estou marcando ela como ausente. Estou usando a chamada por câmera e o sistema disse que estava tudo certo.” Se um estudante percebe um erro, pode corrigi-lo com o professor. Até lá, porém, vale o registro feito pelo sistema. Para alguns estudantes, uma ausência falsa é apenas um incômodo burocrático. Para outros, pode ameaçar o acesso de suas famílias a programas sociais. No Brasil, a elegibilidade para o programa Bolsa Família depende, em parte, da frequência escolar. No Paraná, esses registros agora são gerados em grande medida por um algoritmo. ## **Tecnologia europeia, vigilância no Brasil** A tecnologia de reconhecimento que torna isso possível foi desenvolvida na Europa, pela empresa eslovaca Innovatrics. Embora não seja totalmente proibido na União Europeia, usos comparáveis de reconhecimento facial em escolas foram barrados diversas vezes por tribunais e autoridades regulatórias. Nessas decisões, concluiu-se que crianças não podem consentir de forma significativa com vigilância biométrica em sala de aula, segundo as regras de proteção de dados do GDPR. Mas no Brasil, onde a Agência Nacional de Proteção de Dados (ANPD) só começou a aplicar sanções em 2023 — e impôs poucas penalidades até agora — softwares semelhantes agora podem escanear centenas de milhares de crianças todos os dias. Defensores da privacidade chamam isso de arbitragem regulatória: empresas europeias exportando ferramentas de vigilância que reguladores do próprio continente consideraram invasivas demais para uso em crianças. Em abr.2025, o promotor Marcos José Porto Soares, do Ministério Público do Paraná, apresentou a primeira ação judicial contra o sistema, argumentando que ele viola a legislação brasileira. O caso ainda está em andamento. Enquanto isso, a tecnologia se espalha para outros estados brasileiros, como Rio de Janeiro e São Paulo, e até começa a voltar em direção à Europa. ## **Resistência na Europa** Em agosto de 2019, a Autoridade Sueca de Proteção de Dados multou o conselho escolar da cidade de Skellefteå, uma pequena localidade no norte da Suécia. Uma escola local havia testado um sistema de presença baseado em reconhecimento facial, desenvolvido por uma empresa finlandesa, para registrar 22 alunos durante três semanas, essencialmente o mesmo princípio que hoje opera em larga escala no Brasil. A autoridade sueca concluiu que o experimento violava o GDPR. Segundo o órgão, monitorar frequência por reconhecimento facial era desproporcional e excessivamente intrusivo. “A frequência pode ser monitorada de outras formas que impliquem menor violação da integridade dos estudantes”, diz a decisão. No centro da análise estava a questão do consentimento. A autoridade destacou que crianças não podem concordar livremente com tecnologias de vigilância em sala de aula. “A relação entre o conselho escolar e os estudantes geralmente envolve um considerável desequilíbrio de poder”, observou o regulador, descrevendo o monitoramento de presença como “uma medida unilateral de controle”. Alguns meses depois, em fevereiro de 2020, um tribunal administrativo em Marselha, na França, chegou a conclusão semelhante. A corte suspendeu dois projetos-piloto que instalariam sistemas de reconhecimento facial em escolas de Nice e Marselha. Os juízes derrubaram o experimento por vários motivos. O governo regional não tinha autoridade legal para implementar o sistema. O consentimento obtido dos estudantes era inválido, devido ao desequilíbrio de poder entre escolas e menores de idade. O governo não demonstrou que o reconhecimento facial era necessário ou atendia a um interesse público substancial. E o sistema biométrico era manifestamente desproporcional, já que havia alternativas menos invasivas, como cartões de acesso. Desde então, a União Europeia passou a regular o uso de reconhecimento facial e tecnologias relacionadas com a introdução da Lei de Inteligência Artificial (EU AI Act), aprovada em 2024. Embora não sejam totalmente proibidos, esses sistemas passaram a ser fortemente regulados em escolas, ainda que ferramentas de registro de presença não estejam explicitamente classificadas como de alto risco. A legislação, no entanto, não se estende ao monitoramento da exportação dessas tecnologias para fora da Europa. ## **Um caminho diferente no Brasil** Do lado de cá do Atlântico, autoridades adotaram esses sistemas, vendo neles motores de desenvolvimento e eficiência. O Paraná é o quinto estado mais populoso do Brasil, com quase 12 milhões de habitantes espalhados por áreas agrícolas, cidades industriais e pela extensa capital Curitiba. A rede pública estadual atende mais de um milhão de estudantes. Em 2019, Renato Feder assumiu o comando da Secretaria de Educação do estado. Empresário do setor de tecnologia, Feder chegou ao cargo com uma visão clara, apresentada anos antes em seu livro “Carregando o Elefante”. Nele, Renato afirma que o sistema educacional brasileiro estaria comprometido por “má gestão e desperdícios inacreditáveis com projetos tolos, ineficiência, excesso de pessoal administrativo e corrupção”. Feder construiu reputação como executivo reformista após ajudar a transformar a pequena empresa de eletrônicos Multilaser em uma das maiores companhias de tecnologia do Brasil. Na educação, tentou aplicar lógica semelhante: padronização, mensuração e uso intensivo de ferramentas digitais. “A tecnologia veio para ficar, para ampliar o conteúdo ensinado em sala de aula”, disse Feder após assumir o cargo. Sob sua liderança, o sistema educacional do Paraná passou por uma ampla digitalização. Entre 2021 e 2024, o estado gastou mais de R$153 milhões em plataformas educacionais privadas, segundo um estudo de pesquisadores da Universidade Federal do Paraná. O Google Classroom se tornou o ambiente digital de aprendizagem do estado. A empresa suíça EF Education First passou a oferecer ensino de inglês por meio da plataforma Inglês Paraná. A empresa australiana Matific criou uma plataforma de matemática. E a empresa americana Quizizz, hoje rebatizada como Wayground, forneceu uma ferramenta de aprendizado baseada em quizzes. A secretaria de educação não parou na digitalização de planos de aula e tarefas. Ela também decidiu digitalizar algo ainda mais básico: determinar quais estudantes estão na sala de aula e quais não estão. A justificativa apresentada não foi uma crise de evasão escolar nem baixos índices de frequência, mas eficiência administrativa. Citando um estudo da OCDE que mostra que professores brasileiros gastam um terço de cada aula em tarefas não pedagógicas, o estado argumentou que automatizar a chamada permitiria recuperar tempo de ensino. Em setembro de 2022, a empresa estatal de tecnologia do Paraná, Celepar, assinou um contrato com a empresa brasileira Valid para o fornecimento de uma “solução tecnológica para identificação de pessoas”. O acordo incluía “reconhecimento biométrico facial por meio de análise de imagens”, além de processamento em nuvem e suporte técnico contínuo. Na prática, o contrato marcou uma mudança: determinar quem está presente na sala de aula deixaria de depender apenas do julgamento do professor — e passaria também pela avaliação de um algoritmo. A escala do projeto era enorme. A cada mês, o sistema deveria processar dados biométricos de até 1 milhão de crianças em infraestrutura de nuvem. As imagens são armazenadas em servidores do governo por um ano. Para fornecer o serviço, a Valid firmou parceria com a Innovatrics, empresa eslovaca de reconhecimento facial cujo software forma o núcleo do sistema de identificação. Em um estudo de caso publicado em seu site, a Innovatrics afirma que sua solução economiza 80% do tempo gasto com chamada em cada turma. E, segundo a empresa, o sistema traz outra vantagem: “os pais podem verificar instantaneamente se seu filho está presente.” ## **A empresa por trás da tecnologia** A Innovatrics, sediada em Bratislava, construiu um negócio global baseado em identificação biométrica com faturamento anual superior a €23 milhões. Desde 2004, a empresa desenvolve softwares que permitem a governos e empresas identificar indivíduos por meio de imagens faciais, impressões digitais ou escaneamento da íris. Seus produtos são usados em programas nacionais de identidade, projetos de registro eleitoral e sistemas de controle de fronteiras em todo o mundo. Segundo a empresa, sua tecnologia já processou dados biométricos de mais de 1 bilhão de pessoas em mais de 80 países. A Innovatrics também recebeu apoio financeiro da União Europeia. Entre 2018 e 2019, a empresa recebeu quase €200 mil em financiamento público em um projeto de pesquisa focado na análise automatizada, classificação e organização de fotografias usando biometria facial. De acordo com informações da própria empresa, a Innovatrics possui escritórios “na maioria dos continentes”, incluindo um no Brasil. Em resposta a um “aumento da demanda na América do Sul”, a empresa abriu seu escritório regional em São Paulo, em setembro de 2021. Caitlin Bishop, que coordena o trabalho sobre tecnologias de vigilância na ONG Privacy International, analisou de perto a implementação do sistema no Paraná. O fato de empresas europeias exportarem tecnologias de reconhecimento facial — cujo uso tem sido contestado na Europa — para outros países onde passam a ser utilizadas é algo que ela descreve como nocivo. Segundo Bishop, a legislação brasileira nem é tão diferente da europeia. “Mas existe um grande problema de aplicação da lei.” Na avaliação dela, não é uma lacuna na legislação formal que permite a implantação da tecnologia nas salas de aula, mas a ausência de fiscalização efetiva. Ao mesmo tempo, a falta de qualquer controle de exportação na AI Act ou em outras regulações europeias criou, segundo Bishop, “uma situação ruim”, que permite que tecnologias “profundamente invasivas” sejam vendidas internacionalmente por empresas europeias. Quando a AI Act estava sendo negociada em Bruxelas, o Parlamento Europeu chegou a defender a proibição desse tipo de exportação. A posição oficial dizia: “é apropriado proibir a exportação” de sistemas cujo uso seja classificado como “inaceitável” pela lei. A proposta, porém, recebeu pouco apoio das outras instituições europeias e foi excluída da versão final da legislação. “A ausência dessas medidas significa que tecnologias proibidas aqui ainda podem ser vendidas e usadas em outros lugares, o que enfraquece nossos valores”, disse Brando Benifei, eurodeputado italiano que apoiou a proibição. “Não deveríamos permitir a exportação e o uso no exterior de sistemas que não permitiríamos em casa.” ## **Pelo menos funciona?** Quando o sistema foi implantado no Paraná, a empresa estatal de tecnologia Celepar o apresentou como eficiente, seguro e claramente benéfico. Em um comunicado à imprensa, a empresa afirmou que professores estavam perdendo “mais de 100 horas por ano” por turma com tarefas administrativas rotineiras como registrar presença. O novo sistema, segundo a Celepar, economizaria dezenas de horas de trabalho dos professores. Professores descreveram uma realidade diferente. Segundo eles, o algoritmo frequentemente leva mais tempo para registrar presença do que levaria inserir as informações manualmente. Erros na identificação de estudantes também são comuns. Esses relatos são corroborados por um estudo independente publicado em 2025 por pesquisadores da Universidade Estadual Paulista (Unesp). Os pesquisadores testaram o sistema em uma escola pública do Paraná e descobriram que ele alcançou uma taxa média de acerto de 91,1%, abaixo do limite de 95% especificado no contrato de aquisição do governo. A verificação de presença, que deveria levar 30 segundos, levou em média dois minutos. A conexão com a internet, a posição dos estudantes e a qualidade da câmera influenciaram o desempenho. Uma pesquisa do APP-Sindicato, um dos sindicatos de professores mais influentes do Paraná, mostrou que oito em cada dez educadores consideram o sistema de reconhecimento facial menos eficaz do que fazer chamada presencialmente. A entidade representa mais de 65 mil professores. Dentro das escolas, o uso do sistema tornou-se irregular. “Todo ano, no início do ano letivo, a Secretaria de Educação nos orienta a registrar os estudantes no banco de dados”, disse Vandré Alexandre, professor e dirigente sindical. “No começo, os professores são obrigados a usar a chamada por reconhecimento facial. Mas depois de um tempo os burocratas param de cobrar.” ## **O risco para benefícios sociais** Os erros do sistema ganham outro peso quando vistos à luz da estrutura de assistência social do Brasil. No programa Bolsa Família, as famílias precisam cumprir certas condições para continuar recebendo transferências de renda, incluindo garantir que seus filhos frequentem regularmente a escola. Estudantes com mais de seis anos devem comparecer a pelo menos três quartos das aulas. Esses registros de frequência agora são gerados, no Paraná, pelo mesmo sistema de reconhecimento facial que marcou a estudante da escola de Ingrid Adam como ausente. A taxa de acerto de 91,1%, documentada em um estudo da UNESP, pode parecer alta. Mas em um estado onde mais de um milhão de crianças podem ser escaneadas diariamente, mesmo uma pequena margem de erro pode afetar dezenas de milhares de registros. A reportagem não encontrou nenhum caso confirmado em que uma ausência falsa tenha levado diretamente à suspensão do Bolsa Família. Mas professores alertam que a possibilidade existe. Élio da Silva, professor de língua portuguesa e filosofia no Paraná, descreveu como dados de frequência podem ser manipulados de forma incorreta. Ele lembra de ter visto instruções internas que levaram escolas a registrar certos alunos como “sem frequência”, mesmo quando haviam estado presentes nas aulas. Em um caso, um estudante do sétimo ano com apenas três faltas foi excluído dos registros oficiais de frequência até depois de os dados federais de educação já terem sido compilados. “Eles escreveram que esse aluno não tinha frequência”, disse da Silva, “mesmo ele estando na minha aula”. Ele não conseguiu apontar um caso confirmado em que erros desse tipo tenham levado à suspensão de pagamentos do Bolsa Família. Mas alertou que, se os bancos de dados de frequência algum dia forem cruzados com sistemas de assistência social, um aluno registrado erroneamente como ausente poderia parecer, no papel, como se não estivesse frequentando a escola. “Pode acontecer”, disse. Caitlin Bishop, da Privacy International, afirmou que mesmo a possibilidade de tal ligação já levanta preocupações sérias. “A relação com o Bolsa Família tem sido preocupante”, disse ela, apontando os riscos que surgem quando dados de frequência, especialmente quando imprecisos ou mal administrados, se entrelaçam com o acesso a benefícios sociais. ## **Desafio judicial** Essas preocupações acabaram chegando aos tribunais. Em abril de 2025, o Ministério Público do Paraná entrou com uma ação civil contra o governo do estado, a Celepar e a empresa contratada Valid, alegando violações à Lei Geral de Proteção de Dados (LGPD). Marcos José Porto Soares, o promotor responsável pelo caso, afirmou que foi a primeira vez que seu gabinete processou o governo estadual por supostas violações da lei de proteção de dados. Uma das questões em disputa é o próprio consentimento. A Investigate Europe confirmou com a Secretaria de Educação do Paraná que uma versão anterior do formulário de matrícula dos estudantes não permitia que os pais recusassem o uso das imagens de seus filhos no programa de reconhecimento facial. A secretaria afirmou que a falha já foi corrigida. A Investigate Europe não conseguiu verificar essa mudança de forma independente. Em mai.2025, um juiz negou o pedido do Ministério Público para suspender imediatamente o sistema. A corte afirmou que não havia evidência concreta de dano iminente que justificasse uma intervenção urgente. A decisão também observou que interromper o sistema poderia exigir a adoção rápida de um método alternativo de registro de presença, com possíveis impactos sobre os gastos públicos. Em setembro, o Ministério Público contestou formalmente essa decisão, argumentando que a política não possui base legal clara em lei ou regulamento. O caso segue em andamento, com uma decisão esperada para o primeiro semestre de 2026. A Innovatrics não respondeu ao pedido de comentário até a publicação desta reportagem, nem o ex-secretário estadual de Educação Renato Feder. A Valid se recusou a comentar. A Celepar afirmou que “permanece comprometida com a modernização da educação pública do estado por meio da transformação digital” e disse que “monitora continuamente o feedback dos professores para aprimorar o algoritmo e a interface da tecnologia”. A empresa afirmou ainda que existem “múltiplos mecanismos de segurança” para garantir que a elegibilidade a benefícios sociais não seja afetada pelo sistema, incluindo a possibilidade de realizar alterações manuais e correções retroativas. A Secretaria de Educação do Paraná afirmou que o sistema está em conformidade com a lei brasileira de proteção de dados. Informou também que “antes da implementação da solução foi elaborado um Relatório de Impacto à Proteção de Dados”. Sobre o processo em andamento, a secretaria declarou que “o caso ainda está sob análise judicial e, até o momento, não houve decisão da Justiça”. Sobre a ação movida pelo Ministério Público, a Celepar declarou: “A empresa sustenta que todas as atividades de tratamento de dados são conduzidas em estrita conformidade com a Lei Geral de Proteção de Dados. A Celepar está colaborando ativamente com o MPPR para demonstrar os protocolos de segurança, a criptografia de dados e as justificativas de interesse público que fundamentam o projeto.” ## **Um sistema em expansão** Apesar do aumento das reclamações de professores e da abertura de processos judiciais, o Paraná continuou a usar tecnologia de reconhecimento facial em suas salas de aula. No início de setembro do ano passado, o estado prorrogou o contrato por mais um ano, até set.2026. Enquanto o caso judicial se desenrola, a Innovatrics continuou promovendo sua tecnologia de vigilância escolar em outros países. No verão de 2023, um representante da empresa se reuniu com autoridades do Ministério da Educação do Chile. Segundo uma nota interna do encontro, o representante defendeu o uso nacional de reconhecimento facial para identificar crianças em escolas e jardins de infância, citando a implantação em mais de mil escolas brasileiras. Um representante da empresa NutreChile, envolvida no piloto proposto, disse à Investigate Europe que o projeto nunca chegou a acontecer, sem explicar os motivos. Dentro do Brasil, o modelo se espalhou. Segundo a InternetLab, sete dos 27 estados brasileiros já utilizam tecnologia de reconhecimento facial em escolas, enquanto outros consideram implantar sistemas semelhantes. “O Paraná foi um modelo para outros estados”, disse Bishop. “Encontramos um estado que copiou quase integralmente o edital de licitação do Paraná.” Menos visivelmente, a tecnologia também começou a viajar na direção oposta — de volta para a Europa. Em 2024, o governo do Paraná anunciou que seu sistema de reconhecimento facial havia sido exportado para Portugal. O software foi testado durante três meses na United Lisbon International School, uma instituição privada que atende estudantes de cerca de 50 países. Segundo comunicado do governo, o projeto-piloto foi “aprovado pela direção da escola”. Procurada, a proprietária da escola, a empresa britânica Duke Education, não comentou o teste anterior, afirmando apenas: “A escola não utiliza essa ferramenta.” Após questionamentos da Investigate Europe, a autoridade portuguesa de proteção de dados anunciou que abriria uma investigação oficial. A Celepar confirmou que nenhum contrato permanente foi assinado em Portugal — pelo menos por enquanto.

Sistema de reconhecimento facial monitora alunos no Brasil.
- bsapub
apublica.org/2026/03/reconhecimento-f...
#Portugus #Infnciaejuventude #IntelignciaArtificial #Justia #Tecnologia

0 0 0 0
Preview
Basta um comando: “Tire a roupa dela”. Em menos de 5 segundos, a inteligência artificial Grok — integrada ao X desde 2024, a rede social de Elon Musk, antes conhecida como Twitter — transforma uma foto comum em conteúdo íntimo que nunca existiu. Nós testamos a ferramenta disponível para usuários da plataforma, e o resultado é assustador. A partir da imagem de uma pessoa vestida, o sistema gerou versões ultrarrealistas que mostram a mesma pessoa de sutiã, nua, ou com aparência mais jovem. O processo de manipulação acontece sem aviso. Sem restrição. Sem moderação. A experiência da reportagem se deu após mulheres denunciarem a criação facilitada de deepfakes — conteúdos de mídia manipulados por IA — pornográficos, ou deepnudes, na rede social. Em apenas um dia de monitoramento (5 a 6 de janeiro), o Grok gerou cerca de 6.700 posts por hora com imagens sexualizadas no X — 85 vezes mais do que o registrado no mesmo período em outras cinco plataformas de IA generativa, que somadas produziram 79 publicações por hora, segundo a consultora Genevieve Oh. Após a repercussão negativa, Musk anunciou na quarta-feira (14) que restringiu a capacidade do Grok de “gerar imagens de pessoa de biquíni, roupas íntimas ou semelhantes” em países onde isso é considerado ilegal. Um dia depois, na quinta (15), o Instituto de Defesa do Consumidor (Idec) protocolou uma denúncia na Autoridade Nacional de Proteção de Dados (ANPD), apontando possíveis infrações à Lei Geral de Proteção de Dados (LGPD) relacionadas ao uso indevido de dados pessoais na criação de deepfakes e de imagens sexualizadas sem o consentimento dos titulares. Nesta terça, 20.jan, MPF, ANPD e Senacon recomendaram ao X a adoção de medidas imediatas para impedir o uso do Grok na criação de deepfakes com imagens de pessoas reais, especialmente mulheres, crianças e adolescentes. As instituições pedem bloqueio de novas gerações, remoção de conteúdos já publicados, suspensão de contas envolvidas e criação de mecanismos eficazes de denúncia. O descumprimento pode levar a medidas administrativas e judiciais. O caso repercutiu e gerou investigações em diversos países. Mas especialistas e vítimas ouvidas pela reportagem são unânimes: o Grok expôs um problema muito mais antigo e sistemático. ## **Tributes, deepfakes e um ecossistema de terror** O terror de Clarice (nome fictício), de 26 anos, começou enquanto fazia as compras de Natal, em dezembro de 2023. No mercado, seu celular vibrou com uma notificação de mensagem do Facebook. Ao abrir, um vídeo de um homem se masturbando enquanto olhava para uma foto comum que ela havia postado nas redes sociais. A prática tem nome nos fóruns masculinistas: tribute (tributo, em tradução livre). “Pegam uma foto normal e fazem um vídeo se masturbando. A minha foto estava no notebook dele. Ele filmou isso e me mandou”, relembra Clarice. Semanas depois, recebeu outra mensagem similar. Meses se passaram sem novos incidentes. Até que, em maio de 2024, começou a receber pelo WhatsApp mensagens de números estrangeiros — sempre de madrugada. Desta vez, não eram apenas tributes. Eram vídeos dela, em contextos sexualizados, criados com inteligência artificial. A facilidade em criar os deepfakes era tamanha que “eu postava uma foto no Instagram e [em instantes] ele [o agressor] me mandava a foto que eu tinha postado. Eu ficava: ‘Meu Deus do céu, essa pessoa tá me perseguindo'”. A insegurança digital teve contornos físicos: “meu marido saía para trabalhar às 6 horas da manhã, eu voltava para o nosso quarto e ficava lá trancada o máximo de tempo que conseguia. Só saía para usar o banheiro e para comer.” ## **Como a IA tornou tudo mais fácil** Para Alice Lana, advogada, pesquisadora e autora dos livros “Nudez na Internet: corpo, gênero e direito” e “Mulheres Expostas: revenge porn, Gênero e o Marco Civil da Internet”, “desde que começaram a existir ferramentas de edição de imagem como o Photoshop, esse tipo de prática já existe”. “O que a IA fez foi facilitar — diminuir os degraus, a fricção. E parece que é pouco, só facilitar, mas não é”, alerta. O que antes exigia conhecimento técnico e horas de trabalho, hoje leva segundos e está ao alcance de qualquer pessoa disposta a pagar uma assinatura mensal. No caso de Clarice, a demonstração de poder foi literal. Ela descobriria mais tarde que os deepfakes faziam parte de um ecossistema organizado que envolvia Twitter (atual X), Telegram e até sites pornográficos especializados em hospedar conteúdo manipulado. “No Twitter existem muitos perfis dedicados a isso. O perfil que usavam para compartilhar minhas fotos se chamava ‘C_Tribute'”, conta Clarice, referindo-se à inicial de seu nome verdadeiro seguida da palavra tribute. “Era específico para mim.” Esses perfis funcionam como vitrines que redirecionam para grupos no Telegram onde há, também, um esquema de distribuição paga. No caso de Clarice, “ele criava as fotos, pagava para que os caras fizessem [o tribute] e me mandassem”, explica. A cada mensagem recebida, Clarice abria um boletim de ocorrência. No total, foram mais de 15 registros e mais de 40 números bloqueados. “Eu me senti muito invadida. Senti como se alguém tivesse me vendido”, resume. Ao Núcleo, a assessoria do Telegram disse que “a distribuição de pornografia não consensual é expressamente proibida pelos termos de serviço do Telegram e esse tipo de conteúdo é rotineiramente removido sempre que detectado”. ## Veja a resposta na íntegra do Telegram Se você tiver conhecimento de algum chat que distribua pornografia não consensual, agradeceria muito se você pudesse compartilhar os links para que os moderadores possam investigar. Por favor, sinta-se à vontade para usar também este posicionamento: A distribuição de pornografia não consensual é expressamente proibida pelos termos de serviço do Telegram e esse tipo de conteúdo é rotineiramente removido sempre que detectado. Moderadores, com o auxílio de ferramentas de IA personalizadas, monitoram proativamente as áreas públicas da plataforma e aceitam denúncias para remover milhões de conteúdos diariamente que violam nossos termos de serviço, incluindo pornografia não consensual. Desde 2018, o Telegram tem sido capaz de divulgar os endereços IP e números de telefone de criminosos em resposta a solicitações legais válidas, o que auxilia as investigações policiais. Estatísticas diárias e mais informações estão disponíveis aqui. A reportagem também tentou contato com o X, mas a empresa não tem mais assessoria de imprensa. Elon Musk tem se manifestado sobre o tema pelo próprio perfil na rede. ## **Meu rosto em outro corpo** Em outubro de 2024, Júlia (nome fictício) percebeu um movimento atípico na sua conta do Instagram: uma enxurrada de novos seguidores homens. Não havia razão aparente para aquilo, já que utiliza as redes para divulgar o próprio trabalho como corretora de imóveis, falar sobre viagens e produtos de beleza. Até que um deles “virou para mim e falou: ‘olha, estão divulgando essas imagens aqui e associando a você no Telegram’, só que é nítido que não é você'”, relembra Júlia. O que viu foi assustador: fotos com seu rosto, mas em contextos que ela nunca viveu. Com um corpo que não era o seu, em poses que também não eram as suas. Eram “imagens de uma viagem que fiz e, com IA, atribuía a cenas pornográficas em vídeo, além de pegar vídeos de outras mulheres cacheadas e associar a mim”. Junto do conteúdo, inseriam o TikTok e Instagram de Júlia. Os ataques seguiram dia após dia e quando “a pessoa viu que eu não fechei as redes sociais, que eu não fingi que nada estava acontecendo, começou a divulgar o meu número de telefone. E aí eu descobri que fez uma conta no Tinder com o meu número e tava lá também divulgando essas fotos”. Júlia tentou buscar ajuda na Delegacia de Repressão a Crimes de Informática (DRCI) do Rio de Janeiro, acompanhada de um advogado, mas “eles me falaram que não poderiam fazer nada, que era só mais um caso, que do jeito que eu levei os prints, não dava para rastrear e que eles não faziam o boletim de ocorrência lá”, lembra. “E aí é onde entra o questionamento, né. Se a delegacia que é especializada em crime digital não pode ajudar uma mulher que está passando por uma situação dessa, o que eu faço?”, questiona. ## **O direito rasteja, a tecnologia corre** Na legislação brasileira não há uma lei destinada, literalmente, à manipulação de imagens com uso de inteligência artificial, explica Alice Lana. “Mas nós temos dois artigos [no Código Penal]: o 216-B e o 218-C. O 216-B no parágrafo único fala explicitamente de montagem e manipulação de imagem. Então, nós temos, sim, no direito base legal suficiente para a pessoa atingida ir numa delegacia e fazer um boletim de ocorrência”, esclarece. > Além da delegacia, Alice recomenda que as vítimas abram denúncia na Safernet, instituição que trabalha com esses casos, processem pela violação do direito de imagem pelo Código Civil e usem a Lei de Proteção de Dados (LGPD) a seu favor. “É tenebroso, porque a gente tem proteções no direito brasileiro, não só no direito penal, mas na própria LGPD, no próprio Código Civil. Teoricamente, as pessoas não deveriam poder fazer isso com a nossa imagem. Mas o direito rasteja e a tecnologia corre”, lamenta. “E nas questões de violência contra a mulher é ainda pior”. As deepfakes atribuídas à Júlia foram, além de uma violência digital, uma agressão psicológica. “Foi muito delicado porque fui vítima de um estupro quando eu tinha 14 anos de idade. Isso começou a me gerar um pavor muito grande, um medo muito grande”, conta. “A minha vida simplesmente parou. Simplesmente parou. Eu fiquei numa situação de choque”, relembra Júlia. “A minha grande preocupação é que um homem que tenha visto esses vídeos me reconheça na rua e ache que tem direito de fazer qualquer coisa comigo. Como se as imagens fossem um convite para violência”. ## **“Será que a culpa é minha?”** A primeira vez que a influenciadora conhecida como Duda Irmazinha tentou contato com a Polícia Civil para denunciar crimes online foi em 2023, aos 17 anos. Na época, ela postava vídeos na internet sobre anime, lifestyle e sua rotina na Espanha, país para o qual tinha acabado de se mudar. Seu sonho era trabalhar com a internet. O conteúdo era leve, cotidiano. Até que um seguidor a alertou: imagens manipuladas por inteligência artificial, que a mostravam nua, estavam sendo divulgadas em grupos do Telegram e perfis no Twitter. Primeiro, buscou a Polícia da Espanha, que a orientou a registrar a violência no Brasil, já que os usuários do grupo eram brasileiros. Então, procurou o Departamento Estadual de Repressão aos Crimes Cibernéticos (DERCC) de Curitiba, onde morava. “Falei o que estava acontecendo, que pegaram as fotos das minhas redes sociais, que colocaram inteligência artificial nessas fotos. E isso foi o que mais me abalou. A senhora falou: ‘Mas por que você postou essas fotos?'”. A conversa entre Duda e a policial se encerrou de forma condenatória: “a moça falou que não podia fazer nada e que era para eu falar com a pessoa que eu tinha mandado as fotos e que eu devia apagar as redes sociais, porque só assim para me sentir segura”. Na foto original, Lisa vestia moletom. “Eu me senti suja. Como [as imagens] eram muito realistas, eu fiquei me perguntando: como alguém pode me ver assim na internet? Eu sofri muito, fiquei muito abalada”. A falta de rede de apoio gerou a pergunta mais óbvia e cruel experimentada pelas vítimas de violência: “Eu pensava: será que a culpa é minha de ter acontecido isso?”. ## **Violência de gênero, não um bug tecnológico** Para Marcelle Chagas, pesquisadora da Mozilla Foundation à frente da Rede de Proteção Digital para Comunicadoras Negras na América Latina (REPCONE), o que Clarice, Júlia e Duda viveram é violência de gênero. Ela reforça que “essa violência permaneceu invisibilizada porque por muito tempo foi tratada como algo ‘menor’, restrito ao ambiente digital, e não como uma forma concreta de violência de gênero”. Para Alice Lana, a ferramenta em si não é inerentemente violenta — a violência emerge numa sociedade que coloca mulheres, sua sexualidade e seus corpos em posição subalterna. Trata-se de mais uma manifestação de uma trajetória longa de formas de controle do corpo feminino. “Assim como em guerra as mulheres são estupradas, talvez na internet mulheres sejam despidas por um sistema de IA. O raciocínio por trás é o mesmo. E por isso eu bato muito na tecla da importância da gente chamar isso de violência de gênero”, afirma. As motivações por trás desses ataques, segundo Alice, raramente são sexuais. “Com frequência é pela humilhação, pela piada, pela demonstração de poder”, explica. Na tentativa de reunir mais provas e se fazer acreditar, Duda acessou os grupos do Telegram em que suas imagens foram divulgadas. Lá, encontrou o rosto de várias amigas também atribuídos a fotos e vídeos com conteúdos sexuais. “Entrei em contato com todas essas influenciadoras e também me chocou que elas falaram: ‘Isso já aconteceu antes, eu já abri BO, já processei e não aconteceu nada, porque não tem nenhuma lei exatamente para isso'”, conta. Duda entendeu o que diziam as amigas. Nos anos seguintes, perdeu a conta de quantas vezes foi vítima de deepfake. Viveu tudo sabendo que “não ia acontecer nada, a polícia não ia fazer nada e isso ia seguir assim. E para eu chamar a polícia cibernética e falar que a culpa é minha de novo, eu preferi não chamar”. Embora suas amigas virtuais acumulem denúncias de deepfake, Duda nunca viu isso acontecer com um amigo homem. “O que eu já vi no Twitter é foto do Neymar de sunga, coisas assim que são para ser engraçado, não como um objeto sexual. Para mulheres é violência sexual. Não é a mesma coisa”, observa. ## **A descoberta e a impunidade** O caso de Clarice ilustra de forma devastadora como essa violência opera — e como o sistema falha em proteger as vítimas. Após anos de terror e investigação, Clarice finalmente descobriu quem estava por trás de tudo: um irmão de consideração que ela conhecia há mais de 10 anos. Alguém que cresceu com ela, que tinha livre acesso à sua casa, que participava das festas de família, que foi padrinho no seu casamento. A polícia levou dois meses entre a denúncia formal, feita em setembro de 2024, e a apreensão dos aparelhos eletrônicos dele, em novembro. Quando foi até a delegacia prestar depoimento, negou tudo. O processo segue na Justiça e ele continua livre. “Sei que não vou estar segura nunca mais. Enquanto ele não for preso — se é que vai ser preso — não consigo ter a menor segurança”, diz Clarice. “Minhas fotos já foram compartilhadas, tem muita foto baixada. Os caras imprimiam as fotos. Ele simplesmente não é a única pessoa que tem isso. Qual garantia eu tenho que nunca mais vou receber isso?” ## **Grok: visibilidade forçada de um problema antigo** Para Marcelle Chagas, “o caso do Grok deu visibilidade global, mas não inaugurou o problema. Mulheres — especialmente comunicadoras, jornalistas, pesquisadoras e ativistas — já enfrentam há anos a produção e circulação de imagens sexualizadas não consensuais, montagens e deepfakes como forma de silenciamento, intimidação e deslegitimação pública”. A pesquisadora cita dados da ONU Mulheres que mostram que a violência digital é uma extensão direta da violência de gênero: segundo a organização, mais de 70% das mulheres que atuam publicamente (jornalistas, políticas, defensoras de direitos humanos) já sofreram algum tipo de violência online, e a sexualização forçada e a manipulação de imagens estão entre as formas mais comuns e mais danosas. Relatórios da ONU indicam ainda que mulheres são 27 vezes mais propensas que homens a serem atacadas com conteúdos sexualizados e campanhas de humilhação. “Ou seja, a tecnologia de IA não criou essa violência — ela a tornou mais barata, mais rápida, mais realista e mais escalável. O que antes exigia edição manual agora pode ser feito em segundos, ampliando o alcance e o impacto de forma mais sofisticada”, observa Marcelle. O que torna o caso do Grok particularmente grave é sua integração a uma rede social massiva como o X. “Outros aplicativos também permitem, mas quando está dentro de uma rede social, a disseminação já está ali. É ainda mais grave que a ferramenta que ‘só’ permite a criação das imagens, que já deveria ser algo horrível. Mas quando está dentro de uma rede social, o quadro fica ainda pior”, analisa Arthur Igreja, especialista em Tecnologia e Inovação. Em um aplicativo isolado, o usuário precisa criar a imagem, depois encontrar meios para divulgá-la. Em uma rede social, ambas as ações acontecem no mesmo espaço, com apenas alguns cliques de distância. A facilitação é exponencial. ## **O X, Elon Musk e a marcha ré dos direitos humanos** A postura do X sob o comando de Elon Musk agrava o cenário. Alice defende que é necessário existir uma relação entre setor privado e governo, para que este possa dizer à empresa “isso aqui está violando, retire isso” e a empresa possa responder em tempo hábil. “Ao mesmo tempo, é importante proteger os dados dos usuários, principalmente quando a gente pensa em casos de governos autoritários em outros países, e garantir que nem tudo que está ali na plataforma pertence ao poder público”, pondera. A advogada observa, contudo, que há empresas que são assumidamente e orgulhosamente contra um bom relacionamento com o poder judiciário e o governo de vários países. O X é um exemplo enorme disso. “Quando foi comprado pelo Elon Musk, ele se vangloriou de tirar vários controles, demitiu quase toda equipe do Twitter do Brasil e de vários outros países, deixou muito enxuto. Justamente no movimento de colocar para fora todas essas questões que para nós são muito caras, de cuidados de direitos humanos. A gente vê o mundo da tecnologia dando marcha ré nesse sentido em algumas empresas, o que é muito assustador, muito preocupante e dá resultados como os que a gente está vendo hoje”, afirma. No Brasil, o arcabouço jurídico para responsabilizar plataformas está se formando. Com a decisão do Supremo Tribunal Federal sobre o Marco Civil da Internet — que ainda não está em vigor devido a embargos de declaração —, mudou a regra geral de responsabilização: as empresas têm, sim, a responsabilidade de tirar conteúdo violador assim que forem notificadas — e, a depender do conteúdo, mesmo antes de notificação. Para Arthur Igreja, a gravidade do caso do Grok é incontestável, e “não dá para encontrar alguma argumentação lógica de que a empresa não tem responsabilidade ou não deveria ter”, afirma. Sobre a autorregulação adotada pelas big techs como modelo de governança, Arthur é categórico: “A autorregulação nunca funcionou em nenhum segmento e não vai funcionar nesse caso, não tem a menor chance. É acreditar que a moral e a ética vão ser definidas por uma empresa que tem todos os interesses”. Porém, o problema persiste — e para mulheres como Clarice, Júlia e Lisa, o dano já está feito.

Grok, ‘Tire a roupa dela’: ecossistema de violência dos deepfakes.
- bsapub
apublica.org/2026/01/grok-tire-a-roup...
#Portugus #ElonMusk #IntelignciaArtificial #Tecnologia #Twitter #Violnciadegnero

0 0 0 0
Preview
IA – Ignorância Ancestral, Inteligência Atrofiada: ganhar tempo ou libertá-lo?

IA – Ignorância Ancestral, Inteligência Atrofiada: ganhar tempo ou libertá-lo?.
- bsbtpo
blogdaboitempo.com.br/2025/11/27/ia-ignorancia...
#Colunas #Automaoeofuturodotrabalho #Intelignciaartificial #Marxismo

0 0 0 0