IA e EDUCAÇÃO
EDUCAR PARA O PENSAR COMPLEXO
O livro nasceu de uma pesquisa de mestrado na PUC-SP e foi reescrito em linguagem acessível, para dialogar não apenas com pesquisadores, mas com qualquer leitor curioso sobre o tema. Cada vez mais presente em nosso cotidiano, as tecnologias de IA funcionam a partir de modelos estatísticos de probabilidade capazes de fazer correlações e identificação de padrões em dados. Em educação, IA tem sido frequentemente apontada como fonte de melhoria do ensino a partir de uma visão meramente instrumental. Com base na teoria do pensamento complexo de Edgar Morin, a obra apresenta a IA como um campo de conhecimento permeado por benefícios e riscos, além de impactos sociais, econômicos, jurídicos e ambientas.
ENCOMENDE SEU LIVRO
Produzido pela Z Edições, uma editora alternativa aos grandes grupos que também publica os quadrinhos da cartunista Laerte, o livro pode ser adquirido sob demanda. Faça seu pedido aqui
ALÉM DO USO DA IA
O modelo de ensino ainda se pauta fortemente na formação de cidadãos funcionais, prontos para atender à demanda do mercado de trabalho da economia industrial. Por essa perspectiva, valores associados ao rendimento e à produtividade aparecem na frente de outros ligados ao respeito à coletividade, incentivo à criatividade, resiliência, solução de problemas, dentre outros.
Educar envolve uma complexidade de situações e contextos, agentes, condições e estruturas que vão muito além de somente “usar” IA para ensinar conteúdos curriculares. Como será que a IA também nos usa?
Da técnica à ética: perguntas críticas
Precisamos mesmo da IA?
Por mais que a todo momento escutemos que temos que usar IA em práticas pedagógicas, já paramos para pensar se realmente a introdução de uma aplicação de IA vai aprimorar a prática que planejamos? A prática seria possível sem IA? Que benefícios a introdução da IA vai trazer para professores e alunos envolvidos?
Podemos confiar nessa IA?
A rápida disseminação de textos, imagens e vídeos produzidos por IA está trazendo novos desafios para a qualidade da informação que circula na sociedade. Em áreas sensíveis, como medicina, governo, direito e educação, esse problema pode ter consequências sérias. Um dos riscos mais discutidos é a desinformação: quando o sistema de IA cria conteúdos imprecisos, enganosos ou até completamente inventados, considerando que funciona a partir de correlações entre os dados de treinamento.
Nem todas as falhas são fáceis de perceber, muitas são sutis e difíceis de identificar, o que as torna ainda mais perigosas. Outro ponto de atenção é a geração de conteúdos padronizados e de baixa qualidade, que poluem a internet e as redes sociais.
A IA é enviesada?
Se os dados usados para treinar o modelo de IA já possuem vieses, as respostas também serão enviesadas. No caso de modelos como o GPT-4, os conjuntos de dados exatos não são públicos, mas sabemos que eles se baseiam em enormes quantidades de textos produzidos por humanos e coletados da internet aberta — de sites como Reddit, Wikipedia e inúmeros fóruns e páginas. Pesquisadores que analisam a ética dos Grandes Modelos de Linguagem lembram que a internet é dominada por visões hegemônicas, o que gera uma super-representação de perspectivas racistas, misóginas e etaristas. Quando a IA é treinada nesses dados, corre o risco de reproduzir e até amplificar essas visões de mundo.
Um exemplo claro desse problema é a diversidade linguística, já que existem mais de 7.100 idiomas falados no mundo, mas apenas uma pequena parcela está documentada na internet — e menos ainda são contemplados pelos modelos de IA generativa. Isso significa que muitas vozes e culturas ficam invisíveis nesse processo.
É preciso avaliar criticamente as respostas produzidas, que começam na seleção dos dados, passando pela forma como são rotulados ou filtrados, até as próprias perguntas (prompts). Quem está representado e quem está sendo deixado de fora?
Quem constrói a IA?
Quem se beneficia da IA?
A chamada “divisão digital” se refere à distância crescente entre pessoas, comunidades e empresas que têm acesso às aplicações mais avançadas de IA e aquelas que não têm. Hoje, cerca de 1/3 da população mundial (aproximadamente 2,6 bilhões de pessoas) não tem acesso regular à internet — e, portanto, tampouco à IA.
Essa desigualdade não se limita apenas ao acesso físico à tecnologia (como computadores, softwares ou assinaturas de IA), mas também envolve diferenças de formação educacional fundamental para usar a IA de maneira crítica e produtiva.
No mercado de trabalho, essa realidade afeta de forma mais dura os empregos de baixa remuneração ou rotineiros que correm maior risco de substituição pela IA. Em nível industrial, o controle e o desenvolvimento da IA avançada, incluindo infraestruturas físicas, estão concentrados em grandes corporações bilionárias — como Meta, OpenAI, Amazon, X, Google e Microsoft. Embora pequenas startups também participem desse campo, elas enfrentam muitas barreiras, como os altos custos de treinar modelos de linguagem e a dificuldade de acessar bases de dados de qualidade.
A IA é sustentável?
O acelerado crescimento da IA traz impactos ambientais importantes, despertando preocupações sobre sustentabilidade e pegada de carbono. Sistemas de IA exigem enormes quantidades de poder computacional, o que pode resultar em algo consumo de energia e emissão de gases de efeito estufa. Os data centers sustentam as operações de IA e contribuem ainda para a degradação ambiental, o consumo de água, energia e o aumento de lixo eletrônico.
Pesquisas da especialista em sustentabilidade da IA, Sasha Luccioni, mostram que gerar respostas de texto com IA, como as de ChatGPT, consome 30 vezes mais energia do que extrair o mesmo texto de uma fonte existente.
A IA rouba produções e conteúdos?
Para muitos usuários, a IA parece mágica, pois consegue gerar imagens, escrever textos e resumir tópicos complexos em pontos simples. Mas todo esse conhecimento vem de enormes quantidades de conteúdos criados – licenciados ou não – por seres humanos na internet, incluindo vídeos transcritos do YouTube, discussões no Reddit, bibliotecas de imagens e todo o texto da Wikipedia.
Isso levanta uma questão legal e ética: as empresas de IA estão violando direitos autorais ao usar esse conteúdo sem permissão? O New York Times, diversos autores, artistas e músicos acreditam que sim. Eles entraram com processos contra empresas como OpenAI e Meta, argumentando que seus trabalhos alimentam os modelos, mas sem receber crédico, atribuição ou compensação financeira.
As empresas de IA se defendem citando a doutrina do “uso justo”, argumentando que os resultados da IA são combinações computacionais que se diferenciam do trabalho original. Porém, muitas questões legais ainda estão sem solução, e cresce a frustração dos setores criativos.
A IA espia e nos vigia?
Recentemente, Sam Altman, CEO da OpenAI, disse que a memória do ChatGPT permite que ele se lembre de conversas passadas e “te conheça ao longo da vida”. Mas isso é útil ou assustador?
A privacidade da IA diz respeito a como suas informações pessoais são coletadas, usadas e compartilhadas pelas empresas de IA. Isso inclui dados coletados da internet sem consentimento e informações que você mesmo fornece ao usar a IA, por exemplo, em prompts.
Mesmo com esses riscos, muitas pessoas compartilham seus dados pessoais em troca da conveniência de usar apps, sites e agora ferramentas de IA. Para crianças e adolescentes, a proteção de dados e privacidade é ainda mais relevante. Ao utilizarem a IA para aprender, pesquisar, escrever ou até pedir conselhos pessoais, eles devem estar atentos aos dados sensíveis que compartilham e refletir sobre quando é apropriado divulgar essas informações. Em agosto de 2025, a Câmara dos Deputados aprovou o projeto de Lei que cria regras e obrigações para os fornecedores para a proteção de crianças e adolescentes quanto ao uso de aplicativos, jogos eletrônicos, redes sociais e programas de computador.

PERSPECTIVAS CRÍTICAS PARA UM CAMPO EM CONSTRUÇÃO
Acesse aqui o resumo em Português