Simpósio mobiliza educadores e estudantes para cocriar boas ideias a partir de desafios atuais da educação

Totalmente on-line, o evento tem o objetivo de propiciar a educadores, gestores educacionais e demais profissionais que atuam em formação de pessoas, uma vivência na abordagem do Design Thinking no formato remoto

A estrutura do Simpósio é focada na interatividade com os participantes, ou seja, em vez de palestras, atividades cocriativas, “cases” inspiradores e ideação coletiva. Para conhecer nossa equipe de facilitadores, acesse a página do evento.

Um resumo das ideias geradas em cada dia pode ser lido aqui, basta clicar nas abas abaixo:

No primeiro dia do Simpósio, o tema foi “Cidadania Digital”,  apresentado pela facilitadora Priscila Gonsales, que enfatizou a que trabalhar com cidadania digital envolve criar práticas educativas relacionadas a direitos humanos, além do uso seguro e consciente da internet. 

A primeira atividade em grupo foi compreender os desafios possíveis para esse tema e considerar as pessoas envolvidas. O grupo escolheu fazer um “mapa da empatia” dos professores. Na sequência foram criadas salas de trabalho em grupo para a ideação.

Saiba mais: 
O que é Design Thinking – entrevista com Priscila Gonsales
Apresentação sobre Cidadania Digital
Link para os murais criados: grupo 1grupo 2 e grupo 3

O segundo dia tratou do tema “Educação Híbrida”, apresentado pelo facilitador Robson Santos, que ressaltou como o conceito não é novo, que há muito tempo a educação utiliza diferentes estratégias didáticas para além da sala de aula. Mas que agora, com a pandemia o conceito de “híbrido” vem ganhando força, especialmente pela mediação de plataformas on-line. 

A primeira atividade coletiva deste dia foi compreender as “certezas” e “dúvidas” que o tema traz para só então poder identificar qual o desafio a ser enfrentado. Cada matriz permite elencar diversos desafios, a questão é saber escolher quais os mais urgentes.

Na sequência, o grupo criou uma “persona escola”, para puder retratar as características positivas que a escola como equipamento social oferece, bem como o que ela deixa a desejar. 

E, por fim, os grupos de ideação conversaram sobre possibilidades concretas: grupo 4grupo 5 e grupo 6

Vídeos inspiradores sobre Educação Híbrida:
Missão Galo
Amazônia: laboratório natural

O último dia contou com a participação especial de 5 estudantes do Ensino Médio: Ariane Tobias, de Canindé do São Francisco (SE), Natalhia Viana, do Rio de Janeiro (RJ), ambas do grupo de jovens do projeto Criativos da Escola. Também estiveram presentes três alunas do CIEP Cecília Meireles, de Petrópolis (RJ): Maria Beatriz Alves, Maria Eduarda Kaezer e Viviane Maciel. 

As convidadas vieram cocriar com os educadores participantes sobre o tema Projetos de Vida e Itinerários Formativos, apresentado pela facilitadora Ana Marcia Paiva. Apesar de bastante pertinente, ainda é raro encontrar escolas que envolvem estudantes no processo de concepção e planejamento de itinerários. 

Os participantes todos, incluindo as alunas, fizeram o quadro de “motivações” e “tensões” para compreender melhor o tema e saber quais os entraves de implementação. Fizeram, ainda, a persona “estudante” para uma conexão empática com a faixa etária de quem está cursando Ensino Médio nos dias de hoje. 

Na sequência, as salas de grupos para ideiação de possibilidades. Nos links de cada grupo vai aparecer também os ambientes utilizados nas atividades coletivas gerais: grupo 7grupo 8grupo 9

Esse dia também foi transmitido ao vivo para quem quisesse acompanhar. 

Saiba mais:  

Vídeo sobre Itinerários Formativos da Ana Marcia Paiva

Projetos de vida – educação em valores 

 

 

Educadigital lança novo curso aberto e gratuito

Com alegria que anunciamos mais uma parceria com a Escola Virtual da Fundação Bradesco para a produção e disponibilização de conhecimento aberto e acessível. 

Já está disponível para matrículas o novo curso Inteligência Artificial e o Novo Contexto da Cultura Digital, de autoria da pesquisadora e diretora do Educadigital, Priscila Gonsales.

O curso, no modelo autoformativo — ou autoinstrucional — é destinado a profissionais e estudantes da educação interessados em compreender e refletir sobre as mudanças na cultura digital a partir dos avanços atuais das técnicas de inteligência artificial (IA). 

“É fundamental que educadores ampliem seus conhecimentos sobre questões da atualidade no mundo digital, como Big Data, algoritmos de IA, direitos digitais, dentre outros”, pontua Priscila. 

Outro aspecto bastante relevante sobre o curso é que ele é um remix, ou seja,  parte do conteúdo foi elaborada a partir dos módulos do curso Líder Educação Aberta, criado pela Iniciativa Educação Aberta e UNESCO do Brasil, do qual Priscila é professora e coordenadora. 

Acesse aqui o curso

Conheça outros cursos realizados em parceria com a Escola Virtual da Fundação Bradesco: Design Thinking para Educadores e Recursos Educacionais Abertos 

Inteligência Artificial no contexto brasileiro: olhar da juventude

Acessar, usar e interagir com tecnologias baseadas em inteligência artificial faz parte do cotidiano de crianças e adolescentes. Dados da pesquisa TIC Kids Online Brasil 2019, do Cetic.br|NIC.br, apontam que 89% das crianças e adolescentes de nove a 17 anos eram usuários de Internet (95% declararam acesso pelo celular). Além disso, 68% afirmaram ter utilizado redes sociais e 79%, enviado mensagens instantâneas. 

Tal como notado pelo UNICEF, plataformas como o YouTube lançam mão de algoritmos para recomendar conteúdos e, em especial no caso do YouTube Kids, mediar vídeos apropriados a esse público. Além da preocupação com a opacidade e a falta de transparência em relação aos algoritmos, coloca-se o desafio da possível exposição a conteúdo mercadológico.

Segundo resultados da edição de 2018 da pesquisa TIC Kids Online Brasil, mais da metade das crianças e adolescentes usuários de Internet teve contato com propaganda em redes sociais e sites de vídeos.

Algoritmos baseados em IA estão incorporados às plataformas e a outras aplicações on-line utilizadas por crianças. No entanto, a percepção sobre a presença desses sistemas não é intuitiva e pode ser dificultada à medida que as interações com tais tecnologias se tornam mais integradas.

Diante disso, para captar o entendimento de crianças sobre o tema é necessário, primeiro, identificar como essa população compreende os sistemas baseados em IA e interage com eles. Ao serem estimulados a comentar sobre o que pensam ao ouvir o termo “Inteligência Artificial”,  participantes dos workshops brasileiros mesclaram exemplos que vão desde tecnologias presentes no cotidiano, tal como assistentes virtuais (Siri, Alexa, Google Assistente), assistentes de lojas e de bancos (BIA, do Bradesco, Aura, da Vivo, Lu, do Magazine Luiza), até casos de ficção científica (Exterminador do futuro, Matrix, Homem de Ferro).

Ou seja, ao mesmo tempo que percebem a presença de IA em tecnologias utilizadas no dia a dia, fazem referência a ficções e futuros distantes que beiram cenários distópicos. 

Entre 2019 e 2020, o UNICEF realizou , com o apoio do governo da Finlândia, consultas globais com especialistas em IA, infância e direitos digitais para a elaboração do Guia de Política para Inteligência Artificial e Infância. Ciente da importância de dar voz às populações jovens nos processos que as envolvem, o projeto incluiu workshops com esse público. 

Dois dos workshops ocorreram em Manaus (AM) e São Paulo (SP) reuniu 42 adolescentes participantes, com idades entre 12 e 19 anos. A seguir, um resumo sobre as percepções dos jovens nas entrevistas em profundidade: 

Benefícios associados ao uso de IA

  • o acesso rápido e prático à informação; a agilidade para realizar atividades específicas;
  • a sugestão de filmes e músicas adequada aos gostos pessoais;
  • a melhora no diagnóstico e no tratamento de doenças;
  • o desenvolvimento de carros que dirigem sozinhos; 
  • a possibilidade de aprender novos idiomas;
  • o potencial de desenvolvimento de sistemas personalizados para acompanhar idosos, melhorar a acessibilidade e ajudar aqueles com dificuldade de compreensão. 

Dúvidas e preocupações

  • o uso de seus dados;
  • a falta de clareza sobre etapas de desenvolvimento de sistemas;
  • os possíveis impactos sociais;
  • o futuro do trabalho;
  • as incertezas em relação ao controle e à responsabilização dos atores envolvidos em toda a cadeia de desenvolvimento das tecnologias.

As respostas nas entrevistas demonstram que aspectos centrais às discussões sobre IA – como privacidade e proteção de dados pessoais – fazem parte de suas preocupações, o que reforça a necessidade de que os princípios de IA sejam adequados às demandas das populações jovens. Entre as questões estão: “Quem exatamente cria [os sistemas de IA]?”, “Como ela [IA] funciona e faz as coisas que deve?”,  “Como os meus dados são utilizados, onde ficam armazenados e quem tem acesso a eles?” e “Quem se responsabiliza por esses dados?”.

As preocupações levantadas pelas crianças e adolescentes podem ser compreendidas como formas de reivindicação por sistemas que considerem a proteção de dados pessoais, assegurem que os dados não sofram ataques externos, sejam confiáveis e operem da maneira proposta.

No entanto, a complexidade envolvida no desenvolvimento de sistemas baseados em IA cria desafios significativos para a governança dessas iniciativas, uma vez que, além das implicações técnicas, sua implementação e utilidade nem sempre são claras.

Entre os requisitos listados pelo UNICEF para desenvolver sistemas de IA centrados em crianças e adolescentes estão: garantir a inclusão dessa população, priorizar a equidade e a não discriminação. Para cumpri-los, é necessário considerar o processo de desenvolvimento de tais sistemas desde o início, o que significa olhar tanto para os dados e os algoritmos (uma vez que influenciam os resultados) quanto para uma abordagem de design inclusiva. Sobre os dados, o UNICEF preconiza que representem características importantes para os grupos que farão uso ou serão afetados pelos sistemas, tais como gênero e cultura, de forma a minimizar possíveis discriminações. Já a abordagem inclusiva pode garantir que, independentemente de aspectos como idade, diversidade geográfica e cultural, todas as crianças possam usar as tecnologias baseadas em IA, mesmo aquelas que potencialmente seriam excluídas por vieses dos algoritmos das plataformas. 

Outro aspecto importante é a adaptação dos sistemas ao contexto nacional e local. Para isso, as políticas e diretrizes voltadas à IA devem priorizar as crianças e adolescentes mais vulneráveis, considerar o desenvolvimento de bases de dados que incluam dados de crianças diversas, bem como eliminar vieses que resultem em discriminação e exclusão. 

Cientes das raízes históricas dos problemas sociais abordados, adolescentes identificam que a sub-representação de grupos populacionais no desenvolvimento de IA se associa ao papel de quem desenvolve tais tecnologias: “A gente percebe o quanto está difícil de o machismo ter fim e como ele é reproduzido por IA. A empresa vai contratar mais homens porque ela [base de dados que alimenta o algoritmo de IA] tem mais currículos de homens, e quem programou considerou isso. O machismo passa do homem para a máquina” (menina, 14 anos, Manaus).

Além da reprodução de preconceitos por sistemas alimentados por dados não representativos, os tomadores de decisão na criação e no desenvolvimento de sistemas baseados em IA podem subestimar as necessidades de populações vulneráveis ou marginalizadas, o que aparece em exemplos citados por jovens indígenas.  “Existem indígenas que não falam português direito. A tecnologia precisa ser aprimorada porque considera a diversidade só em português. Só aqui no Amazonas são mais de 350 etnias com línguas variadas. A tecnologia não se interessa por essas etnias” (menino, 14 anos, Manaus).

Se a multiplicidade de atores e interesses for desconsiderada no desenvolvimento de tecnologias de IA, o alcance de soluções inclusivas e efetivas estará comprometido. Nesse sentido, a escuta a jovens de realidades diversas pode inspirar saídas valiosas e inovadoras. 

Os jovens participantes dos workshops identificam que a criação, o desenvolvimento e a aplicação de sistemas de IA pressupõem o controle humano, assim como reconhecem os possíveis impactos decorrentes de interesses específicos. No entanto, observa-se a falta de clareza sobre quem são os atores responsáveis por garantir que as oportunidades trazidas por esses sistemas sejam de fato aproveitadas e que os riscos sejam mitigados. O desenvolvimento de sistemas é bastante associado a cientistas e desenvolvedores que trabalham com IA, mas há pouca menção às empresas (enquanto instituições) responsáveis por disponibilizar tais sistemas. Isso pode representar uma incompreensão dos participantes a respeito do ecossistema de IA como um todo, levando à falta de entendimento sobre quem responde pelas tecnologias e quais seus interesses. Além disso, embora possíveis falhas e vieses sejam recorrentes nas falas dos jovens, são raras as referências ao desenvolvimento de instrumentos normativos em relação ao papel do Estado. Ainda que haja criticidade por parte das populações jovens e potência para o seu engajamento no debate em torno de IA, as lacunas em instâncias de participação causam dúvidas sobre como se inserir nesses espaços e a quem cobrar por seus direitos.

Sem que as perspectivas e as necessidades específicas de crianças e adolescentes sejam de fato consideradas, o desenvolvimento de tecnologias seguras, justas, equitativas e voltadas às demandas desse público não será efetivo. É determinante que essa população seja consultada e inserida nas arenas de participação, tendo contato com a multiplicidade de atores e interesses envolvidos na cadeia de produção das tecnologias. 

Em abril de 2021, a ONU lançou o  Comentário Geral sobre Direitos das Crianças em Relação ao Ambiente Digital. Disponível em Português, Espanhol e Ingles, o documento pontua como a Convenção sobre os Direitos da Criança, tratado de direitos humanos mais ratificado em todo o mundo (com mais de 190 Estados signatários), se aplica igualmente ao mundo digital.

LGPD e os impactos na educação

Com a entrada em vigor da Lei Geral de Proteção de Dados em agosto de 2020, escolas e demais instituições de ensino têm a oportunidade de tornar a educação em direitos digitais uma prática cotidiana

 

Você já parou para pensar porque uma Lei de proteção de dados é importante para um país? Hoje estamos diante de uma sociedade cujos sistemas, informações, serviços e processos são cada vez mais baseados em “dados”. Nesse sentido, torna-se fundamental regular a forma como nós cidadãos — titulares desses dados — vamos controlar o uso.

É importante diferenciar “proteção de dados pessoais” do “direito à privacidade”. Privacidade é algo que não é público, diz respeito à intimidade e à vida privada e está contemplada em diversas legislações brasileiras como a Constituição Federal e o Código Civil. O Marco Civil da Internet, de 2014 e regulamentado em 2016, traz em seu artigo 3º a proteção da privacidade e a proteção de dados, na “forma da lei” — já indicando a necessidade de uma lei exclusiva para o tema.

Quando nos referimos a “dados pessoais” não importa se são públicos ou privados para que possam ser protegidos. Nesse sentido, proteção de dados pessoais se relaciona com o direito à privacidade, mas vai além, pois diz respeito à igualdade, acesso a informação, liberdade de expressão, dentre outras questões. Se pensarmos que tudo o que consumimos de informação nos é direcionado pelos algoritmos de inteligência artificial a partir de nossos dados, é aí que surge aquela sensação de “bolha”, ou seja, de que estamos somente acessando e dialogando com o que nos é conhecido. Se não temos consciência de que isso acontece assim, podemos ficar presos na “Matrix” — só para brincar com a referência ao primeiro filme da trilogia, que vai ter mais um, e a estreia está prometida para 2020.

Outro ponto importante no contexto dos dados pessoais é a questão da vigilância, desencadeada com as denúncias do ex-oficial americano da CIA e NSA, Edward Snowden, em 2013. Vivemos num mundo em que cada vez mais sensores estão espalhados, seja em câmeras de reconhecimento facial ou em bilhete de transporte público, quase tudo que nos rodeia se baseia em dados. O limite entre o que se pode coletar ou não seguirá sendo alvo de debates por muito tempo ainda.

Quais seriam, então, as funções de uma Lei de proteção de dados? A primeira delas tem a ver com proteção de liberdades e direitos fundamentais do cidadão (por exemplo, igualdade, acesso à informação, liberdade de expressão, privacidade). Além disso, uma regulamentação oficial permite que se busque fomentar o desenvolvimento econômico e tecnológico ao mesmo tempo que oferece segurança e controle para as pessoas, além de criação de políticas públicas que determinem transparência como um valor.

LEIA O POST COMPLETO AQUI

Educação aberta e a proteção dos direitos digitais

Ao ressaltar o uso de licenças flexíveis de direito autoral e a preferência por tecnologias livres, evidencia-se direitos como acesso à informação, liberdade de expressão e privacidade de dados pessoais

direitos

Entre os dias 17 e 20 de setembro, estive em Buenos Aires a convite do Centro de Estudos em Liberdade de Expressão e Acesso à Informação (CELE) da Universidade de Palermo para o evento sobre Regulação da Internet na América Latina, organizado em parceria com a Artigo 19 (Brasil e México) e a Fundação Karisma (Colômbia).

Na ocasião, pude apresentar e lançar a versão em espanhol do Jogo da Política de Educação Aberta, ferramenta de formação criada para apoiar gestores (tanto do setor público como do privado) a diagnosticarem suas políticas a partir de três aspectos fundamentais e complementares que precisam ser considerados: pedagógicos, técnicos e jurídicos. O jogo recebeu financiamento da Pan American Development Foundation (PADF) no âmbito do concurso para implementação de iniciativas relacionadas aos direitos digitais.

Mas o que educação aberta tem a ver com direitos digitais?

Educação aberta é definida como um movimento mundial que promove a liberdade de usar, adaptar e redistribuir recursos educacionais.  Assim como o desenvolvimento de práticas pedagógicas flexíveis e a adoção de tecnologias de padrão aberto. Nesse sentido, a educação aberta também fomenta a importância da garantia de direitos humanos no contexto da internet, os chamados direitos digitais:

  • Acesso à informação e ao conhecimento. Por fomentar o uso de licenças abertas de direito autoral, especialmente em relação a materiais educacionais financiados com dinheiro público, de forma que fiquem disponíveis à sociedade;
  • Liberdade de expressão. Por defender a diversidade e a pluralidade de autoria de ideias que possam ser compartilhadas, vindas de manifestações intelectuais, artísticas, científicas e de comunicação;
  • Privacidade de dados pessoais. Por recomendar a adoção de tecnologias de código aberto em prol da transparência e do controle de dados pelos usuários.

Esse último item, relacionado aos dados pessoais, está agora bastante evidenciado com a aprovação da Lei Geral de Proteção de Dados Pessoais (LGPD nº 13.709/2018), que entrará em vigor em agosto de 2020.

A LGPD regulamenta o tratamento dos dados pessoais. Ela vem ao encontro de normativas mundiais sobre privacidade que garantem ao titular dos dados a autonomia para obter informações e tomar decisões.

Podemos dizer também que a LGPD representa mais um marco legal brasileiro que fundamenta a privacidade como um direito humano. A questão já está presente na Constituição Federal, no Código Civil, no Estatuto da Criança e do Adolescente e no Marco Civil da Internet.

Qual a relevância da privacidade nos dias de hoje?

Vivemos hoje em uma sociedade baseada em dados, o famoso “big data“, ou seja, nossos dados são o que existe de mais valioso, não apenas nosso nome, idade, CPF, local de moradia ou trabalho, mas também nossas preferências, comportamentos, opiniões e convicções. Alguns juristas costumam dizer que os dados são a extensão da própria pessoa e é aí que mora a importância do tema. Ter conhecimento sobre como nossos dados são usados é fundamental em um regime democrático.

Atualmente, quase todas as empresas, das pequenas às grandes usam dados: administradoras de cartão de crédito (sabem seu comportamento de compra), planos de saúde (sabem o que você consome nas farmácias). Também podemos incluir os desenvolvedores de aplicativos os mais diversos até as populares plataformas gratuitas de redes sociais.

E mais: na educação, dados de crianças e adolescentes, como histórico escolar, origem familiar e outros dados considerados sensíveis estão sendo usados por sistemas digitais de finalidade administrativa ou instrucional.

O interesse de quem coleta dados é alimentar algoritmos para gerar personalizações, criando perfis que, teoricamente, podem permitir aprimorar serviços ou, no caso de empresas, abastecer modelos de negócio baseados em comercialização de produtos ou fidelização de usuários.

É bom lembrar que nem sempre os dados são utilizados de forma ilícita ou, como é comum dizer, para o mal. No entanto, se não houver tratamento adequado para garantir a privacidade e a transparência, podemos cair no problema da vigilância e da violação de direitos.

Não há como garantir educação de qualidade sem que as tecnologias tenham perspectivas inclusivas para não perpetuar o preconceito e a discriminação. Nesse sentido, é preciso criar políticas educacionais assertivas que contemplem os direitos digitais acima mencionados. É fundamental também implementar ações formativas com pais e estudantes, falei sobre isso neste outro artigo.

Muitas escolas e secretarias de educação investem em (ou aceitam “sem custo”) plataformas que utilizam avassaladoramente dados pessoais. Ainda que nos documentos digam que não serão usados comercialmente, os rastros digitais permanecem se a pessoa continua “logada”.

Com o Jogo da Política de Educação Aberta, um recurso educacional aberto disponível para baixar e montar ou enviar para impressão em gráfica, é possível debater essa questão institucionalmente na gestão e fazer um diagnóstico. E com isso, compreender o que significa abertura em uma perspectiva ampla, de forma a apoiar o planejamento de melhorias e adequações.

Recomendo também o painel de debates sobre LGPD organizado pelo NIC.br no 4º Seminário sobre Exposição de Crianças e Adolescentes na Internet. Ele foi realizado dia 17 de setembro.

Buscar partir de 1h e 28 minutos.