Quando a tecnologia ensina, quem aprende?

As plataformas digitais reconfiguram a escola à sua imagem, individualizando o ensino e reduzindo o papel do professor. Por isso, no processo educacional, o decisivo não é a tecnologia, mas quem a controla e a desenha. Oferecer a velha educação com uma roupagem tecnológica, embora lucrativo e fácil, não garante preparar as crianças para os grandes desafios que terão de enfrentar
Image: Ilustração de Kelly Boech

Há mais de um século, inventores anunciam que a próxima tecnologia finalmente modernizará a escola – do corretor de testes mecânico de Sidney Pressey em 1924 à “máquina de ensinar” de B. F. Skinner nos anos 1950 e ao tutor eletrônico de hoje. A cada geração tecnológica – o cinema, a TV, a internet, a IA –, o diagnóstico é similar: a educação está “quebrada”, não funciona, e (curiosamente) a solução é a tecnologia que está em voga. Skinner afirmava que a sua máquina (um simples dispositivo mecânico que informava ao aluno se sua resposta estava correta) tornava o trabalho escolar “prazeroso”, permitindo que o estudante avançasse “no seu próprio ritmo”. Nos anos 2000, o Vale do Silício redescobriu Skinner, e Salman Khan argumentava que assistir a videoaulas em casa, onde o discente poderia ir “no seu próprio ritmo”, revolucionaria a educação. A imagem, ainda hoje, parece promissora: sistemas infinitamente pacientes que se adaptam às necessidades dos estudantes, inteligência artificial (IA) que detecta dificuldades antes mesmo que o aluno as perceba – tudo a um custo quase zero.

Mas, por trás desse otimismo, há três fatos incômodos. O primeiro é que há décadas essas soluções têm fracassado em revolucionar a escola. O segundo é que criar e operar tais sistemas tecnológicos tem custo muito longe de zero (inclusive ambiental). O terceiro fato é que tecnologias nunca são neutras. Elas carregam escolhas intrínsecas e muitas vezes invisíveis sobre como se mede o êxito, que pedagogia é válida, quem decide o que deve ser ensinado e quais incentivos e recompensas estruturam o sistema. Essas escolhas são feitas, muitas vezes, nas salas multicoloridas do Vale do Silício, nos Estados Unidos, bem longe das secretarias de educação e salas de aula brasileiras.

Quando as tecnologias entram na escola, reconfiguram as relações econômicas e de poder entre estudantes, docentes, empresas e Estado. Em outras palavras, elas não “melhoram” a educação, mas a redefinem à sua imagem e semelhança. A questão fundamental é quem desenha e controla essas tecnologias, e sabemos que elas vêm da problemática cultura das grandes empresas de tecnologia do Vale do Silício.

A fórmula do Vale do Silício

Com a promessa de disrupção na alimentação, Rob Rhinehart criou a startup Soylent em 2013. Para o empreendedor, os supermercados eram “corredores infinitos com cheiro de carne apodrecendo” e as cozinhas eram “câmaras de tortura” com facas e fogo por todo lado. Longas refeições eram perda de tempo. A solução foi a criação de um shake com todos os nutrientes recomendados pela ciência: três por dia nos livrariam da tortura de ir ao supermercado e perder tempo em refeições. A startup foi uma das mais celebradas de seu tempo, mas relatos de crises gastrintestinais e críticas ao conceito de Rhinehart terminaram por arruinar a Soylent em poucos anos. Apesar do fracasso, sua história é típica e útil para ilustrar como o discurso – mais do que o produto em si – é usado para convencer usuários e investidores, movimentando bilhões de dólares. A fórmula envolve três etapas que discutimos em seguida. 

A construção do discurso: o antagonista | Rhinehart foi brilhante na construção do discurso que o catapultou à celebridade. Para dissecar sua narrativa, usaremos as ferramentas da semiótica e da análise do discurso, a partir principalmente das perspectivas de Mikhail Bakhtin (1895-1975). Para o filósofo da linguagem, o sentido do discurso é sempre relacional e ele não existe isoladamente, sendo moldado por vozes anteriores e paralelas. A natureza dialógica e polifônica do discurso faz com que ele seja um objeto dinâmico e histórico, em que vozes interagem e “respondem” mutuamente (veja o exemplo da expressão “alunos indo no seu próprio ritmo” atravessando décadas, de Skinner até Khan). Uma forma particularmente eficiente na construção do discurso é a criação de um antagonista, que acentua as qualidades do “protagonista” por contraste.

A manufatura de um antagonista pode começar com pinceladas de fatos reais, mas inclui consideráveis doses de exagero e generalizações. No caso da Soylent, supermercados são “insuportáveis” e cozinhas colocam a vida em risco. Em recente entrevista, Mikey Shulman, CEO de uma empresa de composição musical por inteligência artificial, disse que músicos precisam de IA porque “não é muito prazeroso fazer música hoje em dia. […] exige muita prática e ser muito bom em um instrumento […] a maioria das pessoas não gosta […] do tempo que passa fazendo música”. Shulman fala da composição musical como um martírio para os músicos, que seriam “libertados” pela IA. Empresas de realidade virtual, da mesma forma, descrevem a realidade “real” como incômoda, limitada e ameaçadora.

E por que aceitamos esses exageros e generalizações? Segundo Bakhtin, aí entra a polifonia: o discurso é sempre uma soma de vozes que lhe conferem credibilidade. No caso de Salman Khan, ele foi apresentado por Bill Gates em sua famosa palestra no TED de 2011. Muitas outras empresas fazem uso desse recurso, trazendo testemunhos de celebridades, cientistas ou especialistas, sempre prontos a integrar o coro de vozes para validar o discurso – mesmo que tenham pouca experiência no assunto ou enormes conflitos de interesse. Já em 1995, Steve Jobs tratava os sistemas educacionais como falidos e colocava sindicatos como os grandes inimigos da educação.

A ressignificação da atividade-fim | A Soylent não queria apenas ser mais uma empresa fazendo shakes de proteína: ela queria “disruptar” sua indústria e precisava mudar, no imaginário de seus usuários, a natureza da alimentação. Seu CEO dizia que queria melhorar a vida das pessoas, mas na verdade desejava reconfigurar essas vidas à imagem de seu produto: era necessário convencê-las de que a alimentação era apenas a ingestão eficiente de nutrientes. Rhinehart precisava ressignificar o ato de comer, assim como Shulman, o de compor, e Khan, o de aprender. Tecnologias têm limitações e superá-las tem custos que podem inviabilizar um modelo de negócio. Ressignificar a atividade-fim é fundamental para convencer as pessoas de que as imprecisões e limitações da tecnologia são inevitáveis e aceitáveis – afinal de contas, os sistemas atuais estão “quebrados”. 

Um novo ecossistema monopolista | Se a atividade-fim é reconfigurada para um modelo de negócio específico, o que não se encaixa passa a ser considerado supérfluo ou opcional. O que antes era corriqueiro, como comer refeições ou contratar músicos, passa a ser um luxo excessivamente caro. Construir uma escola e pagar professores passa a parecer uma extravagância econômica em comparação a gravar vídeos online. Apesar das aparências, o que está sendo oferecido a um custo mais baixo é outro produto ou experiência com o mesmo nome, privado de componentes importantes.

O Soylent educacional: os antagonistas da edtech

Essa mesma fórmula – da criação de um antagonista à ressignificação da atividade-fim, resultando em novos monopólios – tem sido usada pelas empresas de tecnologia. Os empreendedores foram rápidos em criar antagonistas: o “coletivo” virou um instrumento de opressão – a aprendizagem tem que ser personalizada, individual e adaptada a cada aluno. Professores são “lentos”, “massificadores”, e apenas capazes de dar aulas padronizadas. A presença no mesmo espaço e tempo é uma violação da liberdade – estudantes deveriam aprender onde e quando quiserem. Ambientes educacionais “físicos” são extravagâncias e inviáveis economicamente. Esse discurso repleto de exageros já insinua a solução: a educação individualizada, virtual, baseada em telas, sem presença física e com um papel diminuído para professores humanos. Mas esses antagonistas são grandemente exagerados. O coletivo não é necessariamente prejudicial para a aprendizagem. Um bom professor raramente só dá aulas expositivas. A presença no mesmo espaço físico e a delimitação de um tempo próprio para a aprendizagem são positivas, principalmente para crianças. 

Há muitas formas positivas de utilizar a IA na educação, principalmente se apoiada na perspectiva construcionista e na pedagogia crítica, que valorizam a cultura do aluno, o aprender individual e coletivo, além da criatividade e da experimentação

Mas a solução que emerge do modelo das empresas de edtech é sempre muito parecida: um tutor eletrônico, que funciona 24 horas por dia sem se cansar e que guia o aluno melhor que um ser humano – uma promessa repetida há décadas. Em 2008, a Knewton prometeu criar o “tutor mais inteligente do mundo” e consumiu US$ 180 milhões. Em 2013, com quase US$ 100 milhões, a InBloom tentou revolucionar a educação com uso intenso de “big data” e softwares de tutoria. A AltSchool, em 2016, prometeu causar disrupção nas escolas com um outro sistema baseado em aprendizagem de máquina, IA e US$ 200 milhões. Uma lista interminável de empresas fez essa mesma promessa – e a grande maioria quebrou. Justin Reich, em seu livro Failure to disrupt, faz uma cuidadosa radiografia desses sistemas de tutoria e confirma que a maioria não apresentou os resultados esperados. As exceções são os sistemas que eram bem integrados ao trabalho do professor “humano”, em vez de substituí-lo, e mesmo esses sistemas apresentavam resultados modestos e restritos a poucas áreas do conhecimento.

Educação é mais do que o depósito de informações | Justin Reich, entre outros autores, também mostra que a educação é um processo holístico e complexo em que muitas coisas acontecem ao mesmo tempo: a socialização, a formação ética, o aprender a trabalhar em grupo, o desenvolvimento da curiosidade, a metacognição e o “aprender a aprender”. Otimizar a transmissão de conteúdo é só uma parte desse todo, mas é a que mais facilmente se pode “produtificar”: daí o foco das empresas de edtech em ressignificar a educação para que ela seja primordialmente transmitir e testar conteúdo.

Quando as plataformas tecnológicas tomam conta de um sistema, também reconfiguram o trabalho docente. O professor passa a ser guiado e monitorado por elas, e se a história serve de guia, o tempo supostamente economizado por ele não é reinvestido na sala de aula ou na formação docente, mas reapropriado pelas empresas ou sistemas.

A IA e as plataformas podem seduzir gestores pelo discurso que promete amplos ganhos de aprendizagem a custos mínimos. Ocorre, entretanto, que com o uso descontrolado e desregulamentado, escolas públicas podem acabar oferecendo uma educação ainda mais simplificada e empobrecida, enquanto escolas de elite continuarão proporcionando experiências de aprendizagem ricas e complexas. Além disso, ao focar na simples otimização da transmissão de conteúdo, os tecnólogos se esquecem de outros problemas políticos e estruturais que a IA não vai resolver, como subfinanciamento, desigualdade sistêmica, decisões curriculares, privacidade de dados e racismo algorítmico.

Uma agenda positiva para a IA na educação

Apesar do tom preocupado até aqui, nossas críticas se concentram no uso da IA para automação e vigilância, e no controle dessas tecnologias por instituições pouco comprometidas com a educação pública. Há muitas formas positivas de utilizar a IA, principalmente se apoiada na perspectiva construcionista e na pedagogia crítica, que valorizam a cultura do aluno, seus conhecimentos prévios, o aprender individual e coletivo, além da criatividade e da experimentação. É fundamental (mas trabalhoso) investir na criação de novas ferramentas de IA com esse tipo de intenção pedagógica. Listamos a seguir algumas ideias e princípios que podem orientar esse processo. 

Desenhar para o esforço cognitivo mais significativo | Designers devem identificar o que é cognitivamente importante em uma tarefa e criar ferramentas de IA que ofereçam suporte sem fazer o trabalho pelos alunos. Os chatbots, que fazem tudo que pedimos, são uma ótima ferramenta para o fazer, mas inadequados para a maioria das tarefas de aprendizado na educação básica, porque fazem para os alunos também o que é cognitivamente importante. Estudos recentes têm mostrado que estudantes que usam chatbots de forma indiscriminada estão aprendendo menos. 

Personalização real | Em vez da personalização que varia apenas a velocidade do depósito do conteúdo, a personalização real deve permitir que estudantes explorem tópicos de seu interesse e ampliem seus horizontes intelectuais. A IA pode ser útil por oferecer acesso a grandes repositórios de conhecimento, permitindo projetos investigativos sofisticados. Precisamos superar o “ir no seu próprio ritmo” skinneriano e evoluir para o “aprender o que é significativo” freireano.

Reduzir “barreiras de entrada” | Crianças têm múltiplos interesses em robótica, literatura, música, cinema e outros tópicos. Essas atividades exigem meses de aprendizado mesmo para a criação de produtos simples. Ferramentas de IA podem reduzir as “barreiras de entrada”, facilitando a criação. Há ferramentas poderosas para a criação de música, vídeos e programação, desenhadas para não fazer todo o trabalho pelo estudante, mas apenas ajudar na criação de produtos complexos em menos tempo.

Simular o impensável | A IA permite simulações em ciências que anteriormente seriam impossíveis. Para aprender física ou química, agora estudantes podem “inventar” novas leis naturais e ver como seria o mundo, comparando com leis “reais”. Como seria o universo se a lei da gravidade fosse diferente? Como seriam os seres humanos se a porcentagem de oxigênio no ar fosse diferente? Há uma infinidade de novas possibilidades curriculares quando alunos podem ter um assistente para imaginar o inimaginável, em vez de apenas ensinar os velhos conteúdos. Apesar do uso corriqueiro da IA para resolver problemas fechados (equações, fatos históricos etc.), é na resolução de problemas abertos, sem solução única ou avaliação binária, que a IA será mais poderosa.

Pesquisa avançada | Cientistas usam ferramentas conhecidas como “cadernos eletrônicos” (como o Jupyter Notebook ou Google Notebook LM) para fazer pesquisas, registrar experimentos e organizar informações. Esses sistemas usam IA não só para acessar bases de dados, mas para interpretar e sintetizar informação, indo muito além dos chatbots. Desenhar “cadernos eletrônicos” para crianças é uma oportunidade de design pouco explorada.

Gerenciamento de sala de aula e escolas | A IA pode auxiliar no gerenciamento de dados e na automatização de tarefas “fora da sala de aula”. Muito do trabalho mais burocrático de professores pode ser otimizado e dados gerados nas escolas podem ser interpretados por IA para ajudar educadores e diretores na avaliação da efetividade de novos programas.

A IA nas mãos de quem entende de educação

Nossa cautela em relação à IA não é sobre a tecnologia em si, mas sobre quem a controla e a desenha. Tecnologias nunca existem em estado neutro, não são só “ferramentas” – são objetos com uma história e com propriedades que influenciam seu uso. As empresas de tecnologia são movidas pela promessa de produtos revolucionários que trarão inimagináveis retornos aos investidores. Nesse contexto, a decodificação do discurso de seus ideólogos é fundamental. É por meio do discurso que eles conseguem “licença” para ignorar o impacto ambiental, humano e ético de suas tecnologias. Sam Altman, CEO da Open AI, promete um mundo em que “[…]possivelmente vamos resolver a física de alta energia em um ano e começar a colonização do espaço no ano seguinte”. Promessas de uma superinteligência que vai “resolver” a saúde, a educação e o aquecimento global são exemplos desses perigosos artifícios retóricos. Na educação, esse “teatro da inovação” traz um custo de oportunidade: ao seduzir governantes e retirar educadores do processo decisório, essas inovações tomam o lugar de soluções mais sólidas, perigosa e irreversivelmente remodelando a educação à imagem desses produtos “revolucionários”. 

A inteligência artificial na educação veio para ficar e pode ser positiva para alunos e professores, desde que seja pensada e implementada por quem entende e trabalha com educação. Deve ser levada à escola com intencionalidade pedagógica, regulamentação e alinhamento com os objetivos da educação pública, com protocolos claros para experimentação controlada e segura, orientação para gestores e uma sólida formação para professores.

Apesar da assimetria de conhecimento, a educação é sobretudo uma conversa entre pessoas. Nessa conversa, há um sentido compartilhado, e ela se dá dentro de uma rede de “textos” e relações que são visíveis e inteligíveis por nós. Quando essa conversa se dá com um ser eletrônico, cujo sentido, objetivos e “inteligência” são uma caixa-preta ininteligível até para seus criadores, estudantes estão em um território arriscado e desconhecido.

Oferecer a velha educação com uma roupagem tecnológica é lucrativo e fácil. O que queremos é o difícil e caro: oferecer às nossas crianças uma educação que as prepare para enfrentar os grandes desafios que as aguardam. Para isso, não precisamos de um tutor eletrônico: precisamos, cada vez mais, de seres profundamente humanos.

*Os autores agradecem a Fabio Campos pela colaboração na revisão deste artigo.

Os Autores(as)

Paulo Blikstein

Paulo Blikstein é doutor em ciências da aprendizagem e professor livre-docente da Universidade de Columbia (EUA), onde dirige o Transformative Learning Tecnologies Lab, além de professor visitante no Instituto Tecnológico de Monterrey (México).

Izidoro Blikstein

Izidoro Blikstein é doutor em linguística e professor titular aposentado da Faculdade de Filosofia, Letras e Ciências Humanas da Universidade de São Paulo (USP) e adjunto da Fundação Getulio Vargas FGV-SP. É autor de Kaspar Hauser ou a fabricação da realidade e Semiótica e totalitarismo (Ed. Contexto). Os autores agradecem a Fabio Campos pela colaboração na revisão deste artigo.

Relacionados

Últimas