Avanços por uma IA equitativa no setor social
Aplicativos cuidadosamente projetados podem gerar resultados mais fortes e igualitários para organizações sem fins lucrativos
Este artigo faz parte da nossa série “A busca global pela equidade”. Para conferir os demais artigos, clique aqui.
Por Kelly Fitzsimmons
A inteligência artificial (IA) evolui rapidamente em muitos setores e no mundo todo, e está mudando a forma como as pessoas e as organizações pensam e se comportam. Nos Estados Unidos, já há alguns anos empresas como Netflix e Amazon fazem bom uso da IA para adaptar recomendações e fornecer assistência virtual aos clientes, ao mesmo tempo que instituições de pesquisa e laboratórios de IA, como a DeepMind, a usam para acelerar a pesquisa médica e combater as mudanças climáticas.
Leia também:
‘Óculos roxos’ para alcançar a equidade de gênero no México
Medidas para a inclusão de pessoas com deficiência na China
De modo geral, porém, organizações sem fins lucrativos, têm participado menos desse momento de inovação tecnológica. Há motivos compreensíveis, até certo ponto, para isso: o setor não rentável enfrenta desafios generalizados,desde a falta de investimento em pesquisa e desenvolvimento até a escassez de uma equipe com experiência em IA, problemas que outros setores não enfrentam. Mas isso precisa mudar. O impacto da IA na sociedade – a forma como as pessoas trabalham e vivem – vai aumentar com o tempo, e o setor social não pode se dar ao luxo de não se envolver. As organizações sem fins lucrativos, na verdade, têm um papel importante a desempenhar em seu desenvolvimento. Quando projetadas e implementadas com a equidade em mente, as ferramentas de IA podem ajudar a preencher lacunas de dados, reduzir vieses e aumentar a eficácia dessas instituições. Financiadores, líderes sem fins lucrativos e especialistas em tecnologia precisam agir rapidamente e em sintonia para promover a IA equitativa no setor social.
Uso da IA para apoiar a equidade
Embora a IA ofereça muitas oportunidades empolgantes, seu potencial de causar danos sérios é claramente conhecido. Os desenvolvedores treinam algoritmos usando dados coletados de toda a sociedade, o que significa que os vieses estão presentes desde o início. Por exemplo, provedores de serviços financeiros geralmente usam a IA para tomar decisões de empréstimo, mas o setor financeiro nos Estados Unidos tem uma longa história de discriminação sistemática contra mulheres e alguns grupos raciais, que passa pela desigualdade nas políticas de avaliação e subscrição. Como esses algoritmos são treinados com base em dados históricos que refletem esse desfavorecimento intencional ligado a determinados CEPs, profissões e outras definições associadas a raça ou gênero, práticas injustas de empréstimo e desigualdades financeiras podem ser perpetuadas se isso não for levado em conta. Mesmo organizações não rentáveis bem-intencionadas poderiam facilmente criar aplicativos de IA falhos, gerando inadvertidamente consequências prejudiciais. Por exemplo, uma organização que fornece capital semente para empreendedores sociais poderia treinar a IA usando dados financeiros tendenciosos e acabar prejudicando a missão de promover a equidade de riqueza ao dar preferência, erroneamente, a certos grupos de pessoas.
Há também um temor geral de que melhorias rápidas na capacidade da IA para executar tarefas administrativas, analíticas e criativas possam tornar obsoletas muitas profissões e até indústrias inteiras. A empresa de mídia digital Buzzfeed começou, recentemente, a usar IA para gerar conteúdo para seu site. Não é difícil imaginar um cenário em que uma organização sem fins lucrativos com orçamento limitado possa decidir cortar sua equipe de marketing e confiar no modelo de linguagem alimentado pelo ChatGPT, por exemplo. Além disso, aspectos relacionados à equidade na IA acabam se tornando menos prioritários uma vez que faltam regulamentação e incentivos financeiros para que as entidades os considerem. Empresas líderes de tecnologia, como Google e Microsoft, por exemplo, cortaram equipes voltadas para a ética na IA nos últimos anos.
Todas essas preocupações são legítimas e as organizações devem se esforçar para atendê-las. No entanto, quando desenvolvidos cuidadosamente e com a equidade em mente, os aplicativos alimentados por IA têm um grande potencial para ajudar a gerar resultados mais fortes e igualitários para as organizações sem fins lucrativos, em especial em três aspectos, descritos a seguir.
Preencher lacunas de dados
A crescente divisão de dados entre os setores privado e social ameaça reduzir a eficácia das organizações sem fins lucrativos que fornecem serviços sociais essenciais nos Estados Unidos e deixam aqueles a quem elas servem sem o apoio de que precisam. Como escreveu Kriss Deiglmeir em um ensaio recente da Stanford Social Innovation Review, “dados são uma forma de poder”. E, continua, “a triste realidade é que o poder está sendo cada vez mais nas mãos do setor comercial, e não nas de organizações que buscam criar um mundo mais justo, sustentável e próspero”. A IA pode ajudar a quebrar essa tendência, democratizando o processo de geração e mobilização de dados e evidências e tornando, assim, a pesquisa, o desenvolvimento, a avaliação e a análise de dados contínuos mais acessíveis a uma gama mais ampla de organizações, incluindo aquelas com orçamento limitado e experiência interna.
Tomemos como exemplo a Quill.org, entidade que fornece a estudantes ferramentas gratuitas para ajudar a desenvolver a compreensão de leitura, escrita e habilidades linguísticas. A instituição usa um chatbot alimentado por IA que pede aos alunos que respondam a perguntas abertas com base em um trecho de texto. Em seguida, analisa as respostas e oferece sugestões de melhoria, como escrever com clareza ou usar evidências para dar sustentação às afirmações. Essa tecnologia torna o pensamento crítico de qualidade e o suporte à escrita disponíveis para alunos e escolas que, de outra forma, não teriam acesso a eles. Como disse recentemente Peter Gault, fundador e diretor-executivo da Quill.org: “Os Estados Unidos têm 27 milhões de estudantes de baixa renda que enfrentam dificuldades com escrita básica e se veem em desvantagem na escola e na força de trabalho […]. Ao usar a IA para dar feedback imediato sobre sua escrita, ajudamos professores a apoiar milhões de estudantes que se esforçam para escrever de forma mais forte, pensar de forma mais crítica e tornarem membros ativos de nossa democracia”.
Reduzir vieses
Muitas histórias ilustram como a IA pode perpetuar vieses, como as de departamentos de polícia que usam algoritmos que apontam réus negros como pessoas com maior risco de cometer crimes no futuro do que os brancos, e empresas que aplicam os que desfavorecem mulheres na contratação. Mas a IA também tem o potencial de ajudar a reduzir preconceitos, apoiando a tomada de decisões equitativas. Algoritmos cuidadosamente projetados podem desconsiderar variáveis não relacionadas a resultados (como raça, gênero ou idade) que frequentemente influenciam a tomada de decisão humana, ajudando a equipe de organizações sem fins lucrativos a revelar padrões e tomar decisões com base em evidências, em vez de cair em vieses humanos e pontos cegos.
Um exemplo dessa possibilidade vem da First Place for Youth, organização que ajuda jovens a fazerem uma transição bem-sucedida para uma vida adulta responsável e autossuficiente. A entidade criou um mecanismo que usa análise de precisão – tecnologia que prevê tendências e padrões comportamentais ao revelar relações de causa e efeito nos dados – para tratar dados de administração do programa e avaliar casos, aprendendo com as diferenças de resultados entre os jovens. Isso ajuda a equipe a entender melhor o que funcionou para populações específicas e quais apoios personalizados têm maior probabilidade de acerto. Criado sob a lente da equidade, o algoritmo pode esclarecer se grupos demográficos distintos têm acesso igual aos componentes do programa. Além disso, para evitar replicar vieses existentes, a ferramenta não reúne casos com base em fatores socioculturais, como raça, que não devam ser levados em conta ao se pensar nos motivos pelos quais uma criança é selecionada para diferentes opções de programa.
Aumentar eficiência
Aplicativos de IA podem cometer erros que vão do cômico ao aterrorizante. Os exemplos são muitos, como o chatbot do Bing que compartilhou fantasias obscuras e se declarou para um colunista do New York Times; ou o da paródia de Seinfeld sendo banida da Twitch por fazer piadas transfóbicas; ou ainda um chatbot da Microsoft sendo desligado por fazer comentários racistas. Mas aplicativos alimentados por IA, como os mecanismos de recomendação, análise de precisão e processamento de linguagem natural, podem ajudar organizações a aumentar a produção e, ao mesmo tempo, reduzir erros humanos. Designar tarefas rotineiras e tediosas para essas ferramentas pode permitir a equipes de entidades não rentáveis com capacidade limitada se concentrarem mais no trabalho estratégico e humano que computadores não podem fazer.
A Crisis Text Line, organização sem fins lucrativos que fornece suporte gratuito de saúde mental baseado em texto e intervenção em crises, usa IA para aumentar eficiência e ampliar sua capacidade, ao mesmo tempo que preserva serviços pessoais de alta qualidade. Especificamente, a organização ensinou a IA com textos anteriores para reconhecer palavras-chave de alto risco e combinações de palavras, permitindo uma triagem mais eficiente das mensagens recebidas por ordem de gravidade. A Crisis Text Line também usa a automação como parte do treinamento de voluntários para desenvolver habilidades de resposta a crises. Seu algoritmo de processamento de linguagem, treinado por um conjunto de casos fictícios, mas realistas, permite que o algoritmo imite conversas ao vivo entre voluntários e clientes sobre tópicos como ansiedade e automutilação. A tecnologia ajuda a Crisis Text Line a capacitar seus voluntários de forma eficiente e flexível, em parte porque permite completar o treinamento de acordo com a conveniência deles. E, o que é mais importante, permite à equipe e à rede de voluntários dedicarem mais tempo a prestarem apoio qualificado em tempo real ao público que os procura.
Apoio ao desenvolvimento de IA para organizações sem fins lucrativos
Embora exemplos como os acima ofereçam ilustrações interessantes do que é possível fazer, eles infelizmente são a exceção, e não a norma. O setor social precisa fazer bem mais para aproveitar o momento; precisa não só mostrar o que é possível, mas também construir as ferramentas e a infraestrutura necessárias para promover uma IA equitativa.
Nossa organização, Project Evident, ajuda outras entidades a fazerem bom uso do poder e de dados para aumentarem seu impacto e trabalha para construir um ecossistema de evidências mais forte e equitativo. Dentro de uma iniciativa recente com 18 meses de duração e foco em IA, reunimos organizações não rentáveis que queriam usar a tecnologia para obter melhores resultados para seus programas e desenvolvemos estudos de caso que ilustram os processos de condução e adoção de IA na prática. Além disso, para informar o desenvolvimento de ferramentas eficazes e equitativas, atualmente temos uma parceria com o Instituto de Inteligência Artificial Centrada em Humanos, de Stanford, em uma pesquisa nacional que busca compreender melhor o uso de IA e as necessidades de aprendizado entre organizações sem fins lucrativos e financiadores. Esses projetos ajudaram a pensar como o setor social pode fortalecer o ecossistema para uma IA equitativa.
Aumento do investimento em ferramentas de IA
Muitas organizações sem fins lucrativos e distritos escolares estão ansiosos para entender como a IA pode ajudar em seu trabalho, mas não têm os meios para isso. “As estruturas de financiamento para organizações sem fins lucrativos normalmente não permitem que esse tipo de trabalho realmente aconteça”, disse Jean-Claude Brizard, que lidera a Digital Promise, organização sem fins lucrativos focada em educação, e que participou de nossa coorte. “A maioria das organizações sem fins lucrativos não tem tempo nem recursos.” Uma solução simples seria que os financiadores oferecessem subsídios para “nativas” (organizações que já implantam IA para criar resultados equitativos) e “exploradoras” de IA (organizações interessadas em usar IA, mas que não têm o capital e o suporte requeridos).
As fundações também devem investir em seu próprio aprendizado e explorar se e como a IA pode tornar processos de concessão de subsídios mais eficientes ou melhorar suas estratégias de financiamento. Uma fundação em nossa rede, por exemplo, usa IA para ler e analisar relatórios de subsídios passados a fim de depreender padrões em estratégias de financiamento eficazes. O financiador contratou uma equipe de avaliadores e cientistas de dados para treinar grandes modelos de linguagem, usando validação human-in-the-loop, destinada a transformar dados qualitativos, retirados do texto de milhares de propostas e relatórios, em dados estruturados e longitudinais. A equipe, então, combinou esses dados com outros, de avaliação primária (como pesquisas, entrevistas e grupos focais); depois limpou, processou, construiu, estruturou e rotulou os dados de acordo com a teoria de mudança da iniciativa. Por fim, usando algoritmos de aprendizado de máquina com orientação e revisão de humanos/especialistas no assunto, a equipe modelou descritiva, preditiva e causalmente os dados. Com isso, a equipe da fundação tem dados que ficam disponíveis para a elaboração de relatórios, visualizações e painéis, fortalecendo sua capacidade de entender o que funcionou e o que não. Isso ajuda a garantir que novas estratégias de concessão de subsídios se baseiem no conhecimento prévio e permite que a fundação compartilhe melhor o que aprendeu com seus subsidiados e com outros no campo. A eficiência que isso cria permite, ainda que funcionários do programa passem mais tempo construindo relacionamentos fortes com potenciais e atuais beneficiários e comunidades – trabalho que só um ser humano pode fazer.
Colaboração com esforços que abordem a IA e a equidade
Outro problema é que as organizações têm poucos incentivos financeiros ou regulatórios para considerar as implicações éticas e de equidade do desenvolvimento de IA. O setor rentável projeta a maioria das ferramentas e processos desse tipo pensando em lucratividade e ganho de escala.
Pesquisadores, formuladores de políticas, provedores de assistência técnica, financiadores, profissionais sem fins lucrativos e membros da comunidade precisam trabalhar em conjunto para promover práticas e políticas ponderadas em torno da IA equitativa. Entre outros aspectos, incluem-se aí fazer pressão por mais legislação e regulamentação, desenvolver estruturas e padrões para o campo, envolver-se com as comunidades para desenvolver ferramentas que atendam às suas necessidades ou compartilhar conhecimento e melhores práticas sobre testes e monitoramento de algoritmos de IA para vieses.
Vários esforços hoje em curso poderão ajudar a fornecer ao sector social melhor apoio e orientação. O líder da maioria no Senado americano, Chuck Schumer, anunciou em junho que organizaria uma série de fóruns sobre IA para ajudar o Congresso a desenvolver legislação abrangente e bipartidária sobre o assunto. O primeiro fórum, realizado em setembro, contou com ativistas trabalhistas e de direitos civis, além de especialistas em tecnologia. Outro esforço é o Distributed AI Research Institute, que pesquisa como a IA pode afetar desproporcionalmente grupos marginalizados e concebe estruturas para o desenvolvimento e a prática de IA centradas na voz da comunidade e em promover a equidade. Ambos são exemplos promissores de esforços intersetoriais com visão de futuro para abordar a equidade e a IA.
Manutenção ancorada nos fundamentos