Imprimir artigo

Avanços por uma IA equitativa no setor social

Aplicativos cuidadosamente projetados podem gerar resultados mais fortes e igualitários para organizações sem fins lucrativos

Este artigo faz parte da nossa série “A busca global pela equidade”. Para conferir os demais artigos, clique aqui.

Por Kelly Fitzsimmons

Arte: Raffi Marhaba, The Dream Creative

A inteligência artificial (IA) evolui rapidamente em muitos setores e no mundo todo, e está mudando a forma como as pessoas e as organizações pensam e se comportam. Nos Estados Unidos, já há alguns anos empresas como Netflix e Amazon fazem bom uso da IA para adaptar recomendações e fornecer assistência virtual aos clientes, ao mesmo tempo que instituições de pesquisa e laboratórios de IA, como a DeepMind, a usam para acelerar a pesquisa médica e combater as mudanças climáticas.

Leia também:

‘Óculos roxos’ para alcançar a equidade de gênero no México

Medidas para a inclusão de pessoas com deficiência na China

De modo geral, porém, organizações sem fins lucrativos, têm participado menos desse momento de inovação tecnológica. Há motivos compreensíveis, até certo ponto, para isso: o setor não rentável enfrenta desafios generalizados,desde a falta de investimento em pesquisa e desenvolvimento até a escassez de uma equipe com experiência em IA, problemas que outros setores não enfrentam. Mas isso precisa mudar. O impacto da IA na sociedade – a forma como as pessoas trabalham e vivem – vai aumentar com o tempo, e o setor social não pode se dar ao luxo de não se envolver. As organizações sem fins lucrativos, na verdade, têm um papel importante a desempenhar em seu desenvolvimento. Quando projetadas e implementadas com a equidade em mente, as ferramentas de IA podem ajudar a preencher lacunas de dados, reduzir vieses e aumentar a eficácia dessas instituições. Financiadores, líderes sem fins lucrativos e especialistas em tecnologia precisam agir rapidamente e em sintonia para promover a IA equitativa no setor social.

 

Uso da IA para apoiar a equidade

 

Embora a IA ofereça muitas oportunidades empolgantes, seu potencial de causar danos sérios é claramente conhecido. Os desenvolvedores treinam algoritmos usando dados coletados de toda a sociedade, o que significa que os vieses estão presentes desde o início. Por exemplo, provedores de serviços financeiros geralmente usam a IA para tomar decisões de empréstimo, mas o setor financeiro nos Estados Unidos tem uma longa história de discriminação sistemática contra mulheres e alguns grupos raciais, que passa pela desigualdade nas políticas de avaliação e subscrição. Como esses algoritmos são treinados com base em dados históricos que refletem esse desfavorecimento intencional ligado a determinados CEPs, profissões e outras definições associadas a raça ou gênero, práticas injustas de empréstimo e desigualdades financeiras podem ser perpetuadas se isso não for levado em conta. Mesmo organizações não rentáveis bem-intencionadas poderiam facilmente criar aplicativos de IA falhos, gerando inadvertidamente consequências  prejudiciais. Por exemplo, uma organização que fornece capital semente para empreendedores sociais poderia treinar a IA usando dados financeiros tendenciosos e acabar prejudicando a missão de promover a equidade de riqueza ao dar preferência, erroneamente, a certos grupos de pessoas.

Há também um temor geral de que melhorias rápidas na capacidade da IA para executar tarefas administrativas, analíticas e criativas possam tornar obsoletas muitas profissões e até indústrias inteiras. A empresa de mídia digital Buzzfeed começou, recentemente, a usar IA para gerar conteúdo para seu site. Não é difícil imaginar um cenário em que uma organização sem fins lucrativos com orçamento limitado possa decidir cortar sua equipe de marketing e confiar no modelo de linguagem alimentado pelo ChatGPT, por exemplo. Além disso, aspectos relacionados à equidade na IA acabam se tornando menos prioritários uma vez que faltam regulamentação e incentivos financeiros para que as entidades os considerem. Empresas líderes de tecnologia, como Google e Microsoft, por exemplo, cortaram equipes voltadas para a ética na IA nos últimos anos.

Todas essas preocupações são legítimas e as organizações devem se esforçar para atendê-las. No entanto, quando desenvolvidos cuidadosamente e com a equidade em mente, os aplicativos alimentados por IA têm um grande potencial para ajudar a gerar resultados mais fortes e igualitários para as organizações sem fins lucrativos, em especial em três aspectos, descritos a seguir.

  1. Preencher lacunas de dados

A crescente divisão de dados entre os setores privado e social ameaça reduzir a eficácia das organizações sem fins lucrativos que fornecem serviços sociais essenciais nos Estados Unidos e deixam aqueles a quem elas servem sem o apoio de que precisam. Como escreveu Kriss Deiglmeir em um ensaio recente da Stanford Social Innovation Review, “dados são uma forma de poder”. E, continua, “a triste realidade é que o poder está sendo cada vez mais nas mãos do setor comercial, e não nas de organizações que buscam criar um mundo mais justo, sustentável e próspero”. A IA pode ajudar a quebrar essa tendência, democratizando o processo de geração e mobilização de dados e evidências e tornando, assim, a pesquisa, o desenvolvimento, a avaliação e a análise de dados contínuos mais acessíveis a uma gama mais ampla de organizações, incluindo aquelas com orçamento limitado e experiência interna.

Tomemos como exemplo a Quill.org, entidade que fornece a estudantes ferramentas gratuitas para ajudar a desenvolver a compreensão de leitura, escrita e habilidades linguísticas. A instituição usa um chatbot alimentado por IA que pede aos alunos que respondam a perguntas abertas com base em um trecho de texto. Em seguida, analisa as respostas e oferece sugestões de melhoria, como escrever com clareza ou usar evidências para dar sustentação às afirmações. Essa tecnologia torna o pensamento crítico de qualidade e o suporte à escrita disponíveis para alunos e escolas que, de outra forma, não teriam acesso a eles. Como disse recentemente Peter Gault, fundador e diretor-executivo da Quill.org: “Os Estados Unidos têm 27 milhões de estudantes de baixa renda que enfrentam dificuldades com escrita básica e se veem em desvantagem na escola e na força de trabalho […]. Ao usar a IA para dar feedback imediato sobre sua escrita, ajudamos professores a apoiar milhões de estudantes que se esforçam para escrever de forma mais forte, pensar de forma mais crítica e tornarem membros ativos de nossa democracia”.

  1. Reduzir vieses

Muitas histórias ilustram como a IA pode perpetuar vieses, como as de departamentos de polícia que usam algoritmos que apontam réus negros como pessoas com maior risco de cometer crimes no futuro do que os brancos, e empresas que aplicam os que desfavorecem mulheres na contratação. Mas a IA também tem o potencial de ajudar a reduzir preconceitos, apoiando a tomada de decisões equitativas. Algoritmos cuidadosamente projetados podem desconsiderar variáveis não relacionadas a resultados (como raça, gênero ou idade) que frequentemente influenciam a tomada de decisão humana, ajudando a equipe de organizações sem fins lucrativos a revelar padrões e tomar decisões com base em evidências, em vez de cair em vieses humanos e pontos cegos.

Um exemplo dessa possibilidade vem da First Place for Youth, organização que ajuda jovens a fazerem uma transição bem-sucedida para uma vida adulta responsável e autossuficiente. A entidade criou um mecanismo que usa análise de precisão – tecnologia que prevê tendências e padrões comportamentais ao revelar relações de causa e efeito nos dados – para tratar dados de administração do programa e avaliar casos, aprendendo com as diferenças de resultados entre os jovens. Isso ajuda a equipe a entender melhor o que funcionou para populações específicas e quais apoios personalizados têm maior probabilidade de acerto. Criado sob a lente da equidade, o algoritmo pode esclarecer se grupos demográficos distintos têm acesso igual aos componentes do programa. Além disso, para evitar replicar vieses existentes, a ferramenta não reúne casos com base em fatores socioculturais, como raça, que não devam ser levados em conta ao se pensar nos motivos pelos quais uma criança é selecionada para diferentes opções de programa.

  1. Aumentar eficiência

Aplicativos de IA podem cometer erros que vão do cômico ao aterrorizante. Os exemplos são muitos, como o chatbot do Bing que compartilhou fantasias obscuras e se declarou para um colunista do New York Times; ou o da paródia de Seinfeld sendo banida da Twitch por fazer piadas transfóbicas; ou ainda um chatbot da Microsoft sendo desligado por fazer comentários racistas. Mas aplicativos alimentados por IA, como os mecanismos de recomendação, análise de precisão e processamento de linguagem natural, podem ajudar organizações a aumentar a produção e, ao mesmo tempo, reduzir erros humanos. Designar tarefas rotineiras e tediosas para essas ferramentas pode permitir a equipes de entidades não rentáveis com capacidade limitada se concentrarem mais no trabalho estratégico e humano que computadores não podem fazer.

A Crisis Text Line, organização sem fins lucrativos que fornece suporte gratuito de saúde mental baseado em texto e intervenção em crises, usa IA para aumentar eficiência e ampliar sua capacidade, ao mesmo tempo que preserva serviços pessoais de alta qualidade. Especificamente, a organização ensinou a IA com textos anteriores para reconhecer palavras-chave de alto risco e combinações de palavras, permitindo uma triagem mais eficiente das mensagens recebidas por ordem de gravidade. A Crisis Text Line também usa a automação como parte do treinamento de voluntários para desenvolver habilidades de resposta a crises. Seu algoritmo de processamento de linguagem, treinado por um conjunto de casos fictícios, mas realistas, permite que o algoritmo imite conversas ao vivo entre voluntários e clientes sobre tópicos como ansiedade e automutilação. A tecnologia ajuda a Crisis Text Line a capacitar seus voluntários de forma eficiente e flexível, em parte porque permite completar o treinamento de acordo com a conveniência deles. E, o que é mais importante, permite à equipe e à rede de voluntários dedicarem mais tempo a prestarem apoio qualificado em tempo real ao público que os procura.

 

Apoio ao desenvolvimento de IA para organizações sem fins lucrativos

 

Embora exemplos como os acima ofereçam ilustrações interessantes do que é possível fazer, eles infelizmente são a exceção, e não a norma. O setor social precisa fazer bem mais para aproveitar o momento; precisa não só mostrar o que é possível, mas também construir as ferramentas e a infraestrutura necessárias para promover uma IA equitativa.

Nossa organização, Project Evident, ajuda outras entidades a fazerem bom uso do poder e de dados para aumentarem seu impacto e trabalha para construir um ecossistema de evidências mais forte e equitativo. Dentro de uma iniciativa recente com 18 meses de duração e foco em IA, reunimos organizações não rentáveis que queriam usar a tecnologia para obter melhores resultados para seus programas e desenvolvemos estudos de caso que ilustram os processos de condução e adoção de IA na prática. Além disso, para informar o desenvolvimento de ferramentas eficazes e equitativas, atualmente temos uma parceria com o Instituto de Inteligência Artificial Centrada em Humanos, de Stanford, em uma pesquisa nacional que busca compreender melhor o uso de IA e as necessidades de aprendizado entre organizações sem fins lucrativos e financiadores. Esses projetos ajudaram a pensar como o setor social pode fortalecer o ecossistema para uma IA equitativa.

  1. Aumento do investimento em ferramentas de IA

Muitas organizações sem fins lucrativos e distritos escolares estão ansiosos para entender como a IA pode ajudar em seu trabalho, mas não têm os meios para isso. “As estruturas de financiamento para organizações sem fins lucrativos normalmente não permitem que esse tipo de trabalho realmente aconteça”, disse Jean-Claude Brizard, que lidera a Digital Promise, organização sem fins lucrativos focada em educação, e que participou de nossa coorte. “A maioria das organizações sem fins lucrativos não tem tempo nem recursos.” Uma solução simples seria que os financiadores oferecessem subsídios para “nativas” (organizações que já implantam IA para criar resultados equitativos) e “exploradoras” de IA (organizações interessadas em usar IA, mas que não têm o capital e o suporte requeridos).

As fundações também devem investir em seu próprio aprendizado e explorar se e como a IA pode tornar processos de concessão de subsídios mais eficientes ou melhorar suas estratégias de financiamento. Uma fundação em nossa rede, por exemplo, usa IA para ler e analisar relatórios de subsídios passados a fim de depreender padrões em estratégias de financiamento eficazes. O financiador contratou uma equipe de avaliadores e cientistas de dados para treinar grandes modelos de linguagem, usando validação human-in-the-loop, destinada a transformar dados qualitativos, retirados do texto de milhares de propostas e relatórios, em dados estruturados e longitudinais. A equipe, então, combinou esses dados com outros, de avaliação primária (como pesquisas, entrevistas e grupos focais); depois limpou, processou, construiu, estruturou e rotulou os dados de acordo com a teoria de mudança da iniciativa. Por fim, usando algoritmos de aprendizado de máquina com orientação e revisão de humanos/especialistas no assunto, a equipe modelou descritiva, preditiva e causalmente os dados. Com isso, a equipe da fundação tem dados que ficam disponíveis para a elaboração de relatórios, visualizações e painéis, fortalecendo sua capacidade de entender o que funcionou e o que não. Isso ajuda a garantir que novas estratégias de concessão de subsídios se baseiem no conhecimento prévio e permite que a fundação compartilhe melhor o que aprendeu com seus subsidiados e com outros no campo. A eficiência que isso cria permite, ainda que funcionários do programa passem mais tempo construindo relacionamentos fortes com potenciais e atuais beneficiários e comunidades – trabalho que só um ser humano pode fazer.

  1. Colaboração com esforços que abordem a IA e a equidade

Outro problema é que as organizações têm poucos incentivos financeiros ou regulatórios para considerar as implicações éticas e de equidade do desenvolvimento de IA. O setor rentável projeta a maioria das ferramentas e processos desse tipo pensando em lucratividade e ganho de escala.

Pesquisadores, formuladores de políticas, provedores de assistência técnica, financiadores, profissionais sem fins lucrativos e membros da comunidade precisam trabalhar em conjunto para promover práticas e políticas ponderadas em torno da IA equitativa. Entre outros aspectos, incluem-se aí fazer pressão por mais legislação e regulamentação, desenvolver estruturas e padrões para o campo, envolver-se com as comunidades para desenvolver ferramentas que atendam às suas necessidades ou compartilhar conhecimento e melhores práticas sobre testes e monitoramento de algoritmos de IA para vieses.

Vários esforços hoje em curso poderão ajudar a fornecer ao sector social melhor apoio e orientação. O líder da maioria no Senado americano, Chuck Schumer, anunciou em junho que organizaria uma série de fóruns sobre IA para ajudar o Congresso a desenvolver legislação abrangente e bipartidária sobre o assunto. O primeiro fórum, realizado em setembro, contou com ativistas trabalhistas e de direitos civis, além de especialistas em tecnologia. Outro esforço é o Distributed AI Research Institute, que pesquisa como a IA pode afetar desproporcionalmente grupos marginalizados e concebe estruturas para o desenvolvimento e a prática de IA centradas na voz da comunidade e em promover a equidade. Ambos são exemplos promissores de esforços intersetoriais com visão de futuro para abordar a equidade e a IA.

  1. Manutenção ancorada nos fundamentos

As organizações devem ter alguns componentes prontos antes de implementar a IA para atingir resultados equitativos: um propósito estratégico claro; sistemas de tecnologia adequados; capacidade de projetar para justiça e equidade; e uma forte cultura de aprendizagem. Essas capacidades não são novas, nem são específicas para a inteligência artificial, mas, com frequência, são subestimadas e subfinanciadas no setor social.

O Project Evident trabalha frequentemente com organizações a fim de desenvolver planos estratégicos de evidências – roteiros para a construção contínua de evidências e melhoria do programa. Quando uma organização sem fins lucrativos busca realizar uma avaliação, seja porque os membros do conselho ou financiadores exigem ou os líderes acham que é “a coisa certa a fazer”, em geral sugerimos recuar um passo e perguntar: “O que você está tentando aprender? Que resultados quer alcançar?”. Tal clareza programática é essencial para que uma estratégia de evidência seja desenvolvida. O mesmo vale para a construção de mecanismos de recomendação ou outras ferramentas alimentadas por IA. Na verdade, um algoritmo de IA é simplesmente uma tradução de um modelo lógico que estabelece as entradas de um programa e os resultados pretendidos.

Os líderes do setor não rentável devem garantir que suas organizações tenham a base adequada antes de se envolverem com a IA, e outros no setor social devem apoiá-los com financiamento e ferramentas requeridas para desenvolver capacidades fundamentais. A agência de serviço social Gemma Services, com sede na Filadélfia, é um exemplo de como atrair financiamento para desenhar uma ferramenta de IA, demonstrando a um financiador local (a Scattergood Foundation) e à cidade de Filadélfia como a potencial aplicação do recurso não só beneficiaria a equipe da Gemma, mas também traria aprendizados valiosos para financiadores e formuladores de políticas preocupados com a saúde mental em toda região.

O potencial da IA no setor social é imenso. Aplicativos projetados com cuidado podem ajudar a preencher lacunas de dados, reduzir vieses e tornar as organizações sem fins lucrativos mais eficazes. No entanto, para aproveitar plenamente esse potencial, é importante construir, no setor social, uma infraestrutura robusta, que forneça recursos necessários, priorize preocupações de equidade e invista em capacidades organizacionais fundamentais. Com mais recursos, melhor alinhamento e agindo de forma mais consciente, podemos ajudar o setor social a aproveitar o poder da IA para obter resultados mais fortes e equitativos para todos.

A AUTORA

Kelly Fitzsimmons é fundadora e CEO do Project Evident, organização dedicada a construir um ecossistema de evidências mais forte e equitativo. Inovadora social comprometida, Kelly já atuou como vice-presidente e diretora de programas e estratégia da Fundação Edna McConnell Clark, foi uma das fundadoras da Leadwell Partners e da New Profit Inc. Atualmente, é embaixadora da Leap Community e integra o comitê consultivo para o padrão federal de excelência da Results for America’s Invest na What Works.

Confira o artigo no idioma original aqui.



Newsletter

Newsletter

Pular para o conteúdo